• AI Peanuts
  • Posts
  • 🤔 Sind Sprachmodelle der Schlüssel zu AGI? Und was bedeutet das eigentlich?

🤔 Sind Sprachmodelle der Schlüssel zu AGI? Und was bedeutet das eigentlich?

AGI – Artificial General Intelligence ist der heilige Gral der künstlichen Intelligenz. Was sich genau dahinter verbirgt, wird unterschiedlich definiert, aber im Grunde geht es um eine KI, die wie Menschen denken kann oder sogar noch besser.

Googles Wissenschaftler haben nun die AGI-Ambitionen auf den Boden der Tatsachen zurückgeholt. In einem neuen Paper haben sie getestet, ob Sprachmodelle in der Lage sind zu Generalisieren - und damit eine Kerneigenschaft menschlicher Intelligenz abbilden können.
Und die Antwort ist erstmal: Nein.

Die Erkenntnisse verdeutlichen, dass Transformer, während sie in ihren trainierten Bereichen effektiv sind, bei unvertrauten Aufgaben schnell scheitern können. Das widerspricht der Vorstellung, dass AGI kurz bevorsteht. Stark vereinfacht lässt es sich folgendermaßen erklären: Wenn wir ein Model zur Hundeerkennung nur auf Bildern von Hunden und Katzen trainieren, dann wird es, egal wie groß unser Modell auch ist, nie ein Flugzeug erkennen. 

Aber Moment: Jetzt sollte man dazu sagen, dass das Paper GPT-2 aus 2019 nutzte, das nun mal sehr viel kleiner und unfähiger als ChatGPT ist. Und die Gegenthese könnte lauten, dass Generalisierungen erst ab einem bestimmten Scale möglich sind. Denn etwas überraschend steht der DeepMind-Mitbegründer Shane Legg weiterhin zu seiner Prognose, dass wir eine 50:50 Chance haben, AGI bis 2028 zu entwickeln. Er argumentiert nämlich hauptsächlich mit dem exponentiellen Anstieg unserer Rechenleistung und Datenmenge. Forscher von Google DeepMind haben nun ein Framework von "Levels of AGI" vorgeschlagen, das darauf abzielt, den Fortschritt in Richtung menschenähnlicher KI zu standardisieren und zu verfolgen. Sehr interesant!

Was sagt uns das ganze? Zuerst ein mal ist das aus unserer Sicht ein Pluspunkt für die Sicherheit, denn ein Modell, das nicht darauf trainiert wurde, X zu tun, kann X auch nicht ausführen. Erstmal Grund zum durchatmen.

Auf der Meta Ebene sehen wir zwei wichtige Punkte:

  • Erstens, die ganzen Bestrebungen aktuelle KI Forschung und Entwicklung zu stoppen, weil die Gefahr für die Menschheit einfach zu groß ist, erscheinen jetzt schon absurd. Auch werden die vielen Sicherheitsmaßnahmen und Regeln in 10 Jahren sehr übereifrig aussehen. Ähnlich wie die Menschen bei der Erfindung des Zuges im 19. Jhd. Angst hatten, dass der Körper nicht für Geschwindigkeiten über 30 km/h geschaffen sei. 

  • Und Zweitens sind KI Agents, wie sie gerade von OpenAI eingeführt werden, extrem hilfreich - auch wenn sie nur innerhalb der Trainingsdaten wirklich gut funktionieren. Denn die Trainingsdaten werden bald der Wissensstand der gesamten Menschheit sein. Und Damit kommt man schon weit.