Das DeepMind-Team von Google arbeitet aktiv daran, die Diskussion über Künstliche Allgemeine Intelligenz (AGI) zu klären, indem es eine präzise Definition des Begriffs erstellt. Während viele KI-Enthusiasten AGI als das ultimative Ziel auf dem Weg zur künstlichen Superintelligenz betrachten, werden die spezifischen Merkmale von AGI selten eindeutig formuliert. Der Begriff wird häufig vage verwendet, um Software zu beschreiben, die, sobald sie einen bestimmten Punkt überschreitet, Fähigkeiten ähnlich denen der menschlichen Intelligenz erreicht.
In einem Preprint, der auf arXiv veröffentlicht wurde, betonten die DeepMind-Forscher die Bedeutung einer genauen Definition von AGI. Dabei hoben sie hervor, dass es notwendig ist, Attribute wie Leistung, Allgemeingültigkeit und Autonomie in KI-Systemen zu quantifizieren. Durch den Vorschlag eines standardisierten Rahmens zur Bewertung von AGI wollen sie Benchmarks schaffen, die bei der Einschätzung der Fähigkeiten verschiedener KI-Modelle helfen.
Definition von AGI
Derzeit existiert keine allgemein akzeptierte Definition von AGI. Die Charta von OpenAI beschreibt AGI als "hochgradig autonome Systeme, die in den meisten wirtschaftlich wertvollen Arbeiten besser abschneiden als Menschen." Fachleute sind sich einig, dass AGI, im Gegensatz zu spezialisierter KI, die spezifische Aufgaben wie Übersetzungen oder Spiele hervorragend bewältigt, die Flexibilität und Anpassungsfähigkeit zeigen sollte, um jede intellektuelle Aufgabe eines Menschen zu erfüllen. Dies erfordert sowohl das Beherrschen spezifischer Bereiche als auch die Fähigkeit, Wissen in verschiedene Felder zu übertragen, Kreativität zu zeigen und neuartige Probleme zu lösen.
Um das Konzept der AGI zu klären, orientierten sich die Forscher bei Google an dem sechs-stufigen Rahmen zur Bewertung des Fortschritts im autonomen Fahren. Sie analysierten verschiedene Definitionen von AGI und identifizierten mehrere grundlegende Prinzipien, die jede Definition untermauern sollten.
Erstens argumentiert das Google-Team, dass AGI-Definitionen sich auf Fähigkeiten und nicht auf die Prozesse, durch die KI diese erreicht, konzentrieren sollten. Diese Perspektive betont, dass KI keine menschlichen Denkweisen oder Bewusstsein nachahmen muss, um als AGI zu gelten.
Zweitens betonen sie, dass das Erreichen von AGI nicht nur allgemeine Fähigkeiten erfordert, sondern auch spezifische Leistungsbenchmarks für verschiedene Aufgaben. Sie klären allerdings, dass diese Benchmarks nicht in realen Umgebungen validiert werden müssen; es reicht aus, wenn ein Modell das Potenzial zeigt, menschliche Fähigkeiten in einem bestimmten Bereich zu übertreffen.
Einige Experten schlagen vor, dass AGI möglicherweise in Robotern implementiert werden muss, um mit der physischen Welt zu interagieren. Die DeepMind-Forscher sind jedoch anderer Meinung und schlagen vor, dass AGI hauptsächlich auf intelligente kognitive Aufgaben ausgerichtet sein sollte, wie selbstgesteuertes Lernen. Zudem betonen sie die Wichtigkeit der Verfolgung, wie sich AGI im Laufe der Zeit entwickelt, anstatt sich auf ein einziges Endziel zu fixieren.
Stufen der AGI
Zur Klassifizierung von AGI entwickelte DeepMind ein System namens "Stufen der AGI", das mit "aufkommend" (vergleichbar oder leicht besser als ein ungeschulter Mensch) beginnt und durch Kategorien wie "kompetent", "Experte", "Virtuose" bis hin zu "übermenschlich" (alle menschlichen Fähigkeiten übertreffend) fortschreitet. Dieses Klassifizierungssystem gilt sowohl für einfache als auch komplexe KI-Systeme.
Die Forscher weisen darauf hin, dass bestehende KI-Technologien wie DeepMinds AlphaFold bereits übermenschliche Leistungen in spezifischen Aufgaben zeigen. Sie deuten auch an, dass fortschrittliche Chatbots wie GPT-4 und Googles Bard frühe Stufen von AGI darstellen könnten.
Die Zukunft der AGI
Einige Mitglieder der KI-Community sind optimistisch bezüglich der bevorstehenden Ankunft von AGI. Jensen Huang, CEO von Nvidia, äußerte kürzlich die Überzeugung, dass AGI innerhalb des kommenden Jahrzehnts oder sogar früher realisiert werden könnte. Nicole Valentine, Spezialistin für KI und Fintech, schlug vor, dass AGI möglicherweise bereits existiert, aber noch nicht sein volles Potenzial erreicht hat. Sie argumentiert, dass KI-Systeme, während sie sich entwickeln und aus ihrer Umwelt lernen, im Laufe der Zeit an Raffinesse gewinnen werden. "Die eigentliche Herausforderung besteht darin, wie wir als Menschen die Risiken und Chancen, die sich aus Software ergeben, die lernen, in natürlicher Sprache kommunizieren und logisch denken kann, navigieren", erklärte sie.
Anfang des Jahres erregte eine Gruppe von KI-Experten mit ihrem Papier "Sparks of Artificial General Intelligence: Early Experiments with GPT-4" Aufsehen, in dem sie GPT-4s Fähigkeit, komplexe Aufgaben in verschiedenen Bereichen auszuführen, hervorhoben und vorschlugen, dass es als ein erster – wenn auch unvollständiger – Ausdruck von AGI betrachtet werden könnte.
Im Gegensatz dazu glauben einige Experten, dass wir noch weit von einem maschinellen Niveau der menschlichen Intelligenz entfernt sind. Yann LeCun, Chief AI Scientist bei Meta, spricht sich gegen die Existenz von AGI aus und schlägt vor, den Begriff durch "menschliche KI" zu ersetzen. Er erkennt jedoch an, dass Maschinen letztendlich menschliche Intelligenz in allen Bereichen übertreffen werden, was mit der allgemeinen Definition von AGI übereinstimmt.
Befürworter der AGI sind überzeugt, dass sie das Potenzial hat, verschiedene Sektoren, von der Gesundheitsversorgung bis zur Raumfahrt, zu revolutionieren. Experten wie Assaf Melochna, Präsident des KI-Unternehmens Aquant, weisen jedoch darauf hin, dass AGI zwar zu außergewöhnlichen Fortschritten führen könnte, aber auch erhebliche Risiken birgt, ähnlich denen, die bei der Manipulation sozialer Medien während gesellschaftlicher und politischer Ereignisse beobachtet wurden.