Den Hype um KI Navigieren: OpenAI, Q* und die Steigende Angst

Nach den dramatischen Ereignissen rund um OpenAI in den letzten 10 Tagen – in denen CEO Sam Altman entlassen wurde, CTO Mira Murati als Interims-CEO einsprang, Präsident Greg Brockman zurücktrat und fast alle OpenAI-Mitarbeiter mit Kündigung drohten, nur um Altman kurz vor Thanksgiving wieder einzusetzen – hatte ich gehofft, dass das Feiertagswochenende Silicon Valley eine Gelegenheit bieten würde, sich von dem AI-Hype zurückzuziehen und sich eine wohlverdiente Auszeit zu gönnen.

Doch das war nicht der Fall. Am Thanksgiving-Morgen berichtete Reuters, dass vor Altmans vorübergehender Abberufung mehrere OpenAI-Forscher einen Brief an den Vorstand geschickt hatten, in dem sie vor einer „mächtigen Entdeckung der künstlichen Intelligenz“ warnten, die eine Bedrohung für die Menschheit darstellen könnte. Diese Geschichte verbreitete sich viral, während sich Familien zum Thanksgiving-Essen versammelten. Das Projekt, bekannt als Q, könnte möglicherweise die Entwicklung von AGI (Artificial General Intelligence) vorantreiben, die von OpenAI als autonome Systeme definiert wird, die in den meisten wirtschaftlich wertvollen Aufgaben den Menschen überlegen sind. Laut Reuters könnte dieses neue Modell bestimmte mathematische Probleme lösen, und obwohl seine Fähigkeiten auf Grundschulniveau waren, äußerten die Forscher Optimismus über die zukünftigen Perspektiven von Q.

Der nahtlose Übergang von der Turbulenz im OpenAI-Vorstand zu Diskussionen über Q brachte mich zum Nachdenken über den anhaltenden AI-Hypezyklus. Ich plädiere nicht für eine längere Pause in der AI-Entwicklung, aber es wäre erfrischend gewesen, für einen kurzen Moment, wenn auch nur für einen Tag, vom Lärm Abstand zu nehmen. Die Aufregung um Q schien aus einem Algorithmus zu stammen, den Nvidias leitender AI-Wissenschaftler, Jim Fan, als „Fantasie“ bezeichnete und der ihm aufgrund fehlender substanzieller Grundlagen – keine veröffentlichten Arbeiten, keine Statistiken, kein greifbares Produkt – kritisch gegenüberstand.

Obwohl es unbestreitbar einen intellektuellen Reiz und einen intensiven Medienwettbewerb um die neuesten Nachrichten gibt, könnte der ständige Nachrichtenstrom auch aus einer tiefer liegenden Quelle von Angst resultieren, die durch Unsicherheit angeheizt wird. Eine Studie von Forschern der Universität Wisconsin zeigt, dass Ungewissheit über potenzielle zukünftige Bedrohungen unsere Fähigkeit stört, ihnen zu entkommen, was zu erhöhter Angst führt. Unser Gehirn fungiert als „Antizipationsmaschine“, die vergangene Erfahrungen nutzt, um die Zukunft vorherzusagen und Ergebnisse zu verbessern. Wenn unsere Voraussicht durch Unsicherheit getrübt ist, mindert sich unsere Fähigkeit zur Vorbereitung und fördert die Angst.

Dieses Phänomen betrifft nicht nur die allgemeine Öffentlichkeit, sondern auch führende AI-Forscher und -Experten. Selbst Giganten wie Geoffrey Hinton, Yann LeCun und Andrew Ng kämpfen mit Unsicherheit über die Zukunft der AI. Ihre Debatten in den sozialen Medien – obwohl intellektuell aufgeladen – bieten wenig Trost, um unsere Ängste über das, was kommt, zu navigieren.

Die intensive Analyse rund um OpenAI und Q in der vergangenen Woche spiegelt diese kollektive Angst vor der ungewissen Entwicklung der AI wider. Wenn wir weiterhin unermüdlich nach Informationen und Bestätigung suchen, riskieren wir, eine fundamentale Wahrheit über AI zu übersehen: Ihre Zukunft ist intrinsisch ungewiss.

Das bedeutet nicht, dass Diskussionen und Planungen für die Evolution der AI nicht weitergeführt werden sollten. Vielleicht können wir uns jedoch eine kurze Pause von solchen Debatten gönnen, um die Feiertage zu genießen. Mit nur noch vier Wochen bis Weihnachten können vielleicht alle Beteiligten – Effective Altruists, Techno-Optimisten, Branchenführer und akademische Forscher – zustimmen, eine kurze Auszeit vom AI-Hype zu nehmen, um ein wenig Eierpunsch und Kekse zu genießen. Unsere gemeinsame Angst vor der Zukunft der AI wird uns nach dem Neujahr trotzdem weiterhin begleiten. Das verspreche ich.

Most people like

Find AI tools in YBX