In einem seltenen Vorstoß kritisiert Meta’s LeCun OpenAI und Turing-Preisträger

Der Chief AI Scientist von Meta, Yann LeCun, hat starke Kritik an führenden Persönlichkeiten der KI geübt, die aus Angst vor einer existenziellen Bedrohung durch KI für strengere Regulierungen plädieren. Dies geschieht insbesondere im Vorfeld des ersten globalen KI-Gipfels im Vereinigten Königreich in dieser Woche. In einem Beitrag auf X (ehemals Twitter) wies LeCun diese apokalyptischen Szenarien als unbegründet zurück. „Die Untergangsängste, die Sie verbreiten, sind lächerlich“, erklärte er. „Leistungsstarke KI-Systeme, die von klar definierten Zielen geleitet werden—vorausgesetzt, es gibt geeignete Sicherheitsvorkehrungen—sind sicher und kontrollierbar, da wir diese Parameter festlegen.“

LeCun unterstrich, dass die aktuellen Auto-Regressiven Sprachmodelle (LLMs) diese Leitziele nicht besitzen und warnte davor, deren gegenwärtige Einschränkungen auf zukünftige KI-Systeme zu projizieren. Zudem beschuldigte er die Führungskräfte von drei großen KI-Unternehmen—OpenAI-CEO Sam Altman, Google DeepMind-CEO Demis Hassabis und Anthropic-CEO Dario Amodei—der Kollusion, um geschlossene KI-Modelle aufrechtzuerhalten. „Altman, Hassabis und Amodei stehen an der Spitze einer intensiven Unternehmenslobby, die darauf abzielt, die regulatorischen Rahmenbedingungen innerhalb der KI-Branche zu beeinflussen“, sagte er.

In Bezug auf seine Mitpreisträger des Turing-Preises forderte er MIT-Professor Max Tegmark sowie Geoff Hinton und Yoshua Bengio heraus. Er behauptete, dass sie unbeabsichtigt denjenigen, die auf Beschränkungen der offenen KI-Forschung drängen, Munition liefern. LeCun setzt sich für offene KI-Forschung ein, um den technologischen Zugang zu demokratisieren und betonte, dass Metas Ansatz auf Open-Source-Initiativen basiert, wie das prominente Sprachmodell Llama 2 zeigt.

Trotz der Bedenken der US-Regierung, dass Open-Source-KI böswillige Akteure ermächtigen könnte, ist LeCun der Überzeugung, dass eine Einschränkung des Zugangs zu KI-Modellen kontraproduktiv wäre. „Wenn Ihre angstgetriebenen Kampagnen Erfolg haben, werden sie unweigerlich zu einer Katastrophe führen: einer konzentrierten Kontrolle der KI durch eine selecte Gruppe von Unternehmen. Die Mehrheit unserer akademischen Kollegen unterstützt überwältigend die offene KI-Forschung. Sehr wenige unterstützen die von Ihnen präsentierten Untergangsszenarien.“

LeCun argumentiert, dass offene KI-Plattformen die Norm sein sollten, um vielseitige Beiträge und demokratische Teilhabe im Bereich der KI zu fördern. „In einer Zukunft, in der KI-Systeme das kollektive menschliche Wissen und die Kultur verkörpern, ist es entscheidend, dass Plattformen Open Source und zugänglich bleiben. Diese Offenheit ist wesentlich, damit diese Plattformen das gesamte Spektrum menschlicher Erfahrungen und Einsichten genau widerspiegeln“, erklärte er. „Beiträge müssen crowdsourced werden, ähnlich wie bei Wikipedia, was ohne offene Plattformen nicht möglich ist.“

Er warnte, dass strenge Regulierungen die Open-Source-KI ersticken könnten, was zu einem monopolartigen Einfluss einiger Unternehmen an der Westküste der USA und in China führen würde. „Welche Auswirkungen hätte dies auf Demokratie und kulturelle Vielfalt? Das besorgt mich wirklich.“

LeCuns kritische Äußerungen kommen zu einem Zeitpunkt, da Berichte glauben machen, dass der bevorstehende Gipfel im Vereinigten Königreich hauptsächlich auf die Risiken der KI fokussiert sein wird. Als Antwort auf diese Bedenken scherzte er auf Twitter, dass der britische Premierminister an einer „Existential Fatalistic Risk from AI Delusion Disease (EFRAID)“ erkrankt sei, und hoffte verspielt, dass diese nicht auf andere Weltführer übergreifen würde. Obwohl er zum Gipfel eingeladen wurde, entfachten seine Bemerkungen eine Debatte mit Tegmark und lösten eine weitere Diskussion zu diesem Thema aus.

Diese Diskussion gewann an Intensität, nachdem Hinton, oft als „Godfather of AI“ bezeichnet, am 27. Oktober warnte, dass Unternehmen planen, Modelle zu entwickeln, die in naher Zukunft exponentiell mehr Rechenleistung nutzen werden, was Bedenken hinsichtlich der fehlenden Regulierungen aufwirft. LeCun antwortete auf Hintons Aussage und betonte, dass zukünftige KI-Systeme, wenn sie bestehenden Architekturen folgen, zwar hohe Wissensniveaus erreichen könnten, jedoch weiterhin an Vernunft, Kreativität und Verständnis der physischen Welt fehlen würden.

„Zukünftige Systeme müssen innovative Architekturen übernehmen, die es ihnen ermöglichen, zu argumentieren, zu planen und innerhalb festgelegter Ziele und Sicherheitsvorkehrungen zu agieren“, stellte er fest. „Diese zielorientierten Rahmenbedingungen werden Sicherheit und Kontrolle gewährleisten, da wir ihre Ziele bestimmen und damit verhindern, dass eine übergreifende Absicht zur Dominanz entsteht.“ Er widersprach entschieden der Auffassung, dass fortschrittliche KI-Systeme zwangsläufig die Menschheit übermannen wollten, und argumentierte, dass solche Überzeugungen grundsätzlich fehlerhaft seien.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles