Vor einem Jahr startete ich eine Kolumne über KI-Entwicklungen, in der ich fünf KI-Geschichten vorstellte, die ich im Jahr 2023 näher untersuchen wollte. Nach der Einführung von ChatGPT durch OpenAI im November 2022 erlebten wir einen kontinuierlichen Strom an KI-Nachrichten. Wichtige Entwicklungen wie GPT-4, das EU-KI-Gesetz, der Wettbewerb um KI-Suchfähigkeiten und die laufende Debatte über offene versus geschlossene KI-Modelle habe ich umfassend behandelt.
Nun, da das neue Jahr naht, identifiziere ich erneut zentrale KI-Narrative, die voraussichtlich Trends im Jahr 2024 prägen werden:
1. OpenAI vs. Anthropic
Zu Beginn von 2023 feierte OpenAI den Erfolg von ChatGPT, während Anthropic—ein von ehemaligen OpenAI-Leitern gegründetes Start-up—schnell an Boden gewann. Anthropic stellte am 14. März 2023 seinen ChatGPT-Wettbewerber Claude vor, zeitgleich mit OpenAIs überraschender Ankündigung von GPT-4. Beide Unternehmen streben erhebliche Finanzierungsrunden an—Anthropic hofft auf 750 Millionen Dollar von Menlo Ventures, während OpenAI einen neuen Fonds mit einer erstaunlichen Bewertung von 100 Milliarden Dollar verhandelt. Die Rivalität im Bereich der großen Sprachmodelle (LLMs) wird sich weiter verstärken.
2. Open Source KI jagt GPT-4
Die Einführung des Open-Source-LLMs Mixtral8x7B durch das französische Start-up Mistral AI Anfang Dezember verdeutlichte den Willen der Open-Source-Community, proprietäre Modelle herauszufordern. Mistrals CEO, Arthur Mensch, erklärte kürzlich, dass das Unternehmen 2024 ein Open-Source-Modell vorstellen möchte, das mit GPT-4 vergleichbar ist. Unterdessen bereitet Meta offenbar die Vorstellung von Llama 3 in der ersten Hälfte von 2024 vor, um die Parität mit GPT-4 zu erreichen. Angela Fan, Forscherin bei Meta FAIR, betonte das Engagement, das Feedback von Entwicklern zur Verbesserung von Llama zu berücksichtigen.
3. Der Einfluss von KI auf die Wahlen 2024
Die Bedenken hinsichtlich der Rolle von KI bei der bevorstehenden Präsidentschaftswahl 2024 nehmen zu. Ethan Bueno de Mesquita von der Universität Chicago bemerkte: „2024 wird eine KI-Wahl sein, ähnlich den sozialen Medienwahlen von 2016 und 2020.“ Der Maschinenlernen-Forscher Nathan Lambert meinte, dass generative KI das Wahlumfeld mit Chatbots und Deepfakes komplizieren könnte, während sie auch die Bemühungen um eine KI-Regulierung, beeinflusst durch politische Dynamiken, behindern könnte.
4. Datenregulierung und KI
Die Diskussionen über KI-Trainingsdaten waren 2023 prägnant und werden 2024 weiter zunehmen. Die Komplexität von Urheberrecht, Bias, Deepfakes, Desinformation und Arbeitsfragen unterstreicht die Bedeutung der Daten, die KI-Modelle trainieren, sowohl historischer als auch neu erstellter Datensätze. Aktuelle Entwicklungen, wie die Datenentfernung durch LAION und OpenAIs Bemühungen um neue Datensatzpartnerschaften, betonen die dringende Notwendigkeit, diese Themen eingehender zu behandeln.
5. Effektiver Altruismus vs. Effektiver Beschleunigungsismus
Da die Zukunft von KI ungewiss bleibt, gewinnen gegensätzliche Überzeugungssysteme über Risiken und Chancen an Bedeutung. Ich habe mich eingehend mit dem Einfluss der Bewegung des effektiven Altruismus (EA) auf die KI-Politik, insbesondere in sicherheitsbezogenen Bereichen, beschäftigt. Gleichzeitig steht der effektive Beschleunigungsismus (e/acc)—vertreten durch VC Marc Andreessen—für die gegenteilige Perspektive. Während ich KI-Pragmatiker für einen ausgewogenen Ansatz hervorheben möchte, ist es wichtig, weiterhin die Auswirkungen von EA und e/acc auf KI-Politik und -Investitionen zu untersuchen.