Das Vereinigte Königreich hat den AI Safety Summit ins Leben gerufen, der Staatsoberhäupter, KI-Pioniere und globale Experten auf einem historisch bedeutsamen Landgut zusammenbringt. Ziel des Gipfels ist es, einen internationalen Rahmen für die sichere Entwicklung von Künstlicher Intelligenz (KI) zu schaffen. Kurz nach Beginn der Veranstaltung gab die britische Regierung die Annahme der Bletchley-Erklärung zur KI-Sicherheit bekannt, benannt zu Ehren von Bletchley Park, der Wiege der modernen Computertechnologie und Heimat von Alan Turings bahnbrechenden Arbeiten im Bereich der Codeknackung während des Zweiten Weltkriegs.
Die Bletchley-Erklärung umfasst eine Reihe von Verpflichtungen, um sicherzustellen, dass KI sicher entworfen, entwickelt, bereitgestellt und genutzt wird. Sie betont menschzentrierte Prinzipien, Vertrauenswürdigkeit und Verantwortung. Zu den Unterzeichnern zählen 28 Nationen, darunter die USA und China sowie die Europäische Union, die sich verpflichtet haben, in bestehenden internationalen Foren zusammenzuarbeiten, um KI-Risiken zu begegnen. Die Erklärung erkennt an, dass Länder diese Risiken gemäß ihren spezifischen Rechtsrahmen und gesellschaftlichen Kontexten kategorisieren können.
Darüber hinaus bekräftigt die Erklärung das Engagement zur Organisation weiterer AI Safety Summits und hebt die Notwendigkeit eines inklusiven globalen Dialogs zur KI-Sicherheit hervor. Premierminister Rishi Sunak äußerte sich zur Bedeutung dieses Konsens und erklärte: „Dies ist ein wegweisender Erfolg, der zeigt, dass die größten KI-Mächte der Welt sich hinsichtlich der Dringlichkeit, die Risiken von KI zu verstehen, einig sind – was dazu beiträgt, die langfristige Zukunft unserer Kinder und Enkelkinder zu sichern.“
Technologie-Sekretärin Michelle Donelan ergänzte, dass der Gipfel den Beginn einer langen Reise markiert, um sicherzustellen, dass jeder die Vorteile der KI-Technologie nutzen kann. Trotz dieser vielversprechenden Erklärungen betonen Experten wie Robert F. Trager, Direktor der Oxford Martin AI Governance Initiative, dass es an spezifischen Vorgaben fehle, wie die Länder effektiv zusammenarbeiten werden. „Der Gipfel scheint eine Erklärung der Prinzipien ohne einen klaren Fahrplan für die internationale Zusammenarbeit erreicht zu haben“, bemerkte er.
Die US-Handelsministerin Gina Raimondo kündigte Pläne zur Gründung eines AI Safety Institute innerhalb des National Institute of Standards and Technology (NIST) an. Dieses neue Gremium wird sich auf die Erstellung von Richtlinien, Werkzeugen und Best Practices zur Bewertung von KI-Risiken konzentrieren und den Regulierungsbehörden technische Leitlinien zu wichtigen Themen wie Transparenz und Wasserzeichen für KI-generierte Inhalte bieten. Raimondo forderte außerdem Industrie und Wissenschaft auf, aktiv an dieser Initiative teilzunehmen und betonte die Notwendigkeit von Partnerschaften in diesem kritischen Vorhaben.
In einer aufgezeichneten Ansprache hob König Charles III. die Bedeutung internationaler Zusammenarbeit zur Gewährleistung von KI-Sicherheit hervor und drängte auf zügige und einheitliche Maßnahmen zum Schutz der Privatsphäre und der Lebensgrundlagen. Seine Majestät bedankt sich bei den Teilnehmern, dass sie den Grundstein für einen dauerhaften Konsens über KI-Sicherheit gelegt haben, und bekräftigte, dass KI eine positive Kraft für das Gute sein sollte.
Um die KI-Kompetenz zu stärken, kündigte die britische Regierung kürzlich ein Engagement von 118 Millionen Pfund (143 Millionen Dollar) zur Förderung der KI-Fachkräfteentwicklung an. Dazu gehört die Einrichtung von 12 neuen Doktorandenausbildungszentren für KI, um erstklassige globale Talente zu fördern und die transformierenden Vorteile von KI zu maximieren. Der Fonds umfasst auch 1 Million Pfund in „AI Futures Grants“, die darauf abzielen, KI-Forscher ins Vereinigte Königreich zu locken.
Der zweitägige AI Safety Summit wird sich mit den Risiken fortschrittlicher KI-Modelle befassen und mögliche Minderungsstrategien erkunden. Die Teilnehmer werden an verschiedenen Diskussionen teilnehmen, um ein gemeinsames Verständnis der KI-Risiken zu entwickeln und wichtige Themen wie effektive Sicherheitsbewertungen und Governance-Mechanismen zu behandeln. Besondere Aufmerksamkeit wird den „Frontier Models“ gewidmet, die erhebliche Risiken für die Gesellschaft darstellen.
Bemerkenswert ist, dass die Gästeliste wichtige Akteure im KI-Sektor umfasst, darunter Vertreter der Vereinten Nationen, UNESCO und einflussreiche akademische Institutionen wie Oxford und Stanford. Auch bedeutende KI-Unternehmen wie OpenAI, Nvidia, Google DeepMind, IBM und Meta werden vertreten sein, ebenso wie innovative Startups in diesem Bereich.
Während der Gipfel eine vielfältige Expertengruppe willkommen heißt, gibt es Bedenken hinsichtlich der begrenzten Vertretung kleinerer KI-Firmen und Startups. Victor Botev, CTO von Iris.ai, wies darauf hin, dass der Gipfel besser von einer breiteren Palette von Stimmen, insbesondere von innovativen kleinen Unternehmen, profitieren könnte, die oft maßgeblich zu Durchbrüchen in der KI beitragen.
Während der Gipfel voranschreitet, wird er eine entscheidende Gelegenheit für globale Führer darstellen, um drängende Themen der KI-Sicherheit zu adressieren und ein Umfeld zu schaffen, in dem kollaborative Lösungen entstehen können, um die Vorteile der KI zu nutzen und gleichzeitig ihre inhärenten Risiken zu mindern.