KI-Community Geteilt über den Israel-Hamas-Konflikt

Fast 200 Führungspersönlichkeiten aus der KI-Community, Forscher und Datenwissenschaftler haben am Dienstag einen offenen Brief der Responsible AI Community unterzeichnet. Dieser Brief verurteilt die jüngste Gewalt Israels gegen Palästinenser in Gaza und im Westjordanland. Er kritisiert den Einsatz von KI-Technologien in Kriegen, da diese darauf abzielen, die Effizienz menschlicher Verluste zu erhöhen und anti-palästinensische Vorurteile in KI-Systemen zu perpetuieren.

Der Brief, der zunächst von Tina Park, der Leiterin für inklusive Forschung und Design bei der Partnership on AI, verbreitet wurde, fordert den Stopp der technologischen Unterstützung für die israelische Regierung und das Ende ihrer Rüstungsverträge. Er betont, dass die aktuelle Krise in einem historischen Kontext verwurzelt ist, der den 7. Oktober 2023 übersteigt, und verweist darauf, dass KI-gesteuerte Technologien seit Beginn des Konflikts zu über 11.000 Luftangriffen auf Ziele in Gaza beigetragen haben.

Zu den prominenten Unterzeichnern des Briefes zählen Timnit Gebru, Forschungsleiterin für KI-Ethische Fragen und Gründerin von DAIR; Alex Hanna, Forschungsdirektor bei DAIR; Abeba Birhane, Senior Fellow bei Mozilla; Emily Bender, Linguistikprofessorin an der Universität Washington; und Sarah Myers West, Geschäftsführerin des AI Now Institute.

Jedoch haben israelische und jüdische KI-Führungspersönlichkeiten vehement gegen den Brief Stellung bezogen und argumentiert, dass er eine Reihe von Vorfällen widerspiegelt, in denen prominente KI-Ethiker die Angriffe der Hamas am 7. Oktober entweder gefeiert oder ignoriert haben. Der Brief thematisiert nicht die israelischen Geiseln in Gaza und verurteilt die Hamas nicht für ihr Handeln.

Jules Polonetsky, CEO des Future of Privacy Forum, äußerte Besorgnis und stellte fest, dass der Brief die Gräueltaten der Hamas nicht verurteilt. Er betonte die Komplexität moralischer Überlegungen in militärischen Konflikten und hinterfragte die Effektivität einer einseitigen Erzählung zur Lösung von Gewalt.

Yoav Goldberg, Professor an der Bar Ilan Universität, merkte an, dass einige KI-Technologien wahrscheinlich „unzählige palästinensische Leben gerettet“ haben, indem sie bei Geheimdienst- und Überwachungsoperationen unterstützen. Er bemerkte, dass vor den Angriffen am 7. Oktober viele potenzielle Angriffe aufgrund dieser Systeme möglicherweise abgewendet wurden.

Die KI-Ingenieurin Shira Eisenberg betonte, dass KI-Technologien, wie Israels Iron Dome, eine entscheidende Rolle in Kriegsoperationen spielen und die Bedeutung einer verantwortungsvollen Nutzung von KI im laufenden Konflikt hervorhoben.

Darüber hinaus berichteten mehrere israelische und jüdische Mitglieder der KI-Community von Schock und Enttäuschung über antisemitische Äußerungen in den sozialen Medien nach dem 7. Oktober. Sie fühlen sich von Personen hintergangen und isoliert, von denen sie geglaubt hatten, dass sie ihre Werte teilen.

Eran Toch, außerordentlicher Professor an der Universität Tel Aviv, erklärte, dass die mangelnde Empathie in der breiteren KI-Community für israelische Mitglieder, die sich der Lösung des palästinensischen Konflikts und der Menschenrechtsanwalt verschrieben haben, besonders schmerzhaft sei.

Bedenken über antisemitische Verschwörungstheorien in Bezug auf Israels Einsatz von KI-Technologie sind ebenfalls in dieser Gruppe entstanden. Sie argumentieren, dass solche Narrative historische Stereotypen wiederbeleben, die Juden mit Unterdrückung in Verbindung bringen.

Auf Medienanfragen lehnte Gebru weitere Kommentare ab und betonte ihren Fokus auf die Unterstützung der Palästinenser.

Der Brief hat eine Spaltung innerhalb der KI-Community und des größeren Technologiesektors ausgelöst, verschärft durch Maßnahmen einiger KI-Führungspersönlichkeiten, sich von prominenten Veranstaltungen wie dem Web Summit zurückzuziehen, als Reaktion auf kontroverse Kommentare zu Israels Handlungen.

Dan Kotliar, Forscher an der Universität Haifa, hob hervor, dass die implizite Unterstützung der Hamas-Aktionen im Brief Fragen zur Ethik derjenigen aufwirft, die verantwortungsvolle KI fördern, was ihre Glaubwürdigkeit weiter kompliziert.

Talia Ringer, Assistenzprofessorin an der Universität Illinois in Urbana-Champaign, berichtete von einer tiefen persönlichen Verbindung zu den Ereignissen seit den Angriffen am 7. Oktober, die ihre Familie betroffen haben. Sie wies auf das Fehlen von Raum für Trauer in der KI-Forschungsgemeinschaft hin und hob ihren Kampf mit antisemitischen Bemerkungen ehemaliger Freunde hervor.

Während Ringer den Wert der Bedenken über KI im Krieg sieht, kritisierte sie die Formulierung, die nahelegt, dass die Geschichte nicht am 7. Oktober begonnen hat, als abwertend für die traumatischen Auswirkungen dieses Tages. Letztendlich macht Ringers persönliche Verzweiflung es ihr schwer, sich zurzeit auf KI-Themen zu konzentrieren, da ihr Fokus auf den menschlichen Verlusten des laufenden Konflikts bleibt.

Most people like

Find AI tools in YBX