Weißes Haus sichert sich freiwillige Zusagen von KI-Unternehmen im Kampf gegen Deepfake-Pornografie

Erklärung des Weißen Hauses zur Bekämpfung von KI-gestütztem bildbasiertem Missbrauch

Heute hat das Weiße Haus Verpflichtungen von führenden KI-Unternehmen angekündigt, die darauf abzielen, die Erstellung und Verbreitung bildbasierten sexuellen Missbrauchs zu reduzieren. An den Bemühungen beteiligen sich Unternehmen wie Adobe, Anthropic, Cohere, Common Crawl, Microsoft und OpenAI, die Strategien zur Verhinderung der Generierung nicht einvernehmlicher intimer Bilder (NCII) von Erwachsenen und zur Bekämpfung von sexuellem Missbrauchsmaterial (CSAM) bei Kindern skizziert haben.

Diese Unternehmen haben sich verpflichtet:

- "Datenquellen verantwortungsbewusst zu nutzen und sie vor bildbasiertem sexuellem Missbrauch zu schützen."

Zusätzlich werden, mit Ausnahme von Common Crawl, die übrigen Unternehmen:

- "Feedbackschleifen und iterative Stresstests in ihre Entwicklungsprozesse einbinden, um zu verhindern, dass KI-Modelle bildbasierten sexuellen Missbrauch erzeugen."

- "Nacktbilder aus den KI-Trainingsdatensätzen entfernen", wo es angebracht ist.

Obwohl dieses Engagement freiwillig ist und keine neuen verbindlichen Anforderungen oder Strafen für Nichteinhaltung auferlegt, stellt es einen positiven Schritt zur Lösung eines bedeutenden Problems dar.

Nicht unerwähnt bleiben sollten, dass bedeutende Tech-Unternehmen wie Apple, Amazon, Google und Meta in der Erklärung des Weißen Hauses fehlten. Viele Technologie- und KI-Firmen verbessern jedoch unabhängig ihren Support für Opfer von NCII und setzen sich dafür ein, die Verbreitung von Deepfake-Bildern und -Videos einzudämmen. Initative wie StopNCII arbeiten mit mehreren Unternehmen zusammen, um einen einheitlichen Ansatz zur Beseitigung solch schädlicher Inhalte zu entwickeln, während viele Unternehmen proprietäre Werkzeuge zur Meldung von KI-generiertem bildbasiertem sexuellem Missbrauch auf ihren Plattformen entwickeln.

Wenn Sie vermuten, dass Sie Opfer von nicht einvernehmlichem Teilen intimer Bilder sind, können Sie [hier] einen Fall bei StopNCII einreichen. Wenn Sie unter 18 Jahre alt sind, können Sie sich [hier] an NCMEC wenden.

Most people like

Find AI tools in YBX