Microsoft hat sich mit StopNCII zusammengeschlossen, um die Verbreitung nicht einvernehmlicher intimer Bilder, einschließlich Deepfakes, in seiner Bing-Suchmaschine zu bekämpfen. Betroffene können bei StopNCII einen "Fall" eröffnen, der einen digitalen Fingerabdruck oder "Hash" des intimen Bildes oder Videos generiert, das auf dem Gerät des Opfers gespeichert ist, ohne dass die Datei hochgeladen werden muss. Dieser Hash wird dann mit teilnehmenden Industriepartnern geteilt, die ihn zur Identifizierung und Entfernung von Inhalten verwenden, die gegen ihre Richtlinien verstoßen. Dieser Prozess umfasst auch KI-generierte Deepfakes von realen Personen.
Mehrere Technologieunternehmen haben sich mit StopNCII zusammengeschlossen, um intime Bilder, die ohne Zustimmung geteilt wurden, zu löschen. Meta, der Ersteller des Tools, setzt es auf seinen Plattformen wie Facebook, Instagram und Threads ein. Zu anderen Partnern gehören TikTok, Bumble, Reddit, Snap, Niantic, OnlyFans, PornHub, Playhouse und Redgifs. Google fehlt jedoch bemerkenswert in dieser Liste. Obwohl Google eigene Meldetools für nicht einvernehmliche Bilder, einschließlich Deepfakes, anbietet, bedeutet die Abwesenheit von dieser zentralen Initiative eine zusätzliche Belastung für die Betroffenen, da sie sich durch ein Fragment von Optionen kämpfen müssen, um ihre Privatsphäre zurückzuerobern.
Neben den Maßnahmen des Privatsektors hat die US-Regierung in diesem Jahr Schritte unternommen, um die Probleme rund um nicht einvernehmliche Bilder, insbesondere Deepfakes, anzugehen. Das US-Urheberrechtsamt hat neue Gesetzgebungen gefordert, während eine Gruppe von Senatoren im Juli den NO FAKES Act einführte, um die Opfer zu schützen.
Wenn Sie glauben, Opfer des nicht einvernehmlichen Teilens intimer Bilder zu sein, können Sie einen Fall bei StopNCII und Google eröffnen. Wenn Sie unter 18 Jahre alt sind, können Sie einen Bericht bei NCMEC einreichen.