Microsoft se une a Coalition para erradicar la pornografía de venganza y los deepfakes de Bing.

Microsoft se ha asociado con StopNCII para combatir la proliferación de imágenes íntimas no consensuales, incluyendo deepfakes, en su motor de búsqueda Bing. Las víctimas pueden abrir un "caso" con StopNCII, que genera una huella digital o "hash" de la imagen o video íntimo almacenado en su dispositivo, sin necesidad de cargar el archivo. Este hash se comparte con socios de la industria que participan en la iniciativa, quienes lo utilizan para identificar y eliminar contenido que viole sus políticas. Este proceso también se aplica a los deepfakes generados por inteligencia artificial de personas reales.

Varios empresas tecnológicas han unido fuerzas con StopNCII para eliminar imágenes íntimas compartidas sin consentimiento. Meta, el creador de la herramienta, la utiliza en todas sus plataformas, incluyendo Facebook, Instagram y Threads. Otros colaboradores son TikTok, Bumble, Reddit, Snap, Niantic, OnlyFans, PornHub, Playhouse y Redgifs. Notablemente, Google no está en esta lista. Aunque Google ofrece sus propias herramientas de denuncia para imágenes no consensuales, incluyendo deepfakes, su exclusión de esta iniciativa centralizada añade una carga extra a las víctimas, obligándolas a navegar por un mosaico de opciones para recuperar su privacidad.

Además de los esfuerzos del sector privado, el gobierno de EE. UU. ha tomado medidas este año para abordar los problemas relacionados con las imágenes no consensuales, especialmente los deepfakes. La Oficina de Derechos de Autor de EE. UU. ha solicitado nueva legislación, mientras que un grupo de senadores presentó el NO FAKES Act en julio para proteger a las víctimas.

Si crees que eres víctima de la difusión de imágenes íntimas no consensuales, puedes abrir un caso con StopNCII y Google. Si eres menor de 18 años, puedes presentar un informe ante NCMEC.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles