Nos últimos anos, o avanço rápido das tecnologias de IA resultou em uma explosão de conteúdo gerado por inteligência artificial, incluindo imagens, vídeos e textos hiper-realistas. No entanto, esse crescimento também levantou preocupações significativas sobre desinformação e engano, complicando nossa capacidade de distinguir entre realidade e fabricação.
A apreensão de que estamos sendo sobrecarregados por conteúdo sintético é justificável. Desde 2022, usuários de IA criaram coletivamente mais de 15 bilhões de imagens. Para contextualizar, esse número impressionante representa aquilo que a humanidade levou 150 anos para produzir antes de 2022.
O volume massivo de conteúdo gerado por IA apresenta desafios que estamos começando a entender. Historiadores poderão em breve precisar encarar a internet pós-2023 como fundamentalmente diferente do que veio antes, assim como o desenvolvimento da bomba atômica impactou o campo da datação por carbono radioativo. Cada vez mais, pesquisas no Google Imagens retornam resultados gerados por IA, e casos de supostos crimes de guerra no conflito Israel/Gaza estão sendo mal identificados como criações de IA quando isso não é o caso.
Incorporação de Assinaturas em Conteúdo de IA
Deepfakes, criados por algoritmos de aprendizado de máquina, produzem conteúdo falso que imita expressões e vozes humanas. O recente lançamento do Sora, modelo de texto para vídeo da OpenAI, destaca o quão rapidamente a realidade virtual está se tornando indistinguível da realidade física. Diante das crescentes preocupações, gigantes da tecnologia estão tomando medidas para mitigar o uso indevido do conteúdo gerado por IA.
Em fevereiro, a Meta introduziu iniciativas para rotular imagens criadas com suas ferramentas de IA em plataformas como Facebook, Instagram e Threads. Isso inclui marcadores visíveis, marcas d'água invisíveis e metadados detalhados para indicar suas origens artificiais. Seguindo o exemplo, o Google e a OpenAI anunciaram medidas semelhantes para incorporar "assinaturas" dentro do conteúdo gerado por IA.
Essas iniciativas são apoiadas pela Coalizão para Proveniência e Autenticidade de Conteúdo (C2PA), que visa rastrear as origens de arquivos digitais e diferenciar entre conteúdo genuíno e manipulado. Embora esses esforços promovam transparência e responsabilidade na criação de conteúdo, a pergunta persiste: são suficientes para proteger contra o uso indevido dessa tecnologia em evolução?
Quem Define o que é Real?
Uma questão crítica surge com a implementação de ferramentas de detecção: elas podem ser efetivas universalmente sem serem exploradas por aqueles que têm acesso? Isso leva à pergunta urgente: quem tem a autoridade para definir a realidade? Entender isso é essencial antes de podermos realmente abordar o potencial do conteúdo gerado por IA.
O Edelman Trust Barometer 2023 revela um ceticismo público significativo em relação à forma como as instituições gerenciam inovações tecnológicas. O relatório indica que, globalmente, as pessoas são quase duas vezes mais propensas a acreditar que a inovação é mal gerenciada (39%) ao invés de bem gerenciada (22%). Muitos expressam preocupações sobre o ritmo da mudança tecnológica e suas implicações para a sociedade.
Esse ceticismo é agravado pela observação de que, à medida que as contramedidas melhoram, os desafios que elas visam resolver também evoluem. Reconstruir a confiança pública na inovação tecnológica é crucial se quisermos que as medidas de marca d'água sejam eficazes.
Como vimos, conquistar essa confiança não é uma tarefa fácil. Por exemplo, o Google Gemini enfrentou críticas por viés na geração de imagens, gerando constrangimento dentro da empresa. Os pedidos de desculpa subsequentes destacam o impacto duradouro de tais incidentes na percepção pública.
Necessidade de Transparência na Tecnologia
Recentemente, um vídeo com a CTO da OpenAI, Mira Murati, se tornou viral após ela não conseguir especificar os dados utilizados para treinar o Sora. Dada a importância da qualidade dos dados, é preocupante que uma CTO não pudesse esclarecer sobre os dados de treinamento. Seu desdém a perguntas de acompanhamento levantou mais bandeiras vermelhas, sugerindo que a transparência deve ser priorizada na indústria de tecnologia.
Avançando, estabelecer padrões de transparência e consistência é imperativo. A educação pública sobre ferramentas de IA, práticas claras de rotulagem e responsabilidade por falhas são componentes críticos para fomentar um ambiente confiável. A comunicação sobre questões que surgem também é essencial.
Sem essas medidas, a marca d'água pode servir apenas como uma solução superficial, não enfrentando os desafios fundamentais da desinformação e da queda na confiança em conteúdo artificial. Como visto em eventos atuais, a interferência de deepfake nas eleições já está emergindo como um problema significativo no mundo da IA generativa. Com uma parte substancial da população global indo às urnas, abordar esse problema é vital para o futuro da autenticidade do conteúdo.