Na aclamada série da HBO “Game of Thrones”, o aviso de que “os caminhantes brancos estão chegando” refere-se a uma ameaça de criaturas de gelo que colocam a humanidade em risco. De maneira semelhante, Ajay Amlani, presidente da empresa de autenticação biométrica iProov, argumenta que devemos enxergar os deepfakes com a mesma urgência.
“Houve um crescente temor em relação aos deepfakes nos últimos anos”, explicou Amlani. “Agora, o inverno chegou.” De acordo com uma pesquisa recente da iProov, 47% das organizações já se deparam com deepfakes, e 70% acreditam que os deepfakes gerados por IA afetarão significativamente suas operações. Alarmantemente, apenas 62% estão levando essa ameaça a sério.
“Isso é uma preocupação real”, afirmou Amlani. “É possível criar indivíduos fictícios que parecem, soam e reagem como se fossem reais.” Os deepfakes — avatares, vozes e mídias fabricadas de forma realista — têm avançado rapidamente e, muitas vezes, são quase indistinguíveis da realidade. Essa sofisticação representa riscos sérios para organizações e governos. Por exemplo, um funcionário do setor financeiro perdeu 25 milhões de dólares após ser enganado por uma chamada de vídeo deepfake de seu “diretor financeiro”. Além disso, a empresa de cibersegurança KnowBe4 revelou que um novo funcionário se revelou um hacker norte-coreano que usou tecnologia de deepfake para contornar medidas de segurança.
Amlani observou disparidades regionais significativas nos incidentes de deepfake: 51% das organizações na Ásia-Pacífico, 53% na Europa e 53% na América Latina reportam encontros com deepfakes, em comparação com apenas 34% na América do Norte. “Muitos atores mal-intencionados operam internacionalmente, frequentemente visando as regiões locais primeiro”, acrescentou.
A pesquisa classifica os deepfakes entre as principais preocupações de segurança, ao lado de violações de senhas (64%) e ransomware (63%), com tanto phishing/engenharia social quanto deepfakes afetando 61% dos entrevistados. “Confiar em qualquer coisa digital está se tornando cada vez mais difícil”, disse Amlani. “É fundamental que questionemos tudo online e construamos defesas robustas para verificar identidades.”
Soluções Biométricas para Ameaças de Deepfake
O aumento nas velocidades de processamento, a melhor compartilhamento de informações e a IA generativa capacitaram os atores de ameaça a criar deepfakes sofisticados. Embora algumas medidas básicas existam — como bandeiras de conteúdo em plataformas de compartilhamento de vídeo —, essas são insuficientes, segundo Amlani. “Essas tentativas mal arranham a superfície de um problema extenso”, comentou.
Métodos tradicionais de verificação, como captchas, tornaram-se excessivamente complicados, dificultando até mesmo para usuários genuínos provarem sua identidade, especialmente entre os idosos ou aqueles com deficiência cognitiva. Em contraste, Amlani defende a autenticação biométrica como uma solução mais eficaz.
A pesquisa da iProov mostra que 75% das organizações estão adotando biometria facial como a principal defesa contra deepfakes, seguida por autenticação multifator (67%) e educação sobre os riscos de deepfake (63%). As empresas também estão auditando medidas de segurança (57%) e atualizando sistemas (54%) para combater as ameaças de deepfake.
A eficácia de vários métodos biométricos no combate aos deepfakes é a seguinte:
- Impressão digital: 81%
- Íris: 68%
- Facial: 67%
- Comportamental Avançada: 65%
- Palmeira: 63%
- Comportamental Básica: 50%
- Voz: 48%
Nem todas as ferramentas biométricas são igualmente eficazes, observou Amlani. Alguns métodos requerem movimentos complicados, tornando-os mais fáceis de serem contornados por criadores de deepfake. Em contraste, a iProov emprega uma ferramenta impulsionada por IA que utiliza reflexos de luz da tela do dispositivo, analisando características faciais únicas. Se os resultados diferirem dos padrões esperados, isso pode indicar que um ator de ameaça está tentando explorar imagens físicas ou máscaras.
A tecnologia da iProov está sendo implementada em setores comerciais e governamentais, e Amlani afirma que oferece uma “solução altamente segura e rápida”, com uma taxa de aprovação superior a 98%.
“Há um reconhecimento generalizado da ameaça dos deepfakes”, concluiu Amlani. “Um esforço global é essencial para combater essa questão, já que os maus atos operam sem fronteiras. É hora de nos equipar para este desafio.”