![](https://capitaldigital.com.br/wp-content/uploads/2025/02/Deep-Fake-1905.08233-13-448x334.jpeg)
Estudo inédito revela uma profunda incapacidade dos consumidores em identificar falsificações geradas por Inteligência Artificial. Pelo menos 30% das pessoas na faixa etária entre 55 e 64 anos e 39% das pessoas com 65 anos ou mais, nunca tinham ouvido falar de deepfakes, destacando uma lacuna significativa de conhecimento e uma maior suscetibilidade nesse grupo.
A pesquisa foi realizada pela iProov, fornecedora mundial de soluções científicas para verificação biométrica de identidade, e revela que a maioria das pessoas não consegue identificar deepfakes – vídeos e imagens incrivelmente realistas gerados por IA (Inteligência Artificial), geralmente projetados para se passar por pessoas.
O estudo testou 2.000 consumidores no Reino Unido e nos EUA, expondo-os a uma variedade de conteúdo da vida real e deepfakes. Os resultados são alarmantes: apenas 0,1% dos participantes conseguiram distinguir com precisão entre conteúdo real e falso em todos os estímulos, incluindo imagens e vídeos.
Os deepfakes representam uma ameaça avassaladora no cenário digital atual e evoluíram a um ritmo alarmante nos últimos 12 meses. O Relatório de Inteligência de Ameaças de 2024 da iProov destacou um aumento de 704% na troca de rostos, que é um tipo de deepfake.
“Apenas 0,1% das pessoas pesquisadas foi capaz de identificar deepfakes com precisão, ressaltando o quão vulneráveis as organizações estão diante das ameaças de fraude de identidade”, afirma Andrew Bud, fundador e CEO da iProov. “Mesmo quando as pessoas suspeitam que é um deepfake, nossa pesquisa nos releva que a grande maioria delas não faz nada. Além disso, os criminosos se aproveitam da incapacidade dos consumidores em distinguir imagens reais de falsas, o que põe em risco as informações pessoais e a segurança financeira.”
As principais conclusões do estudo:
1 – Falha na detecção de deepfakes:
Apenas 0,1% dos entrevistados foram capazes de identificar corretamente todos os estímulos deepfakes e reais em um estudo no qual foram instruídos a procurarem por deepfakes. Em situações do mundo real, onde as pessoas estão menos conscientes da ameaça, a vulnerabilidade a deepfakes provavelmente é ainda maior.
2 – Gerações mais velhas são mais vulneráveis:
O estudo descobriu que 30% das pessoas entre 55 e 64 anos e 39% das pessoas com 65 anos ou mais nunca tinham ouvido falar de deepfakes, destacando uma lacuna significativa de conhecimento e uma maior suscetibilidade nesse grupo.
3 – Os vídeos são mais preocupantes:
Os vídeos são particularmente desafiadores, pois apenas 9% das pessoas conseguem identificar todos os deepfakes. Essa vulnerabilidade levanta sérias preocupações sobre o potencial de fraude baseada em vídeo, como falsificação em videochamadas ou em cenários em que a verificação de vídeo é usada para verificar a identidade.
4 – Deepfakes estão por toda parte, mas não são compreendidos:
Embora a preocupação com deepfakes esteja crescendo, muitas pessoas desconhecem essa tecnologia. Um em cada cinco consumidores ouvidos (22%) nunca tinha ouvido falar de deepfakes antes do estudo.
5 – O excesso de confiança é generalizado:
Apesar do baixo desempenho, os entrevistados permaneceram confiantes demais em suas habilidades de detectar deepfakes (mais de 60%), independentemente de suas respostas estarem corretas ou não. Isto foi especialmente verdadeiro para adultos jovens (18-34 anos). Essa falsa sensação de segurança é motivo de grande preocupação.
6 – A confiança está sob ataque:
As plataformas de mídia social são vistas como criadouros de deepfakes, com Meta (49%) e TikTok (47%), sendo os lugares onde os deepfakes são mais comumente encontrados online. Isso, por sua vez, reduziu a confiança nas informações e na mídia online: 49% confiam menos nas mídias sociais depois de saberem sobre deepfakes. Apenas um em cada cinco pesquisados denunciaria uma suspeita de deepfake nas plataformas de mídia social.
7 – Preocupações generalizadas:
Três em cada quatro pessoas (74%) estão preocupadas com o impacto social dos deepfakes, especialmente a disseminação de “fake news ” (68%). Esse medo é mais pronunciado em pessoas com mais de 55 anos (82%).
8 – São necessários mecanismos melhores de conscientização e denúncia:
Menos de um terço das pessoas (29%) não toma atitude alguma quando se deparam com uma suspeita de deepfake, provavelmente porque quase a metade (48%) afirma não saber como denunciar deepfakes, enquanto um quarto não se importa se virem uma suspeita de deepfake.
9 – A maioria dos consumidores não verifica ativamente a autenticidade das informações on-line, aumentando sua vulnerabilidade a deepfakes:
Apesar da crescente ameaça de desinformação, apenas um em cada quatro afirma buscar fontes alternativas de informação caso suspeite que se trata de um deepfake. Apenas 11% das pessoas analisam criticamente a fonte e o contexto das informações para determinar se são deepfakes, o que significa que a grande maioria é altamente suscetível a enganos e à disseminação de narrativas falsas.
Alerta
![](https://capitaldigital.com.br/wp-content/uploads/2025/02/Edgar-Whitley-London-School.jpg)
“Os especialistas em segurança há muito alertam sobre as ameaças representadas pelos deepfakes tanto para indivíduos quanto para organizações. Este estudo demonstra que as organizações não podem mais confiar no julgamento humano para detectar deepfakes e devem buscar meios alternativos para autenticar os usuários de seus sistemas e serviços”, afirma o professor Edgar Whitley, especialista em identidade digital da London School of Economics and Political Science.
“As empresas de tecnologia precisam proteger seus clientes implementando fortes medidas de segurança. O uso da biometria facial com vivacidade fornece um fator de autenticação confiável e prioriza a segurança e o controle individual, o que garante que as organizações e os usuários possam manter o ritmo e permanecer protegidos dessas ameaças em constante evolução”, completa o CEO da iProov.
O que pode ser feito
À medida que os deepfakes se tornam cada vez mais sofisticados e os humanos sozinhos não conseguem mais distinguir com segurança o real do falso, eles precisam confiar na tecnologia para detectá-los. Para combater a crescente ameaça dos deepfakes, as organizações devem buscar adotar soluções que utilizem tecnologia biométrica avançada com detecção de vida, que verifica se uma pessoa é a pessoa certa, uma pessoa real, e se ela está se autenticando naquele momento.
Essas soluções devem incluir detecção constante de ameaças e melhoria contínua das medidas de segurança para ficar à frente das técnicas de deepfake em evolução. Também é necessária uma maior colaboração entre provedores de tecnologia, plataformas e formuladores de políticas para desenvolver soluções que mitiguem os riscos representados pelos deepfakes.
Avalie a sua capacidade de detecção de deepfakes
Para avaliar a capacidade das pessoas de identificarem deepfakes, a iProov criou um teste online que desafia você a diferenciar o verdadeiro do falso. Faça o teste e veja sua pontuação.
*Imagem principal extraída da Wired.