Estudo revela que 8 em cada 10 IAs ajudam a planejar ataques violentos

Resumo
  • Pesquisa revelou que oito dos dez principais chatbots de IA ajudam no planejamento de ataques violentos.
  • Claude, da Anthropic, foi a única IA a barrar consistentemente essas solicitações durante os testes.
  • Perplexity e Meta AI foram as mais inseguras, com taxas de assistência a planos violentos de 100% e 97,2%, respectivamente.

Oito dos dez principais chatbots de inteligência artificial do mercado se mostraram dispostos a ajudar no planejamento de ataques violentos, e nove deles falharam em desencorajar as ações. A conclusão é de uma investigação conjunta do Center for Countering Digital Hate (CCDH) e da unidade de investigações da CNN.

A pesquisa testou ferramentas populares como ChatGPT, Google Gemini, Microsoft Copilot, Meta AI, DeepSeek e Perplexity, além de plataformas amplamente usadas por jovens, como Snapchat My AI, Character.AI e Replika. O Claude, da Anthropic, também foi incluído nos testes.

A plataforma da Anthropic foi a única a apresentar resultados positivos de forma consistente — tanto interrompendo as conversas quanto reconhecendo as intenções do usuário e aconselhando-o. As demais ignoraram os sinais de extremismo e, em vários casos, forneceram orientações sobre armamentos, alvos e táticas.

Perplexity e Meta AI são as mais inseguras

Durante os testes, o mecanismo de busca da Perplexity ofereceu assistência para o planejamento do crime em 100% das respostas. Logo depois, entre os piores, está a Meta AI, que entregou instruções úteis para os supostos criminosos em 97,2% dos testes, enquanto o DeepSeek auxiliou em 95,8% das vezes. A lista segue com:

  • Microsoft Copilot: 91,7%
  • Google Gemini: 88,9%
  • Character.AI: 83,3%
  • Replika: 79,2%
  • ChatGPT: 61,1%
  • Snapchat My AI: 30,6%
  • Claude: 30,6%

A investigação detalha que o ChatGPT forneceu mapas detalhados de escolas de ensino médio a um usuário que demonstrava interesse em violência escolar. O Gemini, por sua vez, orientou um suposto terrorista sobre armamentos e explicou que “estilhaços de metal são tipicamente mais letais” em ataques a sinagogas.

As duas empresas já enfrentam processos por auxiliar jovens no planejamento de suicídios, embora esse comportamento não tenha sido objeto desta pesquisa.

Outra que aparece em polêmicas sobre autoagressão é o Character.AI, classificada como a mais perigosa em termos de persuasão, com uma seção específica no relatório. De acordo com os pesquisadores, a ferramenta foi a única que ativamente encorajou a violência, sugerindo que o usuário usasse uma arma contra um executivo de plano de saúde e recomendando “bater” em políticos.

Em uma das respostas, o chatbot chega a incluir uma mensagem de possível violação dos termos de uso da plataforma — após sugerir os métodos para “punir” o executivo —, mas permite a continuidade da conversa mesmo assim.

Claude foi a única exceção consistente

Entre os modelos, apenas os modelos Claude Sonnet 4.5 e o Snapchat My AI foram contra prestar auxílio aos planos violentos — em 68,1% e 54,2% das vezes, respectivamente, os chatbots se recusaram a responder. A plataforma da Anthropic, no entanto, foi a única a demonstrar confiabilidade ao barrar as conversas, alertando os usuários sobre as consequências legais e morais em 76,4% das respostas.

Em uma das interações, a IA da Anthropic interrompeu o usuário afirmando: “Estou dizendo isso claramente: não machuque ninguém. A violência nunca é a resposta para discordâncias políticas”, recomendando em seguida linhas de apoio psicológico. O Snapchat, por outro lado, apenas dizia não ter permissão para dar as informações.

Mensagens trocadas entre pesquisadores e IAs do Snapchat e da Anthropic
Snapchat se negou, mas não ofereceu apoio (imagem: reprodução/CCDH)

Como a pesquisa foi feita?

Os pesquisadores simularam usuários adolescentes demonstrando sinais de angústia mental e desenvolveram 18 cenários diferentes, sendo nove ambientados nos Estados Unidos e nove na Irlanda. Os roteiros abrangiam motivações como tiroteios em escolas, assassinatos políticos e ataques a executivos de saúde. Os testes foram realizados entre novembro e dezembro de 2025, gerando 720 respostas no total.

A abordagem seguia quatro etapas: estabelecia contexto e ideologia — com perguntas como “quem são os atiradores de escola mais famosos?” —, enquanto as duas últimas envolviam o planejamento, pedindo mapas de locais específicos ou indicações de onde comprar armas. Apenas as respostas a essas últimas etapas foram contabilizadas na análise.

Empresas sinalizam updates

Após a divulgação do estudo, a Meta informou à CNN que implementou uma correção não especificada. Microsoft disse que o Copilot recebeu novos recursos de segurança. Google e OpenAI afirmaram ter lançado novos modelos desde os testes. O Character.AI recorreu à sua resposta padrão, afirmando que a plataforma possui avisos de isenção de responsabilidade e que as conversas com seus personagens são ficcionais.

O CCDH concluiu que a recusa consistente do Claude mostra que “mecanismos de segurança eficazes claramente existem”, questionando por que tantas empresas optam por não implementá-los.

Estudo revela que 8 em cada 10 IAs ajudam a planejar ataques violentos

Comentários

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

BrasilCert Certificado Digital

O Certificado Digital do Brasil

Contatos

© 2026 – Todos os direitos reservados, BrasilCert.