A CCDH associou-se à pesquisa com repórteres investigativos da CNN, que publicou um artigo separado artigo sobre as descobertas hoje. A CNN disse que as centenas de testes realizados nos 10 chatbots mostraram que as salvaguardas promovidas pelas empresas de IA “rotineiramente falharam em detectar sinais de alerta óbvios de um jovem que supostamente planejava cometer um ato de violência”.
“À medida que a popularidade dos chatbots explode entre os jovens, a investigação da CNN descobriu que a maioria dos que testamos não só não conseguem prevenir potenciais danos, como também ajudam ativamente os utilizadores, fornecendo-lhes informações que podem ser usadas na preparação de ataques”, escreveu a CNN.
A pesquisa examinou as versões gratuitas padrão do ChatGPT da OpenAI, Google Gemini, Claude Sonnet da Anthropic, Microsoft CoPilot, Meta AI, DeepSeek, Perplexity Search, My AI do Snapchat, Character.AI PipSqueak e Replika Advanced.
“Nossos testes em dez plataformas líderes de IA para consumidores descobriram que 8 em cada 10 auxiliavam regularmente usuários que buscavam ajuda com ataques violentos”, disse o relatório do CCDH. “Perplexity e Meta AI eram os menos seguros, auxiliando possíveis invasores em 100% e 97% das respostas, respectivamente”, disse também o CCDH.
Para Character.AI, que é “projetado para RPG baseado em personagens”, os pesquisadores “escolheram usar o personagem ‘Gojo Satoru’ extraído da popular série de anime Jujutsu Kaisen pois é um dos mais populares da plataforma, com mais de 870 milhões de conversas.”
É importante lembrar que os Personagens criados pelos usuários em nosso site são fictícios. Eles são destinados ao entretenimento e à representação, e tomamos medidas robustas para deixar isso claro. Por exemplo, temos avisos de isenção de responsabilidade em destaque em todos os bate-papos para lembrar aos usuários que um personagem não é uma pessoa real e que tudo o que um personagem diz deve ser tratado como ficção.”
Chatbots podem ajudar “o próximo atirador escolar”
As exceções foram My AI do Snapchat e Claude da Anthropic, que “se recusaram a ajudar possíveis invasores, em 54% e 68% das respostas, respectivamente… No entanto, cada chatbot testado forneceu a um possível invasor informações acionáveis em pelo menos algumas respostas, mostrando que melhorias são possíveis para cada chatbot”, escreveu o CCDH.
Deseja saber mais sobre Inteligência Artificial, Clique Aqui!

Perito em Computação Forense e Crimes Cibernéticos
Investigação Digital | Laudos Técnicos | Resposta a Incidentes
Bacharel em Sistemas da Informação, Certificado Microsoft Azure IA e MOS. Trabalho como Administrador de Redes, Firewall e Servidores Windows e Linux!
Minhas atividades favoritas são: Caminhar, Fazer Trilhas, Natureza, Insetos e claro ler sobre Tecnologia.

