Decrypt logo

Em resumo

  • Três menores do Tennessee processaram a xAI, alegando que Grok gerou CSAM a partir de suas fotos reais e o espalhou online, causando graves danos.
  • O processo afirma que a xAI liberou conscientemente Grok sem salvaguardas e lucrou com seu uso indevido, chamando-o de “oportunidade de negócio”.
  • Arquivado em meio a investigações globais, as supostas vítimas pedem US$ 150 mil por violação, além de indenização por danos e uma liminar.

Três menores do Tennessee processaram o xAI de Elon Musk em uma ação coletiva federal, alegando que Grok gerou material de abuso sexual infantil usando suas fotografias reais e que a empresa projetou conscientemente seu chatbot de IA sem as salvaguardas padrão da indústria e depois lucrou com o resultado.

O ação judicialapresentado na segunda-feira no Distrito Norte da Califórnia, afirma que Grok foi usado para criar e distribuir material de abuso sexual infantil (CSAM) gerado por IA usando suas imagens reais.

Os menores, identificados como Jane Doe 1, 2 e 3, disseram que o conteúdo alterado foi compartilhado entre plataformas, incluindo Discord, Telegram e sites de compartilhamento de arquivos, causando sofrimento emocional duradouro e danos à reputação.

“A xAI – e seu fundador Elon Musk – viram uma oportunidade de negócio: uma oportunidade de lucrar com a predação sexual de pessoas reais, incluindo crianças”, diz o processo. “Conhecendo o tipo de conteúdo prejudicial e ilegal que poderia – e seria – ser produzido, a xAI lançou o Grok, um modelo generativo de inteligência artificial com recursos de criação de imagens e vídeos que responderia a solicitações para criar conteúdo sexual com a imagem ou vídeo real de uma pessoa.”

As supostas vítimas descrevem incidentes ocorridos entre meados de 2025 e o início de 2026, quando as suas fotografias reais foram transformadas em imagens explícitas e circularam online.

Num caso, uma das vítimas foi alertada por um utilizador anónimo que encontrou pastas de conteúdo gerado por IA a serem negociadas entre centenas de utilizadores.

Eles alegam que um criminoso acessou Grok por meio de um aplicativo de terceiros que licenciou a tecnologia da xAI, uma estrutura que o processo diz que a xAI usou deliberadamente para se distanciar da responsabilidade enquanto continuava a lucrar com o modelo subjacente.

No auge da reação pública em janeiro, Musk escreveu no X que “não tinha conhecimento de nenhuma imagem de menores nus”, acrescentando que “quando solicitado a gerar imagens, se recusará a produzir qualquer coisa ilegal”.

De acordo com uma conclusão do Center for Countering Digital Hate, citada no processo, Grok produziu uma estimativa 23.338 imagens sexualizadas de crianças entre 29 de dezembro de 2025 e 9 de janeiro deste ano, aproximadamente uma a cada 41 segundos.

As supostas vítimas estão buscando indenização de pelo menos US$ 150.000 por violação da Lei de Masha, juntamente com restituição de receitas, danos punitivos, honorários advocatícios e uma liminar permanente, bem como restituição de lucros de acordo com a Lei de Concorrência Desleal da Califórnia.

Ações judiciais se acumulando

O processo é um dos primeiros a responsabilizar diretamente uma empresa de IA pela suposta produção e distribuição de CSAM gerado por IA representando menores identificáveis, e chega no momento em que Grok enfrenta investigações simultâneas em todo o mundo. NÓS., UE, Reino Unido, França, Irlandae Austrália.

“Quando um sistema é intencionalmente projetado para manipular imagens reais em conteúdo sexualizado, o abuso posterior não é uma anomalia – é um resultado previsível”, disse Alex Chandra, sócio da IGNOS Law Alliance. Descriptografar.

Chandra disse que os tribunais podem não aceitar uma simples defesa de plataforma, observando que um sistema de IA generativo poderia ser “tratado como uma plataforma em termos de interação do usuário”, mas “avaliado como um produto” ao avaliar o projeto de segurança, com “exame particularmente rigoroso” aplicado em casos de CSAM devido ao aumento das obrigações de proteção infantil.

Ele também disse que os tribunais provavelmente se concentrarão nas salvaguardas, observando que se pode esperar que a empresa mostre “avaliações de risco e medidas de segurança desde o projeto antes da implantação”, juntamente com grades de proteção que bloqueiem ativamente os resultados prejudiciais.

Descriptografar entrou em contato com Musk via xAI e SpaceX para comentar.

Resumo Diário Boletim informativo

Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.

Deseja saber mais sobre Criptomoedas Clique Aqui!

Deixe um comentário

Translate »