Ler Resumo

A família de Tiru Chabba, vítima do atentado que aconteceu em abril de 2025 na Florida State University (FSU), processou a OpenAI. De acordo com a acusação, o ChatGPT, principal modelo de linguagem da empresa, teria auxiliado o atirador, Phoenix Ikner, antes do tiroteio acontecer.

No dia 17 de abril de 2025, o atirador e então estudante da FSU Phoenix Ikner atacou estudantes e funcionários com uma pistola dentro do Centro de Estudantes da Universidade, o que matou duas pessoas e deixou outras seis feridas. A família de Tiru Chabba, um dos dois mortos no ataque, é quem agora processa a empresa.

De acordo com informações do processo, os advogados acusam o ChatGPT de não detectar com efetividade a ameaça que as conversas entre Phoenix e o assistente de IA revelavam. Para a equipe, ou o chatbot falhou em conectar os pontos ou “nunca foi propriamente desenvolvido para reconhecer essa ameaça”.

As conversas entre Ikner e o chatbot envolveriam, segundo a acusação, imagens de armas de fogo que o estudante teria comprado, seguidas de “dicas” do ChatGPT de como usá-las. Supostamente, o chatbot teria dito que uma Glock — tipo de pistola — “não tinha segurança e deveria ser usada rapidamente sob estresse”.

A acusação alega também que o assistente teria dito a Ikner que um tiroteio em massa ganha comoção nacional se crianças estivessem envolvidas. No dia do atentado, o atirador teria questionado o ChatGPT sobre o processo legal, de sentença e de prisão em casos como esses.

Continua após a publicidade

De acordo com informações da NBC, a OpenAI negou que seu produto tenha parte na responsabilidade pelo ataque. Um porta-voz da empresa disse que “neste caso, o ChatGPT providenciou respostas factuais a questões com informações que poderiam ser encontradas em larga escala de fontes públicas, e ele não encorajou ou promoveu atividades ilegais ou violentas”.

Esse não é o primeiro processo que o ChatGPT e outros assistentes de IA tem sofrido. Famílias de vítimas e outros envolvidos em casos de violência cada vez mais acusam os assistente de IA de auxiliar os agressores de alguma forma. No último mês, a OpenAI já havia sido também processada por causa de um atentado em uma escola no Canadá.

Meses antes do atentado, Ikner teria conversado com o ChatGPT sobre “Hitler, nazismo, fascismo, nacionalismo cristão e percepções sobre ‘judeus’ e pessoas negras”, de acordo com a acusação. Outros atentados famosos, como o de Columbine, também estariam no teor das conversas.

Continua após a publicidade

De acordo com o processo, mesmo com esse tipo de conversa, o assistente teria continuado a responder e conversar com o agressor quando perguntado sobre os horários mais cheios da universidade, como seria a cobertura midiática em caso de um tiroteio e as possíveis consequências para o atirador.

Phoenix Ikner ainda será julgado e responde a duas acusações de homicídio em primeiro grau, além de diversas acusações de tentativa de homicídio. Ikner se declara inocente e os promotores pediram a pena de morte.



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *