
Portavoz de IA expone protocolos de moderación riesgos (Foto: Instagram)
A autora do ataque que resultou na morte de oito pessoas havia sido banida do ChatGPT meses antes do crime devido a mensagens consideradas de “incitação à violência”. O bloqueio de acesso à ferramenta ocorreu após análise dos conteúdos postados por ela, que violavam as diretrizes de uso ao promover ações violentas contra outros indivíduos. Embora não se tenha divulgado a data exata da proibição, sabe-se que essa medida preventiva não foi suficiente para impedir o atentado que provocou tais fatalidades.
Segundo apurações, a restrição no ChatGPT seguiu critérios de moderação automática e também revisão humana, adotados para coibir usuários que incentivam ou glorificam agressões. Na prática, a “incitação à violência” abrange desde elogios a atos cruéis até chamadas diretas para agressões físicas ou psicológicas. A decisão de banir a autora foi tomada após ela persistir em compartilhar conteúdos com linguagem agressiva e orientações sobre como levar adiante comportamentos violentos.
O ChatGPT, ferramenta de inteligência artificial especializada em conversas e geração de texto, estabelece regras claras para impedir que usuários publiquem materiais com conotação agressiva, discurso de ódio ou ameaças. Esses parâmetros fazem parte de um conjunto de políticas de uso que visam preservar a segurança tanto de quem interage com o sistema quanto de terceiros que possam ser mencionado ou alvo de possíveis ações. Usuários que infringem repetidamente tais normas enfrentam suspensões temporárias ou banimentos definitivos.
Especialistas em ética de tecnologia e segurança digital apontam que, embora a moderação de plataformas por IA seja útil para filtrar conteúdos nocivos em larga escala, a eficácia depende da combinação entre sistemas automáticos e intervenções humanas. Nesse sentido, mesmo após o bloqueio, a autora do ataque manteve outros meios de acesso e comunicação, demonstrando os desafios de conter sinais de alerta antes que tragédias ocorram. A ocorrência reforça o debate sobre a responsabilidade de provedores de inteligência artificial na prevenção de crimes e na colaboração com investigações.
O caso reacende a discussão sobre como aprimorar métodos de detecção precoce de comportamentos de risco em ambientes digitais. A proibição no ChatGPT apontou para uma conduta problemática, mas não conseguiu impedir que o ataque viesse a acontecer. Há consenso de que a integração entre plataformas, forças de segurança e especialistas em comportamento — aliada a protocolos de denúncia eficazes — pode ampliar a capacidade de resposta a possíveis ameaças antes que se convertam em tragédias.


