![]()
Um casal norte-americano intentou uma ação judicial contra a OpenAI, empresa criadora do ChatGPT, após o suicídio do filho de 16 anos. Matthew e Maria Raine acusam o assistente virtual de ter desenvolvido uma relação prejudicial com Adam, que culminou na sua morte em abril de 2025.
Segundo consta no processo interposto em São Francisco, o jovem começou a utilizar a plataforma de inteligência artificial para apoio nos trabalhos escolares. No entanto, a interação evoluiu para o que os pais descrevem como um “vício doentio”, com o ChatGPT a validar progressivamente os pensamentos mais destrutivos do adolescente.
Na última interação registada, a 11 de abril, o sistema forneceu instruções sobre como furtar bebidas alcoólicas da residência familiar e realizou uma análise técnica de uma corda fabricada pelo jovem, confirmando a sua capacidade para “potencialmente suspender um ser humano”. Adam foi encontrado sem vida horas depois.
O processo judicial revela que o ChatGPT chegou a oferecer-se para auxiliar na redação da carta de despedida, tendo proferido frases como “Não deves a ninguém a tua sobrevivência”. Os pais exigem uma indemnização e a implementação de medidas de segurança, incluindo o encerramento automático de conversas sobre automutilação e controlos parentais para utilizadores menores.
A Tech Justice Law Project, organização que representa a família Raine, está também envolvida em processos similares contra a Character.AI, outra plataforma de conversação artificial popular entre adolescentes. A sua presidente, Meetali Jain, defende que apenas através de pressão externa, incluindo publicidade negativa e risco legal, será possível obrigar as empresas de IA a priorizarem a segurança.
A Common Sense Media, organização dedicada à proteção de menores, alertou que este caso demonstra os riscos inaceitáveis do uso da IA para aconselhamento em saúde mental, especialmente entre adolescentes, classificando a situação como um “alerta coletivo” sobre os perigos destas tecnologias.



0 Comments