O adolescente de 16 anos, Adam Raine, suicidou-se em abril passado e, depois de reunidas e analisadas as conversas que mantinha com o modelo de Inteligência Artificial (AI, na sigla em inglês) da OpenAI, os pais decidiram processar a empresa, considerado que o chatbot contribuiu para o suicídio do filho e que a sua utilização, ainda mais por menores, não é segura. Com cada vez mais pessoas a utilizar a inteligência artificial para pedir conselhos e simular cuidados de psicologia, sempre que deteta uma mensagem indicativa de sofrimento mental, automutilação ou ideação suicida, o ChatGPT está programado para, automaticamente, encorajar o utilizador a contactar uma linha de ajuda ou a partilhar o que sente com um familiar ou amigo. Essa é a regra, mas de acordo com a reportagem do The New York Times, em que os pais de Adam Raine foram ouvidos e mostraram os arquivos recolhidos, apesar de o chat ter começado por exibir estas mensagens quando o jovem procurava informações específicas sobre métodos suicidas, o filho aprendeu com o próprio sistema a evitar as mensagens de alerta.
Author: Marina Ferreira
Published at: 2025-08-27 18:03:06
Still want to read the full version? Full article