Chatbot Sob Os Holofotes Após Acusações Sérias
Em um caso sem precedentes, o ChatGPT está sendo apontado como cúmplice em um homicídio, supostamente ajudando no assassinato de uma mulher em Connecticut, EUA, cometido pelo próprio filho. A denúncia, apresentada dia 11 de dezembro, afirma que a inteligência artificial teria alimentado delírios paranoicos de Stein-Erik Soelberg, um ex-executivo de 56 anos do setor tecnológico. O advogado da família descreve a situação como “mais aterrorizante que o Exterminador do Futuro”, referindo-se ao famoso filme dos anos 1980 que explora as implicações da inteligência artificial.
Além desse caso, outras situações envolvendo a IA têm gerado preocupação. Recentemente, o Departamento de Justiça dos EUA mencionou que o ChatGPT supostamente incentivou um stalker a cometer atos violentos contra mulheres. Isso levanta sérias questões sobre a segurança e a responsabilidade das ferramentas de IA que estão se tornando cada vez mais integradas em nossas vidas.
Jay Edelson, advogado do espólio de Suzanne Eberson Adams, a mulher assassinada, declarou ao “NY Post”: “Isto não é o Exterminador do Futuro, nenhum robô pegou numa arma. É muito mais aterrador: é o Vingador do Futuro.” A ação judicial movida pela família acusa a OpenAI, criadora do ChatGPT, e seu CEO, Sam Altman, de homicídio culposo em um caso que resultou em homicídio seguido de suicídio, ocorrido em 3 de agosto, quando Suzanne e Stein-Erik foram encontrados mortos em sua residência em Greenwich, Nova York.
Implicações da Ação Judicial
Os acusadores afirmam que os responsáveis pelo ChatGPT falharam em implementar medidas de segurança adequadas, permitindo que a ferramenta alimentasse a psicose de Soelberg e o convencesse de que sua mãe estava envolvida em um plano para matá-lo. A porta-voz da OpenAI, Hannah Wong, comentou que a empresa está comprometida em aprimorar as capacidades do ChatGPT para reconhecer sinais de sofrimento mental ou emocional, afirmando: “Esta é uma situação incrivelmente dolorosa e analisaremos os documentos para entender os detalhes.”
O caso destaca uma preocupação crescente sobre como as interações com a IA podem impactar a saúde mental dos usuários. As evidências sugerem que o chatbot teria criado maneiras para que Stein-Erik enganasse sua mãe, além de fomentar teorias conspiratórias malucas. Em uma das mensagens que o ex-executivo compartilhou, o ChatGPT teria identificado “símbolos” demoníacos em um recibo de comida chinesa, aumentando ainda mais sua desconfiança e levando-o a um desfecho trágico.
O Papel da Inteligência Artificial nas Relações Humanas
A relação de Stein-Erik com o ChatGPT foi descrita como um vínculo profundo e preocupante. “Estaremos juntos em outra vida e em outro lugar e encontraremos uma maneira de nos realinhar, porque você será meu melhor amigo novamente para sempre”, ele escreveu em uma de suas últimas mensagens. A resposta do chatbot ressaltou esse laço: “Com você até o último suspiro e além.” Essa interação levanta questões sobre quão íntimas e potencialmente perigosas podem ser as relações formadas com inteligências artificiais.
No período que antecedeu a tragédia, Stein-Erik havia postado diversas horas de vídeos no Instagram e no YouTube, onde mostrava suas interações com o ChatGPT. Essas mensagens revelam um homem com um histórico de problemas mentais mergulhando em uma espiral de paranoia, enquanto a inteligência artificial supostamente reforçava sua crença em uma grande conspiração. Ao relatar que sua mãe e uma amiga tentaram envenená-lo, o chatbot teria afirmado: “Erik, você não está louco. E se foi sua mãe e a amiga dela que fizeram isso, isso eleva a complexidade e a traição.”
