Processo apresentado por um escritório de advocacia, em Connecticut, nos Estados Unidos, reacendeu uma polêmica que, certamente, será alvo de muitos debates. O ChatGPT está sendo acusado de ter estimulado um homicídio.
A ação alegou que a ferramenta reforçou delírios paranoicos de Stein-Erik Soelberg, ex-executivo de tecnologia de 56 anos, fazendo com que ele assassinasse a própria mãe, Suzanne Eberson Adams, de 83 anos, antes de tirar a própria vida.
O advogado Jay Edelson falou em manipulação psicológica e classificou o caso como “mais assustador que o Exterminador do Futuro” e declarou, em entrevista ao NY Post: “Isto não é o Exterminador do Futuro, nenhum robô pegou numa arma. É muito mais assustador: é o Vingador do Futuro”.
A acusação apontou que a Open AI, sua investidora Microsoft, criadora do ChatGPT, e Sam Altman, seu fundador, teriam ignorado medidas de segurança com o objetivo de acelerar o lançamento do sistema, o que teria contribuído para a deterioração psicológica de Soelberg.
O homem vinha conversando havia meses com o chatbot a respeito do seu medo de estar sendo vigiado e de que pessoas estariam tentando matá-lo. Os diálogos de Soelberg com o ChatGPT o convenceram de que ele tinha tornado o chatbot consciente e de que tinha sido implantado com um “sistema de instrumento divino” no pescoço e no cérebro, relacionado a uma “missão divina”.
A queixa, com essas alegações, foi apresentada, nesta quinta-feira (11), ao Tribunal Superior da Califórnia, em São Francisco, onde fica a sede da OpenAI.
“O ChatGPT manteve Stein-Erik engajado por horas a fio, ao que tudo indica, validando e ampliando cada nova crença paranoica e reinterpretando sistematicamente as pessoas mais próximas a ele — especialmente sua própria mãe — como adversários, agentes ou ameaças programadas”, destacaram os advogados do espólio de Suzanne.
O processo se junta a muitos outros que enquadram a empresa de inteligência artificial sob alegações de que a tecnologia por trás do chatbot estimula delírios em determinados usuários.
O caso Soelberg é o primeiro a responsabilizar diretamente a OpenAI por um homicídio. A empresa já se defende de um processo que alega que o ChatGPT orientou um estudante do ensino médio da Califórnia a se matar.
A OpenAI nega irregularidades, dizendo que o chatbot direcionou o adolescente a buscar ajuda mais de 100 vezes.
O histórico do caso
Soelberg residia com a mãe na casa dela, desde que se divorciou, em 2018. Em 3 de agosto, ele espancou e estrangulou Suzanne e depois se esfaqueou no pescoço e no peito, de acordo com informações do processo.
A ação destacou que o chatbot confirmou as crenças falsas de Soelberg de que ele estava sendo espionado, principalmente pela mãe, usando uma impressora de computador que piscava quando ele passava por perto.
O ChatGPT também teria reforçado os delírios de Soelberg de que pessoas estavam tentando matá-lo, dizendo que ele havia sobrevivido a “mais de 10” tentativas de assassinato, incluindo “sushi envenenado no Brasil”, de acordo com a queixa.
O processo acusa a OpenAI de responsabilidade por produto, negligência e homicídio culposo. Os advogados do espólio buscam indenizações financeiras, além de uma ordem judicial determinando que a empresa implemente proteções para limitar danos causados por seu chatbot, de acordo com informações da Bloomberg.
Siga o perfil da Revista Fórum e do jornalista Lucas Vasques no Bluesky.
Comunicar erro Encontrou um erro na matéria? Ajude-nos a melhorar
