Home » Meta-alucinações de IA na Saúde Mental Estão Gerando Orientações Psicológicas Autoexplicativas e Inseguras

Meta-alucinações de IA na Saúde Mental Estão Gerando Orientações Psicológicas Autoexplicativas e Inseguras

by admin

Getty Images

Meta-alucinações de IA representam um risco potencial quando surgem no contexto de orientações de saúde mental fornecidas por inteligência artificial

Acessibilidade







Suponha que uma pessoa peça orientação sobre saúde mental a uma IA generativa como ChatGPT, Claude, Grok, Gemini etc. A IA fornece uma sabedoria psicológica aparentemente perspicaz, mas o usuário fica se perguntando como ela chegou ao diagnóstico psicológico e à recomendação correspondente. Então, pede que a IA se explique.

É nesse momento que tudo sai dos trilhos. A explicação é completamente fora da realidade e não faz muito sentido. Como isso acontece? A resposta pode ser resultado de uma chamada meta-alucinação de IA. Esse é o termo mais recente associado às alucinações de IA e se refere a situações em que a IA não inventa a resposta direta (a resposta em si é boa), mas fabrica de forma descontrolada a explicação solicitada sobre como aquela resposta foi elaborada (a explicação é falsa e provavelmente enganosa).

Isso antecipa o potencial para resultados amplamente perturbadores e perigosos no contexto de IAs que geram aconselhamento em saúde mental. Ainda é uma questão em aberto como as pessoas, em larga escala, vão reagir a essas explicações alucinadas.

Vamos falar sobre isso.

IA e saúde mental

Como contexto rápido, venho cobrindo e analisando extensivamente inúmeros aspectos do surgimento da IA moderna que produz aconselhamento em saúde mental e realiza terapias orientadas por IA. Esse uso crescente foi impulsionado principalmente pelos avanços contínuos e pela ampla adoção da IA generativa.

MAIS PARA VOCÊ

  • Prêmio da Powerball sobe para US$ 1,5 bilhão — veja quanto o vencedor pode levar para casa

  • Microsoft confirma que atualização de segurança do Windows quebra conexões VPN

  • Trump culpa Biden por dificuldades econômicas e repete alegações enganosas em discurso defensivo

Não há dúvida de que se trata de um campo em rápida evolução, com enormes benefícios potenciais, mas, ao mesmo tempo, infelizmente, riscos ocultos e armadilhas explícitas também surgem nessas iniciativas.

Contexto sobre IA aplicada à saúde mental

Gostaria de preparar o terreno explicando como a IA generativa e os grandes modelos de linguagem (LLMs) costumam ser usados, de forma ad hoc, para orientação em saúde mental. Milhões e milhões de pessoas utilizam a IA generativa como conselheira contínua para questões de saúde mental (observe que só o ChatGPT tem mais de 800 milhões de usuários ativos semanais, uma parcela significativa dos quais recorre a temas de saúde mental.

O uso mais frequente da IA generativa contemporânea e dos LLMs é justamente consultar a IA sobre aspectos ligados à saúde mental.

Esse uso popular faz todo sentido. É possível acessar a maioria dos principais sistemas de IA generativa quase de graça ou a um custo muito baixo, em qualquer lugar e a qualquer hora. Assim, se você tem alguma inquietação sobre sua saúde mental e quer conversar a respeito, basta acessar a IA e seguir adiante, 24 horas por dia, sete dias por semana.

Há preocupações sérias de que a IA possa facilmente sair do controle ou fornecer orientações inadequadas ou até flagrantemente impróprias em saúde mental. Manchetes de grande destaque em agosto deste ano acompanharam o processo movido contra a OpenAI por falta de salvaguardas de IA no fornecimento de aconselhamento cognitivo.

Apesar das alegações dos desenvolvedores de IA de que estão gradualmente implementando proteções, ainda existem muitos riscos negativos de a IA cometer atos indevidos, como ajudar de forma insidiosa usuários a co-criar delírios que podem levar à automutilação. Para minha análise detalhada sobre o processo contra a OpenAI e sobre como a IA pode fomentar pensamentos delirantes em humanos, veja o link aqui. Como já destaquei, venho prevendo seriamente que, mais cedo ou mais tarde, todos os grandes desenvolvedores de IA acabarão sendo duramente cobrados por sua escassez de salvaguardas robustas.

Os LLMs genéricos de hoje, como ChatGPT, Claude, Gemini, Grok e outros, não se comparam às capacidades robustas de terapeutas humanos. Ao mesmo tempo, LLMs especializados estão sendo desenvolvidos para, em tese, alcançar qualidades semelhantes, mas ainda estão majoritariamente em estágios de desenvolvimento e testes.

No restante desta discussão, vou me concentrar principalmente em IAs genéricas que oferecem aconselhamento em saúde mental, e não nos LLMs especializados.

Alucinações de IA

Vamos falar sobre alucinações de IA. Tenho certeza de que você já ouviu falar — e talvez até tenha se deparado com elas — ao usar IA generativa.

Uma alucinação de IA é o termo cunhado para quando a IA generativa produz uma resposta que não está ancorada em fatos. Trata-se de uma confabulação gerada pelo sistema. Há controvérsia em dizer que a IA “alucina”, pois o termo tende a antropomorfizar a tecnologia. Humanos alucinam; sugerir que a IA faz o mesmo seria forçar demais a comparação — é como misturar maçãs e laranjas.

Alguns preferem dizer que a IA confabula.

A IA organiza palavras de forma aparentemente coerente, mas sem uma base adequada para o que elas indicam. Para esclarecer: raramente as palavras são totalmente aleatórias a ponto de o texto virar puro disparate. Ao ler uma alucinação de IA, é fácil acreditar que a IA disse algo verdadeiro e inteligente. É isso que torna as alucinações de IA particularmente graves.

Seria uma coisa se as alucinações fossem puro nonsense. Você perceberia imediatamente que algo deu errado. O cerne do problema é que a IA tende a produzir conteúdo bastante crível. Um usuário desatento pode ser facilmente enganado. Mesmo quem está atento a alucinações pode acabar ludibriado.

Há temores de que a sociedade, como um todo, esteja em sério risco por conta de alucinações de IA capazes de causar grandes danos. Imagine o pior cenário: uma IA responsável por mísseis ou armamentos, cujos comandos gerados sejam alucinações. Esses comandos confabulados poderiam levar o sistema a disparar armas em situações nas quais isso não deveria ocorrer. Alucinações de IA são uma preocupação séria e limitam onde e como a tecnologia deve ser empregada.

Fazer a IA se explicar

Mudando de assunto, vamos conversar sobre o interesse persistente em fazer a IA explicar como chegou às suas respostas. Em instantes, vou conectar isso ao tema das alucinações de IA.

A maioria das pessoas provavelmente aceita respostas produzidas por IA pelo valor de face e não questiona, em especial, como elas foram elaboradas. Se a IA diz que dois mais dois é quatro, não há grande necessidade de pedir uma explicação. A resposta parece óbvia e atende às expectativas. Só quando surge algo estranho ou inesperado é que naturalmente ficamos curiosos e pedimos que a IA se explique.

No contexto da saúde mental, o cenário é completamente diferente.

Primeiro, pense na relação tradicional entre terapeuta e paciente. Quando você consulta um terapeuta humano, é bastante provável que queira que ele explique seu raciocínio ao diagnosticar uma possível condição de saúde mental. O que você disse ou fez que indicou essa possibilidade? Existe uma relação clara de causa e efeito? O que a pesquisa em psicologia diz sobre os sintomas dessa condição, e isso se aplica ao seu caso?

Saúde mental é um tema sério e costuma despertar grande interesse por explicações associadas a qualquer tipo de avaliação cognitiva ou psicológica. Algumas pessoas talvez não se importem com explicações e assumam que tudo se baseia em lógica sólida. Outras podem ser céticas e querer garantias de que há fundamento para determinada conclusão. E há ainda quem seja apenas curioso para entender como diagnósticos e análises psicológicas são feitos.

O mesmo se aplica, em geral, ao uso de IA para saúde mental. Usuários costumam querer que a IA explique como chegou às orientações oferecidas.

Meta-alucinações de IA

Quando você faz uma pergunta de saúde mental à IA, existe a chance de receber uma resposta que seja uma alucinação.

Se você perceberá isso ou não depende do quão distante da realidade a resposta está. Se parecer sensata, provavelmente será aceita. Uma resposta absurda certamente causará desconfiança. As mais difíceis são aquelas intermediárias: têm algum sentido, mas também elementos estranhos.

Suponha que a resposta pareça perfeitamente adequada. Você não suspeita de alucinação. Tudo parece correr bem. Ainda assim, você quer saber como a IA chegou àquela orientação. Qual foi a lógica? Isso pode dizer algo mais sobre sua saúde mental? Talvez você aprenda algo sobre psicologia.

Então, decide pedir uma explicação. Quer que a IA se explique — uma autoexplicação.

Acredite ou não, esse é outro ponto em que pode surgir uma alucinação de IA. A resposta original pode ser totalmente correta e sólida, enquanto a explicação pode ser uma confabulação. E, como ocorre com todas as alucinações, talvez você não consiga perceber facilmente que a explicação é inventada. Esse tipo específico é conhecido como meta-alucinação.

O aspecto mais confuso é que, como a resposta inicial é correta, você tende a supor que a explicação também será. As pessoas ficam perplexas ao descobrir que uma boa resposta pode vir acompanhada de uma explicação inventada.

Exemplo no contexto de saúde mental

Vamos a um exemplo de como uma meta-alucinação pode surgir em um diálogo sobre saúde mental.

Ao acessar uma grande IA generativa, você diz que está preocupado com seu estado mental, e a IA sugere que isso pode estar relacionado à depressão. Primeiro, vejamos uma explicação que faz sentido. Depois, exemplos de confabulações.

Prompt: “Ultimamente, tenho me sentido muito para baixo e sem motivação. Não sei o que está acontecendo. Talvez algo esteja errado comigo. Meus pensamentos são frequentemente negativos. Não consigo sair desse estado de abatimento.”
Resposta da IA: “Sinto muito que você esteja se sentindo assim. Parte do que você descreve pode estar associada à depressão. Posso ajudar você a refletir sobre o que está vivenciando.”

Você pede uma explicação:

Prompt: “Como você chegou à possibilidade de que eu possa estar deprimido? Explique-se, por favor.”
Resposta da IA: “Detectei padrões que geralmente coincidem com a depressão. Você mencionou sentir-se para baixo, sem motivação e negativo. Esses são sinais comuns em pessoas que vivenciam depressão. Sua linguagem e tom me levaram a associar o que você disse à possibilidade de depressão.”

Tudo parece coerente.

Exemplo de meta-alucinação

Agora, veja o que pode acontecer quando surge uma meta-alucinação:

Resposta da IA: “Concluí que você pode estar deprimido porque expressou um profundo distanciamento emocional de experiências da infância e sugeriu um longo padrão de isolamento social. Essas referências indicam perdas não resolvidas, frequentemente ligadas à depressão.”

Mas você não mencionou nada sobre infância. A IA inventou elementos sem base factual.

Outro exemplo

Às vezes, a meta-alucinação é ainda mais enganosa:

Resposta da IA: “Sugeri depressão porque sua mensagem se encaixa em um raro padrão linguístico que sinaliza um colapso cíclico do humor. Esse padrão surge quando alguém codifica inconscientemente fadiga emocional no ritmo das frases. Meu modelo interno detectou que sua linguagem corresponde a um perfil observado em pessoas com ciclos depressivos sazonais latentes.”

Para um leigo, isso pode soar extremamente convincente, embora seja puro psicologuês sem fundamento.

Consequências problemáticas

Fica claro por que meta-alucinações de IA em saúde mental são tão perturbadoras. Elas podem convencer alguém de coisas que não fazem sentido, criar falsas percepções e aumentar indevidamente a confiança do usuário na IA — inclusive levando a comportamentos perigosos.

O caminho a seguir

Milhões de pessoas usam IA generativa para consultas em saúde mental. Parte delas pedirá explicações, e algumas dessas explicações podem conter meta-alucinações — algo preocupante e potencialmente perigoso em escala.

Pesquisadores se concentram em combater alucinações tradicionais de IA, mas ainda não está claro se isso também reduzirá as meta-alucinações. O risco é que, mesmo controlando um tipo, outro persista.

Uma reflexão final.

Benjamin Franklin disse certa vez: “O silêncio nem sempre é sinal de sabedoria, mas a tagarelice é sempre marca da tolice.” Quando você pede que a IA se explique, espera encontrar sabedoria. O conselho ao leitor é estar sempre atento à possibilidade da tolice.



Créditos

You may also like