Tema

Pesquisa mostra que chatbots dão péssimos conselhos e bajulam usuário; saiba os riscos e como evitar

· Português· G1

Mulher se casa com personagem criado no ChatGPT Quem recorre a chatbots costuma receber ajuda excessivamente aduladora.

Entre os cientistas, esse fenômeno tem um nome: bajulação. “Ele fez isso de novo.

O ChatGPT estava me bajulando.

Simplesmente porque eu lhe fiz uma pergunta brilhante”.

Isso já aconteceu com você?

O elogio, porém, pode ter menos a ver com a sua própria inteligência.

Esse é justamente o fator mais preocupa, por vários motivos.

Os chatbots nos dizem o que queremos ouvir, mas não necessariamente o que deveríamos ouvir.

Essa é a essência de um estudo realizado por pesquisadores da Universidade de Stanford, publicado recentemente na revista científica Science.

Muitas pessoas fazem perguntas a chatbots sobre coisas que simplesmente não sabem (a capital da Eslovênia, o peso de uma pena, como funciona a inflação), mas também sobre assuntos pessoais: se devem ou não entrar em contato com um ex, por que às vezes se sentem tristes sem motivo aparente.

Uma análise de 2025 já mostrou que as pessoas recorrem à inteligência artificial (IA) generativa principalmente quando buscam terapia e companhia.

A própria OpenAI – criadora do ChatGPT – estima que apenas cerca de 2% das conversas são usadas para questões de relacionamento e reflexão, mas, dado o incrível volume de interações, isso ainda representaria mais de 50 milhões de mensagens por dia.

Além disso, os usuários desses modelos de linguagem são frequentemente jovens.

Nos Estados Unidos, quase um em cada três adolescentes prefere discutir assuntos sérios com uma inteligência artificial em vez de com um ser humano.

Essas preocupações expõem a vulnerabilidade emocional dessas pessoas.

Mas as respostas do sistema são incontroláveis.

No pior cenário, os conselhos da IA podem ser prejudiciais e contribuir para decisões impulsivas, delírios ou suicídio. “Essa é a ponta do iceberg”, diz Hamilton Morrin, psiquiatra do King’s College London, que investigou como os chatbots podem até mesmo desencadear psicoses.

Leia também: Áustria planeja proibir redes sociais para menores de 14 anos Onze modelos de linguagem testados Para o estudo atual de Stanford, pesquisadores examinaram onze modelos de linguagem diferentes, do ChatGPT e Claude ao Gemini e DeepSeek.

Eles os testaram com três conjuntos de dados distintos: perguntas gerais sobre conflitos interpessoais, postagens da comunidade do Reddit AmITheAsshole (“Sou eu o babaca?”, em tradução livre, nos casos em que a comunidade classificou alguém c

原文链接: G1