Estudo acende alerta: a maioria das pessoas acredita no que o ChatGPT diz, mesmo que esteja totalmente errado

 


Os chatbots de IA (inteligência artificial) já se tornaram parte da vida cotidiana de muitas pessoas. Mas a realidade é que o ChatGPT, da OpenAI, o Gemini, do Google, ou o Claude, da Anthropic, ainda cometem erros com frequência. Segundo um estudo da Universidade da Pensilvânia, publicado pela BBC, até mesmo os chatbots de IA mais avançados deram respostas erradas 45% das vezes.

Muitos usuários não têm conhecimento dessa realidade. Como relatam em um novo artigo, o pesquisador de pós-doutorado da Universidade da Pensilvânia Steven Shaw e o professor de marketing Gideon Nave descobriram, em uma série de experimentos, que os usuários tendiam a aceitar as respostas do ChatGPT sem questionamento, mesmo quando estavam incorretas.

Os participantes foram convidados a responder a uma variedade de perguntas de raciocínio e conhecimento. Apesar de o uso do ChatGPT ser opcional, mais de 50% deles optaram por utilizar o chatbot para responder às questões, segundo a Futurism.

Os pesquisadores testavam uma teoria central: se os usuários estariam dispostos a acreditar no que a IA lhes dizia independentemente da precisão — algo que chamaram de “rendição cognitiva”.

No experimento mais marcante, com 359 pessoas, os participantes seguiram as recomendações corretas da IA em 92,7% dos casos — e, ainda assim, seguiram a IA em 79,8% das vezes mesmo quando ela estava errada.

A pesquisa explora como estamos permitindo que a IA influencie nossas decisões. “Com essas ferramentas de IA disponíveis, tão integradas ao nosso cotidiano e aos nossos processos de decisão, agora temos a opção ou a capacidade de terceirizar o próprio pensamento”, disse Shaw durante participação em um podcast da Universidade da Pensilvânia no mês passado.

Os resultados sugerem que os usuários estão dispostos a acreditar quando a IA apresenta orientações falsas, mas plausíveis. Os experimentos também indicam que podemos estar perdendo a capacidade de engajar criticamente com a informação, algo que pesquisas anteriores já haviam apontado.

“A capacidade de pensar criticamente, de verificar o que a IA está fornecendo, torna-se cada vez mais importante”, disse Nave. “É como um músculo que temos e que, esperamos, não iremos perder ao longo do tempo.”

“No momento, estamos limitados a nos comunicar com LLMs por meio de nossos celulares ou computadores”, acrescentou Shaw. “À medida que essas barreiras diminuírem, essa integração só tende a se intensificar.”

Os pesquisadores alertam para o perigo de continuarmos abrindo mão de nossa autonomia, consolidando ainda mais nossa dependência da IA. “Podemos perder, como espécie, algo muito essencial à nossa existência”, disse Nave, “que é a nossa capacidade de pensar.” As informações são da revista Época.

Fonte: Jornal O Sul.