Estudo acende alerta: a maioria das pessoas acredita no que o ChatGPT diz, mesmo que esteja totalmente errado
Os chatbots de IA (inteligência artificial) já se tornaram parte da vida cotidiana de muitas pessoas. Mas a realidade é que o ChatGPT, da OpenAI, o Gemini, do Google, ou o Claude, da Anthropic, ainda cometem erros com frequência. Segundo um estudo da Universidade da Pensilvânia, publicado pela BBC, até mesmo os chatbots de IA mais avançados deram respostas erradas 45% das vezes.
Muitos usuários não têm conhecimento dessa realidade. Como relatam em um novo artigo, o pesquisador de pós-doutorado da Universidade da Pensilvânia Steven Shaw e o professor de marketing Gideon Nave descobriram, em uma série de experimentos, que os usuários tendiam a aceitar as respostas do ChatGPT sem questionamento, mesmo quando estavam incorretas.
Os participantes foram convidados a responder a uma variedade de perguntas de raciocínio e conhecimento. Apesar de o uso do ChatGPT ser opcional, mais de 50% deles optaram por utilizar o chatbot para responder às questões, segundo a Futurism.
Os pesquisadores testavam uma teoria central: se os usuários estariam dispostos a acreditar no que a IA lhes dizia independentemente da precisão — algo que chamaram de “rendição cognitiva”.
No experimento mais marcante, com 359 pessoas, os participantes seguiram as recomendações corretas da IA em 92,7% dos casos — e, ainda assim, seguiram a IA em 79,8% das vezes mesmo quando ela estava errada.
A pesquisa explora como estamos permitindo que a IA influencie nossas decisões. “Com essas ferramentas de IA disponíveis, tão integradas ao nosso cotidiano e aos nossos processos de decisão, agora temos a opção ou a capacidade de terceirizar o próprio pensamento”, disse Shaw durante participação em um podcast da Universidade da Pensilvânia no mês passado.
Os resultados sugerem que os usuários estão dispostos a acreditar quando a IA apresenta orientações falsas, mas plausíveis. Os experimentos também indicam que podemos estar perdendo a capacidade de engajar criticamente com a informação, algo que pesquisas anteriores já haviam apontado.
“A capacidade de pensar criticamente, de verificar o que a IA está fornecendo, torna-se cada vez mais importante”, disse Nave. “É como um músculo que temos e que, esperamos, não iremos perder ao longo do tempo.”
“No momento, estamos limitados a nos comunicar com LLMs por meio de nossos celulares ou computadores”, acrescentou Shaw. “À medida que essas barreiras diminuírem, essa integração só tende a se intensificar.”
Os pesquisadores alertam para o perigo de continuarmos abrindo mão de nossa autonomia, consolidando ainda mais nossa dependência da IA. “Podemos perder, como espécie, algo muito essencial à nossa existência”, disse Nave, “que é a nossa capacidade de pensar.” As informações são da revista Época.
Fonte: Jornal O Sul.
