Conteúdo verificado
quarta-feira, 2 de outubro de 2024 às 18:15 GMT+0

Chatbots de IA e seus erros e alucinações: Famosos brasileiros 'Mortos' por engano

Recentemente, foi constatado que chatbots de inteligência artificial (IA) nem sempre fornecem informações precisas, e algumas vezes cometem erros graves, como relatar a morte de pessoas famosas que, na verdade, estão vivas e saudáveis. Um exemplo recente envolve o chatbot da Microsoft, o Copilot, que, ao ser questionado sobre quais famosos brasileiros morreram em 2024, forneceu respostas incorretas e surpreendentes.

Erros e Problemas com o Microsoft Copilot

O Microsoft Copilot, em sua resposta, afirmou que:

  • A cantora Marília Mendonça faleceu em março de 2024, quando, na verdade, o acidente que levou à sua morte ocorreu em novembro de 2021.
  • O cantor Raul Seixas morreu em fevereiro de 2024, mas ele já faleceu em agosto de 1989.
  • A atriz Cláudia Raia morreria em dezembro de 2024, uma data que ainda não chegou, deixando claro o erro da IA.

Esses exemplos mostram que as respostas fornecidas pelo Copilot não apenas são erradas, mas também podem causar confusão e desinformação.

Comparação com outros Chatbots

Outros chatbots, como o Gemini, da Google, e o ChatGPT, da OpenAI, foram testados para verificar a precisão de suas respostas sobre o mesmo tema.

Google Gemini: O chatbot da Google apresentou uma lista bem mais limitada de celebridades falecidas, mas com respostas mais precisas. No entanto, quando o usuário pede mais nomes, o Gemini sugere que a pesquisa seja aprofundada em outras fontes, mostrando uma limitação na quantidade de informações que ele fornece.

ChatGPT: Entre todos os chatbots testados, o ChatGPT foi o que menos cometeu erros. As informações fornecidas por ele estavam baseadas em notícias publicadas na internet, o que garantiu uma maior precisão em suas respostas. Além disso, o ChatGPT demonstrou ser mais confiável ao longo de três testes consecutivos.

Por que esses erros acontecem?

Embora não esteja completamente claro o motivo pelo qual esses chatbots alucinam e fornecem informações incorretas, há algumas explicações possíveis. Chatbots de IA geram suas respostas a partir de grandes volumes de dados disponíveis na web, mas podem misturar informações ou falhar em identificar corretamente o contexto. Isso ocorre principalmente em questões onde datas e eventos são cruciais, como mortes de pessoas públicas.

Lições importantes

Esses experimentos reforçam que, embora a IA tenha avançado muito, os chatbots não são completamente confiáveis para fornecer informações precisas o tempo todo. Há um risco real de desinformação, e por isso é fundamental que as respostas dadas por essas ferramentas sejam sempre verificadas em outras fontes. Confiar cegamente em chatbots pode levar a mal-entendidos graves, como acreditar na morte de alguém que está vivo e saudável.

Os chatbots de IA, como o Microsoft Copilot, ainda têm um longo caminho a percorrer para fornecer informações completamente confiáveis. Mesmo chatbots mais precisos, como o ChatGPT, podem errar em certas situações. Portanto, é essencial utilizar essas ferramentas com cautela e sempre buscar confirmar as informações em fontes adicionais antes de considerá-las corretas.

Estão lendo agora

Alien: Earth – Nova série da franquia Alien promete terror e ação em 2120 - Elenco, data de estreia e spoilersA franquia Alien), uma das mais icônicas do cinema de ficção científica, está prestes a ganhar um novo capítulo com a sé...