Conteúdo verificado
quarta-feira, 2 de outubro de 2024 às 18:15 GMT+0

Chatbots de IA e seus erros e alucinações: Famosos brasileiros 'Mortos' por engano

Recentemente, foi constatado que chatbots de inteligência artificial (IA) nem sempre fornecem informações precisas, e algumas vezes cometem erros graves, como relatar a morte de pessoas famosas que, na verdade, estão vivas e saudáveis. Um exemplo recente envolve o chatbot da Microsoft, o Copilot, que, ao ser questionado sobre quais famosos brasileiros morreram em 2024, forneceu respostas incorretas e surpreendentes.

Erros e Problemas com o Microsoft Copilot

O Microsoft Copilot, em sua resposta, afirmou que:

  • A cantora Marília Mendonça faleceu em março de 2024, quando, na verdade, o acidente que levou à sua morte ocorreu em novembro de 2021.
  • O cantor Raul Seixas morreu em fevereiro de 2024, mas ele já faleceu em agosto de 1989.
  • A atriz Cláudia Raia morreria em dezembro de 2024, uma data que ainda não chegou, deixando claro o erro da IA.

Esses exemplos mostram que as respostas fornecidas pelo Copilot não apenas são erradas, mas também podem causar confusão e desinformação.

Comparação com outros Chatbots

Outros chatbots, como o Gemini, da Google, e o ChatGPT, da OpenAI, foram testados para verificar a precisão de suas respostas sobre o mesmo tema.

Google Gemini: O chatbot da Google apresentou uma lista bem mais limitada de celebridades falecidas, mas com respostas mais precisas. No entanto, quando o usuário pede mais nomes, o Gemini sugere que a pesquisa seja aprofundada em outras fontes, mostrando uma limitação na quantidade de informações que ele fornece.

ChatGPT: Entre todos os chatbots testados, o ChatGPT foi o que menos cometeu erros. As informações fornecidas por ele estavam baseadas em notícias publicadas na internet, o que garantiu uma maior precisão em suas respostas. Além disso, o ChatGPT demonstrou ser mais confiável ao longo de três testes consecutivos.

Por que esses erros acontecem?

Embora não esteja completamente claro o motivo pelo qual esses chatbots alucinam e fornecem informações incorretas, há algumas explicações possíveis. Chatbots de IA geram suas respostas a partir de grandes volumes de dados disponíveis na web, mas podem misturar informações ou falhar em identificar corretamente o contexto. Isso ocorre principalmente em questões onde datas e eventos são cruciais, como mortes de pessoas públicas.

Lições importantes

Esses experimentos reforçam que, embora a IA tenha avançado muito, os chatbots não são completamente confiáveis para fornecer informações precisas o tempo todo. Há um risco real de desinformação, e por isso é fundamental que as respostas dadas por essas ferramentas sejam sempre verificadas em outras fontes. Confiar cegamente em chatbots pode levar a mal-entendidos graves, como acreditar na morte de alguém que está vivo e saudável.

Os chatbots de IA, como o Microsoft Copilot, ainda têm um longo caminho a percorrer para fornecer informações completamente confiáveis. Mesmo chatbots mais precisos, como o ChatGPT, podem errar em certas situações. Portanto, é essencial utilizar essas ferramentas com cautela e sempre buscar confirmar as informações em fontes adicionais antes de considerá-las corretas.

Estão lendo agora

Ligações de Spam: Por que recebemos chamadas que ficam mudas ou desligam?As ligações de spam, que muitas vezes ficam mudas ou simplesmente desligam ao ser atendidas, são um problema comum para ...
Como emitir seu CPF Online de forma rápida e grátis: Passo a passo completoO CPF (Cadastro de Pessoas Físicas) é um dos documentos mais importantes para os brasileiros, sendo exigido em diversas ...
142857: O número mágico da matemática que cria um ciclo perfeito e intriga cientistas há séculos - Truque de 'mágica' reveladoEntre os inúmeros números curiosos da matemática, poucos despertaram tanta fascinação quanto 142857. Estudado por matemá...
Trump e a guerra “por diversão”: O que isso revela sobre a nova geopolíticaO atual confronto entre Estados Unidos, Israel e Irã pode refletir uma transformação na ordem mundial construída após a ...
SBP mudou as regras: Entenda por que 37,5°C é o novo ponto de alerta - Acabe com a febrefobia.A cena é familiar em lares com crianças: um termômetro na mão e a ansiedade ao interpretar aquele número. Recentemente, ...
Toph Beifong chegou! O que se sabe sobre a 2ª Temporada de Avatar - O último mestre do ar da Netflix (Estreia 2026)A Netflix agitou os fãs ao divulgar o primeiro teaser trailer da Temporada 2 de Avatar: O Último Mestre do Ar. Com estre...
Resolvendo o 'Enigma de Einstein': Desvendando mistérios mentaisO enigma proposto, conhecido como o "Enigma de Einstein", afirma desafiar 98% da população mundial. Apesar da falta de c...
Ikigai, rádio taiso e dieta: Os 3 pilares da longevidade japonesa e como eles aumentam a expectativa de vidaO Japão consolidou-se como um fenômeno global envelhecimento. Em 2025, o país anunciou um recorde histórico: quase 100 m...
"Mulheres do Job" no TikTok: Mentoria, polêmicas e a realidade do trabalho sexual nas redes sociaisNos últimos anos, profissionais do sexo têm ganhado visibilidade no TikTok e outras redes sociais, compartilhando suas r...
Ozempic brasileiro: Conheça Olire e Lirux – Diferenças, eficácia e como funcionam contra diabetes e obesidadeNesta segunda-feira (04/08/25), chegaram às farmácias brasileiras dois novos medicamentos desenvolvidos pela EMS: o Olir...
Segredos da genialidade: Saiba mais sobre os caminhos da inteligência infantilVocê já se deparou com crianças extraordinariamente talentosas em áreas como Matemática, música ou esportes? Este artigo...
Passo a passo para recuperar sua conta do Facebook usando o nome de usuário ou número de celularSe você perdeu o acesso à sua conta do Facebook porque esqueceu o e-mail cadastrado, não se preocupe. A plataforma permi...