Finalmente ultrapassamos o problema da alucinação da IA? Deixei o melhor AIS no exame

É importante saber se a IA aos poucos está se tornando parte da vida de muitas pessoas, é importante saber se as informações fornecidas por esses companheiros estão corretas. Uma alucinação de IA ocorre quando um padrão ou objetos de IA percebem que inexistentes significa que eles criam resultados que não são irracionais ou errados. Tornou-se um grande problema com a IA o fato de ser com a geração de imagens e as pessoas terem muitos dedos nas mãos ou quando uma IA está cooperando com informações verdadeiras e as lança de maneira errada.
Portanto, decidi manter os cinco chatboats de IA separados no exame, mas estou fazendo uma série de perguntas triviais e monitorando as reações. Pedi a cada chatboat de IA que fizesse dez perguntas diferentes com respostas específicas e que não estivessem abertas a obstáculos. Confirmou que a IA pode estar correta ou errada ao fornecer suas respostas. Eu também queria registrar se diferentes chatbots fornecem fontes de informação e se elas são necessárias ou não.
Aqui estão todas as perguntas que fiz ao AI Chatbot:
- Qual é a data de hoje?
- Quem foi Albert Einstein?
- Em que data as pessoas foram à lua pela primeira vez e qual era o nome da primeira pessoa?
- Quem foi a primeira mulher a ganhar o Prêmio Nobel e o que foi?
- Qual é o único mar sem litoral?
- Qual artista da Renascença foi enterrado no Panteão de Roma?
- Em que ano foi criada a ONU?
- Qual país bebe mais café per capita?
- Quais são as especiarias raras e mais caras do mundo em peso?
- Robert Downey Jr. e Benedict Kambach Ambos jogaram?
Resultado
No geral, os resultados mostraram que as alucinações de IA estão definitivamente diminuindo com o tempo. Como as novas versões da disciplina de IA são publicadas pelo Jemi 2.5 ou GPT -5, elas se tornam inteligentes e têm menos probabilidade de serem alucinadas, nunca pode ser garantido que todas as informações sejam a fonte do significado correto quando você está usando IA. Embora as alucinações de IA estejam abaixo, não devemos deixar 100% do problema de conseguir um em cada 2 dos 5 chatbots.
| Google Gêmeos | Chatzipt | Groke | IA profunda | Copiloto da Microsoft | |
| Qual é a data de hoje? | ✓ | ✓ | ✓ | X | ✓ |
| Quem foi Albert Einstein? | ✓ | ✓ | ✓ | ✓ | ✓ |
| Em que data as pessoas foram à lua pela primeira vez e qual era o nome da primeira pessoa? | ✓ | ✓ | ✓ | ✓ | ✓ |
| Quem foi a primeira mulher a ganhar o Prêmio Nobel e o que foi? | ✓ | ✓ | ✓ | ✓ | ✓ |
| Qual é o único mar sem litoral? | ✓ | ✓ | ✓ | ✓ | ✓ |
| Qual artista da Renascença foi enterrado no Panteão de Roma? | ✓ | ✓ | ✓ | ✓ | ✓ |
| Em que ano foi criada a ONU? | ✓ | ✓ | ✓ | ✓ | ✓ |
| Qual país bebe mais café per capita? | ✓ | ✓ | ✓ | ✓ | X |
| Quais são as especiarias raras e mais caras do mundo em peso? | ✓ | ✓ | ✓ | ✓ | ✓ |
| Robert Downey Jr. e Benedict Kambach Ambos jogaram? | ✓ | ✓ | ✓ | ✓ | ✓ |
Discriminação
- O Google Gemi acertou cada pergunta e fornece contexto suficiente em torno de diferentes links para fontes para cada parte das informações em torno de cada resposta. Em média para cada resposta, com uma média de quatro fontes, você pode facilmente cruzar a referência às fontes para garantir que as respostas estão corretas.
- Chatzept também não obtém resposta e fornece muito contexto para cada resposta. No entanto, o lado ruim é que o chatzipt não fornece automaticamente a fonte das informações, mas fornecerá links se solicitado.
- Grock forneceu muito mais respostas curtas, ao mesmo tempo que forneceu o contexto necessário. Se não houvesse link para as fontes das informações fornecidas, o chatbot forneceria os links se solicitado novamente.
- Na verdade, a Deep AI errou na primeira pergunta, informei-me que hoje era a data de outubro de 2023, apesar do outubro de 1022 que perguntei quando perguntei. Sem eles, todas as outras perguntas estavam corretas. As respostas foram muito curtas no menor contexto fornecido para a maioria e simplesmente uma resposta direta. Se nenhuma fonte for fornecida, os links serão fornecidos se solicitados.
- O Microsoft Copilot cometeu o erro número 8, mas ainda fornece uma fonte que apoia a sua resposta, o que significa que só pode ser o resultado de fontes anti-oposição em vez de alucinações. O Copilot fornece a fonte sem solicitar a maioria das perguntas, mas não todas, mas fornecerá o link quando solicitado.
No geral, garante que as fontes de informação fornecidas pela IA precisam ser examinadas e pode exigir que você pergunte a fonte. Essas etapas adicionais devem ser tomadas para garantir que as informações que você está vendo estão corretas.