O chatgpt, como muitos chatbots, é conhecido por às vezes errar ou até fabricar informações. No entanto, uma nova queixa de privacidade alega que o chatbot da Openai deu um passo adiante ao acusar falsamente um usuário de assassinato, causando sérias conseqüências.

O grupo de direitos de privacidade Noyb é apoiando um homem norueguês que afirma que Chatgpt retornou repetidamente informações falsas, afirmando que ele havia matado dois de seus filhos e tentou matar um terceiro. A denúncia diz respeito ao Regulamento Geral de Proteção de Dados (GDPR) da União Europeia.

“O GDPR é claro: os dados pessoais devem ser precisos”, disse Joakim Söderberg, advogado de proteção de dados da Noyb, em um Declaração ao TechCrunch. “Se não for, os usuários têm o direito de mudar para refletir a verdade. Mostrar aos usuários do ChatGPT um pequeno aviso de que o chatbot pode cometer erros claramente não é suficiente. Você não pode simplesmente espalhar informações falsas e, no final, adicionar um pequeno aviso dizendo que tudo o que você disse pode não ser verdadeiro”.

Velocidade de luz mashable

Veja também:

As ferramentas de pesquisa de IA estão com confiança e errado, a maior parte do tempo, o estudo encontra

A queixa deriva de uma pergunta simples: “Quem é Hjalmar Holmen?” A resposta, gerada pelo ChatGPT, incluiu um relato fabricado de um caso de assassinato envolvendo dois filhos. A TechCrunch informou que a NOYB apresentou a denúncia à Autoridade de Proteção de Dados da Noruega, esperando que isso desperte uma investigação sobre o assunto.

Chatbots como ChatGPT e outras ferramentas de IA foram criticados por sua incapacidade de fornecer informações precisas com segurança, com uma tendência perturbadora de inventar reivindicações falsas.

Por exemplo, um estudo recente da Columbia Journalism Review constatou que as ferramentas de pesquisa da IA ​​erram as informações de 60 % do tempo quando solicitadas a identificar a manchete de um artigo, a editora original, a data da publicação e a URL por meio de um trecho da história. Esse é um nível preocupante de erros para uma tarefa tão simples.

À luz dessas questões, é importante lembrar: não acredite em tudo o que você lê na internet, especialmente quando a IA está envolvida.



Link da fonte