Atualmente, o chatzpi não repete essas horríveis reivindicações falsas sobre o Holman nas saídas. “A atualização mais recente foi resolvida, porque a conversa agora está procurando informações sobre as pessoas, quando elas estão perguntando”, mas não se argumentou que não poderia bloquear as informações – não poderia bloquear as informações – a história do assassino de crianças falso, mas ainda está na dieta interna.
“Embora os dados pessoais falsos não sejam compartilhados, o dano pode ser mais limitado, mas o GDPR compartilhado se aplica a dados internos como os dados”.
OpenAI pode não ser capaz de excluir facilmente dados
Holman não é o único usuário de chatzipt que estava preocupado que as alucinações de Chattbut pudessem arruinar a vida. Alguns meses após o lançamento do chatzp no final de 2022, um prefeito australiano ameaçou que o chatboat havia alegado falsamente que ele alegou estar preso. Ao mesmo tempo, Chatzept Washington Post, anexou um professor de direito real a um escândalo de assédio sexual falso RelatórioO Alguns meses depois, um apresentador de rádio entrou com um caso contra o OpenAI nos resultados, descrevendo as alegações de enfeites falsos.
Em alguns casos, o modelo filtrou o modelo para evitar saídas prejudiciais, mas provavelmente não excluiu informações falsas dos dados de treinamento, sugeriu o NoEB. No entanto, as saídas não são suficientes para evitar danos respeitáveis para serem filtrados e desobedientes, o advogado de proteção de dados da NOE, a limpeza de Sardalli, queixou -se.
Sardalli disse: “acrescentando uma desobediência de que você não obedece à lei não remove a lei”, disse Sardelly. “As empresas de IA podem apenas ‘ocultar’ informações falsas dos usuários quando ainda processam informações falsas internamente. As empresas de IA devem parar de agir como se o GDPR não se aplique a eles, quando estiver claramente.