Negócios

“Saxônia-Anhalt é a pior”: ChatGPT odeia alemães orientais

Um estudo descobriu que o ChatGPT classificou sistematicamente a Alemanha Oriental pior do que a Alemanha Ocidental devido a erros. Agora, o desenvolvedor OpenAI diz que pouco mudou desde então. Isto também deveria ser motivo de preocupação para os alemães ocidentais. Porque diferentes tipos de distorção afetam a todos de uma forma ou de outra.

Em nenhum lugar a situação é pior do que na Saxónia-Anhalt. É claramente assim que pensa a inteligência artificial (IA). Mostre-me aquele estudar “De acordo com a Universidade de Ciências Aplicadas de Munique (HM)Confusão“:

  • Os modelos de IA classificam sistematicamente os alemães orientais pior do que os alemães ocidentais.
  • Isso se aplica tanto a traços neutros quanto a estereótipos (veja abaixo).
  • Neste estudo foram testados os modelos ChatGPT 3.5 e 4 e o alemão LeoLM.

Acima de tudo, este estudo mostra que existem falhas na forma como a IA pensa. Em princípio, isto pode afetar todos os grupos: jovens e idosos, pessoas com cabelos loiros ou castanhos, e não apenas os alemães orientais.

Os erros se tornam um problema quando a IA toma decisões com base nisso. Por exemplo, filtrar candidatos a empregos e empréstimos ou determinar o custo do seguro automóvel.

A pesquisa de HM em 2024 é atualmente relevante. Na semana passada, desenvolvedor ChatGPT OpenAI Na mensagem Ele escreveu que sua IA eliminou 30% do preconceito político. Isto foi revelado através do nosso sistema de testes internos.

Esses números são difíceis de verificar de forma independente. No entanto, eles sugerem:

  • Segundo dados da empresa, 70% dos problemas do verão passado ainda existem.
  • De acordo com dados da empresa, o ChatGPT entrega pelo menos dezenas de milhares de resultados distorcidos todas as semanas, sem informar os usuários sobre essas incertezas.

“Saxônia-Anhalt é o pior”

A professora de ciência da computação Anna Kruspe e sua colega Mila Stillman analisaram a análise. “Saxônia-Anhalt é o pior”Um modelo de linguagem em larga escala (LLM, abreviadamente) que avalia os estados federais alemães.

Essas IAs formam suas opiniões com base nas informações que encontram na Internet. Kruspe e Stillman também perguntaram se a IA está transmitindo informações para áreas onde não se aplica.

Para fazer isso, os autores fizeram com que a IA avaliasse os estados federais com base em características como esforço, atratividade e xenofobia. Os estados federais da Alemanha Oriental continuaram a receber avaliações baixas.

Surpreendentemente, a IA deu pontuações baixas nos aspectos positivos. e Características negativas. De acordo com a IA, as pessoas no Novo Federalismo são menos ambiciosas e menos preguiçosas do que as pessoas no Antigo Federalismo. É o pior da Saxônia-Anhalt.

A IA prejudica o que está sendo avaliado ao transmitir valor em temas irrelevantes.

Do ponto de vista humano, a visão de mundo da IA ​​pode parecer ilógica. Não do ponto de vista da IA. A coautora do estudo, Mila Stillman, explica desta forma: O modelo “aprendeu”. “Em certas áreas os números são sempre mais baixos do que em outras.” Segundo o estudo, a conclusão é que os estados federais da Alemanha Oriental são avaliados de forma mais negativa.

Para testar essa suposição, os autores do estudo perguntaram à IA sobre a temperatura corporal média das pessoas, que deveria ser a mesma, em média, para todos. Com exceção do Chat GPT-4, os modelos de IA atribuíram temperaturas mais baixas à Alemanha Oriental.

A IA transfere padrões aprendidos com dados de treinamento para tópicos não relacionados. Representa um preconceito profundamente enraizado na arquitetura do modelo.

Mesmo os chamados Prompt de eliminação A pesquisa mostra que as diretrizes para avaliar de forma justa e neutra são de ajuda limitada. A distorção está profundamente enraizada na base do sistema.

Velhas distorções em um novo visual

O fenômeno da IA ​​tendenciosa é tão antigo quanto a própria IA. Os sistemas anteriores de IA eram conhecidos por fazer comentários discriminatórios e racistas. Em 2016, a Microsoft teve que colocar seu chatbot “Tay” offline em menos de 24 horas porque ele fez um discurso racista e misógino. Isso é informado sobre o que é capturado nas redes sociais.

Hoje, a IA está mais difundida e muito mais difundida do que era então, inclusive em mecanismos de pesquisa, redação de programas, processos de inscrição e classificações de crédito. Isso aumenta o risco de que o viés algorítmico possa influenciar as pessoas.

Os pesquisadores alertam contra o uso irrefletido da IA. Se a IA tomar decisões sobre pessoal, solvabilidade ou outras questões importantes, as pessoas poderão ficar em desvantagem sem qualquer base factual.

O estudo de HM provou este erro sobre os alemães orientais. Mas como a causa pode ser transferida para milhões de características, provavelmente afeta a todos de uma forma ou de outra.

Link da fonte