Antropomorfizando a IA: As terríveis consequências de confundir o humano com o humano já foram descobertas


Participe de nossos boletins informativos diários e semanais para obter as atualizações mais recentes e conteúdo exclusivo sobre a cobertura de IA líder do setor. Saber mais


Na nossa pressa em compreender e comunicar com a IA, caímos numa armadilha tentadora: atribuir características humanas a estes sistemas robustos, mas fundamentalmente não humanos. Esta transformação antropomórfica da IA ​​não é uma peculiaridade inofensiva da natureza humana – está a tornar-se uma tendência cada vez mais perigosa que pode obscurecer o nosso julgamento de formas importantes. Os líderes empresariais comparam a aprendizagem da IA ​​à educação humana, o que dá aos legisladores a justificação para práticas de formação que criam políticas baseadas em analogias falhas entre o homem e a IA. Esta tendência para humanizar a IA pode moldar de forma inadequada decisões críticas em todos os setores e estruturas reguladoras.

Ver a IA através de lentes humanas nos negócios levou as empresas a sobrestimar as capacidades da IA ​​ou a subestimar a necessidade de supervisão humana, por vezes com consequências dispendiosas. Os riscos na lei dos direitos de autor são elevados, com o pensamento antropológico a conduzir a comparações complexas entre a aprendizagem humana e a formação em IA.

Armadilha da linguagem

Ouça como falamos sobre IA: dizemos que ela “aprende”, “pensa”, “compreende” e até “cria”. Esses termos humanos parecem naturais, mas são enganosos. Quando dizemos que um modelo de IA “aprende”, ele não entende como um estudante humano. Em vez disso, realiza análises estatísticas complexas em grandes quantidades de dados, ajustando pesos e parâmetros nas suas redes neurais com base em princípios matemáticos. Compreensão, momento eureka, centelha de criatividade ou nenhuma compreensão real – ajuste de método cada vez mais sofisticado.

Esta habilidade linguística não é meramente semântica. Conforme observado no artigo, O caso ilusório da IA ​​generativa para uso justo: “O uso de linguagem antropomórfica para descrever o desenvolvimento e operação de modelos de IA é distorcido, porque uma vez treinado, o modelo opera independentemente do conteúdo dos trabalhos em que foi treinado.” Esta confusão tem consequências reais, especialmente quando afecta decisões jurídicas e políticas.

Desconexão cognitiva

O aspecto mais perigoso da antropomorfização da IA ​​é como ela obscurece as diferenças fundamentais entre a inteligência humana e a inteligência da máquina. Embora alguns sistemas de IA sejam excelentes em tipos específicos de tarefas de raciocínio e análise, os grandes modelos de linguagem (LLMs) que dominam o discurso de IA atual – aquele em que nos concentramos aqui – operam através de um sofisticado reconhecimento de padrões.

Estes sistemas processam grandes quantidades de dados, reconhecem e aprendem relações estatísticas entre palavras, frases, imagens e outros dados e prevêem o que deve vir a seguir numa sequência. Quando dizemos que eles “aprendem”, estamos descrevendo um processo de otimização matemática que lhes permite fazer previsões precisas com base em seus dados de treinamento.

Considere este exemplo incrível de pesquisa Berglund e seus colegas: Um modelo treinado em objetos que dizem “A é igual a B” muitas vezes é incapaz de raciocinar, como um ser humano, para concluir que “B é igual a A”. Se a IA descobrir que Valentina Tereshkova foi a primeira mulher no espaço, ela perguntará: “Quem é Valentina Tereshkova?” pode ser respondido corretamente. Mas “Quem foi a primeira mulher no espaço?” Esta limitação revela uma diferença fundamental entre o reconhecimento do método e o verdadeiro raciocínio – entre prever possíveis sequências de palavras e compreender o seu significado.

Este preconceito antropocêntrico tem implicações particularmente preocupantes para o debate sobre a IA e os direitos de autor. CEO da Microsoft, Satya Nadella recentemente comparou o treinamento de IA Para a aprendizagem humana, sugere que se os humanos podem aprender através de livros sem implicações de direitos de autor, a IA pode fazer o mesmo. Esta comparação ilustra perfeitamente o perigo do pensamento antropocêntrico nos debates sobre IA ética e responsável.

Alguns argumentam que esta analogia precisa ser revista para compreender a aprendizagem humana e o treinamento em IA. Quando os humanos leem livros, não os copiamos – compreendemos e absorvemos ideias. Os sistemas de IA, por outro lado, devem criar cópias literais de obras – muitas vezes obtidas sem permissão ou pagamento – codificá-las nas suas estruturas e manter essas versões codificadas para funcionar. As criações não desaparecem após o “aprendizado”, como muitas vezes afirmam as empresas de IA; Eles incluem Redes Neurais de Sistemas.

Ponto cego empresarial

A antropomorfização da IA ​​cria pontos cegos perigosos na tomada de decisões de negócios, além de simples ineficiências operacionais. Quando executivos e decisores pensam na IA como “criativa” ou “inteligente” em termos humanos, isso pode levar a suposições perigosas e a uma camada de potencial responsabilidade legal.

Superestimando as capacidades de IA

Uma área importante de criação de risco antropológico é a criação de conteúdo e a conformidade com os direitos autorais. Quando as empresas assumem que a IA é capaz de “aprender” como os humanos, podem assumir erroneamente que o conteúdo gerado pela IA está automaticamente imune a questões de direitos de autor. Esse mal-entendido pode levar as empresas a:

  • O uso de sistemas de IA que reproduzem inadvertidamente conteúdo protegido por direitos autorais expõe as empresas a reivindicações de violação de direitos autorais
  • Falha na implementação de mecanismos adequados de filtragem e supervisão de conteúdo
  • Suponha falsamente que a IA pode distinguir com segurança entre conteúdo de domínio público e conteúdo protegido por direitos autorais
  • Subestime a necessidade de revisão humana nos processos de criação de conteúdo

A conformidade transfronteiriça é um ponto cego

O preconceito antropogénico na IA cria riscos quando consideramos a conformidade transfronteiriça. Ilustrado por Daniel Gervais, Haralambos Marmanis, Noam Shemtov e Catherine Zaller Rowland. “O cerne da questão: patentes, treinamento em IA e LLMs,” A lei de direitos autorais opera com base em princípios territoriais estritos, com cada jurisdição aplicando suas próprias regras de violação e exceções.

Esta natureza territorial da lei dos direitos de autor cria uma rede complexa de responsabilidades potenciais. As empresas podem assumir erradamente que os seus sistemas de IA podem “aprender” livremente a partir de material protegido por direitos de autor em todas as jurisdições, não reconhecendo que as atividades de formação jurídica num país podem ser infringentes noutro. A União Europeia reconheceu especificamente este risco na sua legislação sobre IA Recitação 106Qualquer modelo de IA de uso geral fornecido na UE deve cumprir a legislação de direitos autorais da UE em relação aos dados de treinamento, independentemente de onde o treinamento ocorreu.

Isto é importante porque antropomorfizar as capacidades da IA ​​pode levar as organizações a subestimar ou a compreender mal as obrigações legais além-fronteiras. A ficção conveniente de que a IA “aprende” como os humanos obscurece a realidade de que o treinamento em IA envolve operações complexas de cópia e armazenamento que desencadeiam diferentes obrigações legais em outras jurisdições. Este mal-entendido fundamental sobre a verdadeira função da IA, combinado com a natureza territorial da legislação sobre direitos de autor, cria riscos significativos para as empresas que operam a nível mundial.

custo humano

Um dos custos mais significativos é o impacto emocional da antropomorfização da IA. Estamos vendo um número crescente de casos de pessoas formando ligações emocionais com chatbots de IA e tratando-os como amigos ou confidentes. Pode ser especialmente Perigoso para pessoas vulneráveis Compartilhamento de informações pessoais ou apoio emocional que não pode ser fornecido com base na IA. As respostas da IA, embora aparentemente empáticas, são um modelo sofisticado baseado em dados de treinamento – sem compreensão real ou conexão emocional.

Esta vulnerabilidade emocional também se manifesta em ambientes profissionais. À medida que as ferramentas de IA são integradas no trabalho diário, os funcionários podem desenvolver uma confiança inadequada nestes sistemas, vendo-os como verdadeiros colegas em vez de ferramentas. Eles podem compartilhar informações confidenciais de trabalho com muita liberdade ou relutar em relatar erros por um sentimento de lealdade equivocada. Embora estes cenários estejam agora isolados, realçam como a antropomorfização da IA ​​no local de trabalho pode criar dependências pouco saudáveis ​​em sistemas que, apesar das suas respostas sofisticadas, são incapazes de uma verdadeira compreensão ou cuidado.

Libertando-se da armadilha antropológica

Então, como avançamos? Primeiro, precisamos ser mais precisos na nossa linguagem sobre IA. Em vez de dizer que a IA “aprende” ou “compreende”, pode dizer que “processa dados” ou “gera resultados com base em padrões nos seus dados de treino”. Não é apenas dogmático – ajuda a esclarecer o que estes sistemas fazem.

Em segundo lugar, deveríamos avaliar os sistemas de IA com base no que eles são e não no que imaginamos que sejam. Isto significa reconhecer tanto as suas capacidades impressionantes como as suas limitações fundamentais. A IA pode processar grandes quantidades de dados e reconhecer padrões que os humanos podem não perceber, mas não consegue compreender, raciocinar ou criar como os humanos fazem.

Finalmente, precisamos de desenvolver quadros e políticas que abordem as características reais da IA, em vez de hipotéticas qualidades humanas. Isto é especialmente importante na lei dos direitos de autor, onde o pensamento antropomórfico pode levar a analogias falhas e a conclusões jurídicas inadequadas.

O caminho a seguir

À medida que os sistemas de IA se tornam mais sofisticados na imitação dos resultados humanos, a tentação de antropomorfizá-los aumentará. Este preconceito antropomórfico afeta tudo, desde a forma como avaliamos as capacidades da IA ​​até à forma como avaliamos os seus riscos. Como vimos, isto expande-se para desafios práticos significativos relacionados com a lei dos direitos de autor e a conformidade comercial. Ao atribuir capacidades de aprendizagem humana aos sistemas de IA, precisamos de compreender a sua natureza fundamental e a realidade técnica de como processam e armazenam informação.

Compreender a IA – sistemas sofisticados de processamento de informações, e não alunos semelhantes aos humanos – é fundamental para todos os aspectos do gerenciamento e implantação da IA. Ao ultrapassar o pensamento antropocêntrico, podemos enfrentar melhor os desafios dos sistemas de IA, desde considerações éticas e riscos de segurança até ao cumprimento transfronteiriço dos direitos de autor e à governação de dados de formação. Esta compreensão mais precisa ajudará as empresas a tomar decisões mais informadas, ao mesmo tempo que apoia um melhor desenvolvimento de políticas e um discurso público em torno da IA.

Quanto mais cedo aceitarmos a verdadeira natureza da IA, mais bem preparados estaremos para navegar pelas suas profundas implicações sociais e desafios práticos na nossa economia global.

Roanie Levy é consultor jurídico e de licenciamento CCC.

Tomadores de decisão de dados

Bem-vindo à comunidade VentureBeat!

Os tomadores de decisão de dados são especialistas, incluindo técnicos que trabalham com dados, que podem compartilhar insights e inovações relacionadas a dados.

Se você quiser ler sobre ideias de ponta e informações atualizadas, melhores práticas e o futuro dos dados e da tecnologia de dados, junte-se a nós no DataDecisionMakers.

Você pode até considerar enviar um artigo de sua autoria!

Leia mais em DataDecisionMakers


Source link

Releated

Apple Watch 在 Strava 用戶中排名第

Strava 剛剛發布了第 12 份年度運動趨勢報告,Apple Watch 在一個重要類別中奪得了金牌。   據 Strava 稱,Apple Watch 將成為 2025 年用戶最常用的手錶。 Apple Watch 佔據了手錶類別的榜首,COROS 也獲得了極高的人氣。 Oura 和 WHOOP 等非手錶可穿戴設備也在快速增長。 Strava 用戶還將 Apple Health(Apple Watch 上的鍛煉)排在 Strava 社區內用於記錄跑步、步行和其他鍛煉的應用程序列表中的前列。 Strava 用戶選擇 Apple Watch 作為最佳可穿戴設備尤其值得注意,因為這個以健身為中心的平台在 iPhone 和 Android 上均可用。 去年一月,Apple Fitness+ 和 Strava 聯手推出了力量訓練計劃。 9 月份,Strava 更新了 Apple Watch 應用程序,並添加了備受期待的 Live Segments 功能。 您可以閱讀完整報告 這裡。 蘋果手錶系列 11, 蘋果手錶 […]