Notícias

O que os testes AGI da Anthropic revelam sobre regulamentação e risco de IA

A investigação da Anthropic aponta para um futuro alarmante: onde a IA não luta maliciosamente, mas evolui para além dos limites que podemos impor. Unsplash +

A IA realmente luta? A resposta curta a esta pergunta é “não”. Embora esta resposta seja certamente válida, dificilmente satisfaz o crescente desconforto que muitos sentem em relação à IA, ou os receios virais que dela decorrem. Relatórios recentes Sobre o sistema de IA da Antrópico, Claude. Numa experiência muito discutida, Claude pareceu recorrer a ameaças Possível chantagem e extorsão Diante da possibilidade de fechamento.

A cena lembra imediatamente um dos mais famosos – e aterrorizantes – filmes de inteligência artificial de todos os tempos: o computador HAL 9000 na obra-prima de Stanley Kubrick de 1968, 2001: Uma Odisséia no Espaço. Horrorizado com ordens conflitantes da base, HAL mata membros da tripulação durante o sono, executa outro membro no vazio negro do espaço e tenta matar o membro restante da tripulação Dave Bowman, quando ele tenta desativar as funções cognitivas de HAL.

“Sinto muito, Dave, não posso fazer isso”, o rosnado calmo de HAL em resposta à ordem de Dave para abrir a porta de uma cápsula e devolvê-lo à nave, tornou-se uma das falas mais famosas da história do cinema – e o arquétipo da IA ​​que se tornou desonesta.

Mas quão realista era o caroço de HAL? E como o Claude de hoje se parece com HAL? A verdade é “não muito” e “não muito”. HAL tinha um milhão de vezes o poder de processamento de qualquer sistema de computação que temos hoje – afinal, ele estava em um filme, não na vida real – e é inconcebível que seus programadores não tenham simplesmente cuspido uma mensagem de erro ou levantado a supervisão humana se houvesse instruções conflitantes.

Claude não está planejando vingança

Para entender o que aconteceu no experimento antrópico, é importante lembrar que sistemas como o de Claude realmente o fazem. Claude “acha que não”. Ele “simplesmente” escreve a resposta uma palavra por vez, baseando-se em trilhões de parâmetros ou aprendendo associações entre palavras e conceitos, para prever a próxima escolha de palavra mais provável. Usando vastos recursos de computação, Claude pode reunir suas respostas a uma velocidade incompreensivelmente mais rápida que a dos humanos. Portanto, pode parecer que Claude está realmente pensando.

Nas situações em que Claude recorreu à chantagem e à extorsão, o programa foi implantado em situações extremas, específicas e artificiais, com um menu limitado de ações possíveis. A sua resposta foi o resultado matemático da modelagem probabilística dentro de um contexto bem definido. Este curso de ação foi traçado pelos programadores de Claude e não foi um sinal de ação ou intenção, mas uma consequência do projeto humano. Claude não estava fazendo um teste para ser uma estrela de cinema brutal.

Por que os medos da IA ​​persistem

À medida que a IA continua a dominar a consciência pública, é fácil ser vítima de manchetes assustadoras e de explicações simplificadas sobre as tecnologias de IA e as suas capacidades. Os humanos estão programados para temer o desconhecido, e a IA – complexa, opaca e em rápida evolução – explora esse instinto. Mas estes receios podem distorcer a compreensão pública. É imperativo que todos os envolvidos no desenvolvimento e utilização da IA ​​comuniquem claramente o que a IA pode realmente fazer, como o faz e as suas capacidades potenciais em iterações futuras.

Uma das chaves para alcançar um nível de conforto em torno da IA ​​é obter a irônica compreensão de que a IA pode ser realmente muito perigosa. Ao longo da história, a humanidade criou ferramentas que não conseguia controlar totalmente, desde as máquinas gigantes da Revolução Industrial até à bomba atómica. Os limites éticos para a IA devem ser estabelecidos coletiva e globalmente. Impedir que a IA auxilie na guerra – na conceção de armas manuais, na otimização de planos de ataque com drones ou na violação de medidas de segurança nacional – deve ser uma prioridade máxima para todos os líderes e ONG em todo o mundo. Precisamos de garantir que a IA não seja transformada em arma para guerra, vigilância ou qualquer forma de dano.

Programar é responsabilidade, não distração

Vamos relembrar o experimento da Anthropic para dissecar o que realmente aconteceu. Claude-e isso apenas No fundo, o código do computador, e não o DNA vivo, estava operando dentro de uma nuvem de probabilidade que o levava a escolher, passo a passo, a melhor próxima palavra possível em uma frase. Funciona uma palavra de cada vez, mas a uma velocidade que facilmente excede a capacidade humana. Os programadores de Claude optaram por ver se a sua criação escolheria, em vez disso, uma opção negativa. Sua resposta foi moldada mais pela programação, pelo design defeituoso e pela forma como o cenário foi codificado do que por qualquer maldade da máquina.

Claude tem acesso a enormes armazenamentos de dados como ChatGPT e outras plataformas atuais de IA. As plataformas são treinadas para acessar informações específicas relacionadas às consultas e, em seguida, prever respostas prováveis ​​ao texto fluente do produto. Eles não tomam “decisões” em nenhum sentido humano significativo. Eles não têm os motivos, as emoções ou mesmo os instintos de autopreservação de um organismo unicelular, sem os meios para elaborar um plano mestre para extorquir alguém.

Isto permanecerá verdadeiro mesmo que as capacidades crescentes da IA ​​permitam aos desenvolvedores fazer com que esses sistemas pareçam mais inteligentes, semelhantes aos humanos e amigáveis. Torna-se mais importante para os programadores, programadores, decisores políticos e comunicadores desmistificar o comportamento da IA ​​e rejeitar resultados antiéticos. A clareza é fundamental, tanto para prevenir abusos quanto para realmente fundamentar a compreensão, não o medo.

Toda tecnologia transformadora é de dupla utilização. Um martelo pode cravar um prego ou ferir uma pessoa. A energia nuclear pode abastecer milhões de pessoas ou ameaçar destruí-las. A IA pode suavizar o tráfego, acelerar o atendimento ao cliente, realizar pesquisas fantásticas na velocidade da luz ou ser usada para expandir informações caóticas, aprofundar a desigualdade e desestabilizar a segurança. A tarefa não é perguntar-se se a IA pode reagir, mas garantir que a humanidade não a ensine. É nossa escolha integrá-lo, controlá-lo e focar no bem comum.

Mehdi Paravi é seu presidente e CEO Autoridade Internacional de Data Centers (IDCA)O principal consórcio dos principais think tanks e formuladores de políticas de economia digital do mundo, investidores e desenvolvedores em IA, data center e computação em nuvem.

A IA realmente volta? O que os testes AGI da Anthropic revelam sobre regulamentação e risco



Link da fonte

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *