Por mais de dois anos, os líderes técnicos que desenvolvem inteligência artificial fizeram um pedido especial dos legisladores. Eles queriam que Washington os regulasse.

Os executivos técnicos alertaram os legisladores que o texto que imita criações humanas e a IA de produção que pode produzir imagens tem o potencial de interferir na segurança e nas eleições nacionais e, eventualmente, remover milhões de empregos.

A IA disse: “Pode estar muito errado”, disse Sam Altman, CEO da Openai, testemunhou pelo Congresso em maio de 2023.

Mas após a eleição do presidente Trump, o líder técnico e a empresa mudaram seu ajuste e, em alguns casos, o governo ousado se tornou a força motriz mais poderosa para desenvolver o produto a um pedido ousado para obter sua interferência.

Nas últimas semanas, a Meta, o Google e a idade aberta declararam o uso legal de dados protegidos por direitos autorais para bloquear a lei nacional da IA ​​e treinar o modelo de IA no governo Trump. Também usamos dados federais para desenvolver tecnologia e lobby para acessar fontes de energia para cálculo de demandas. E eles pediram reduções de impostos, subsídios e outros incentivos.

Trump possibilitou mudar pelo presidente Trump, que declarou que a IA é a arma mais valiosa dos Estados Unidos que supera a China em tecnologia alta.

Em seu primeiro dia, o presidente Trump assinou uma ordem administrativa. Role as regras de teste de segurança para a IA O governo é usado. Dois dias depois, ele assinou outra ordem e pediu uma proposta do setor para criar uma política de que “uma política de manter e melhorar o domínio global da IA ​​nos Estados Unidos”.

Laura Caroli, pesquisadora sênior do Wadwani AI Center do tanque não -lucrativo e do Centro de Pesquisa Internacional, disse: “A empresa de tecnologia foi realmente ousada pelo governo Trump, e até problemas como a segurança e a IA responsável desapareceram completamente da preocupação”.

Muitos especialistas em políticas de IA temem que esse crescimento potencial possa ser acompanhado pela rápida disseminação de informações políticas e de saúde, entre outros problemas em potencial. Discriminação por lavadores de finanças, ocupacionais e habitantes automatizados; E ataque cibernético.

A reversão do líder técnico é rigoroso. Em setembro de 2023, mais de 12 pessoas aprovaram os regulamentos de IA no cume do Partido Democrata de Nova York, Chuck Schumer e muitos líderes na época. Na reunião, Elon Musk alertou sobre o “risco de civilização” levantado pela IA.

Após, o governo Biden trabalhou com a maior empresa de IA para testar voluntariamente o sistema para fraquezas de segurança e segurança e exigiu os padrões de segurança do governo. No mesmo estado da Califórnia, introduzimos uma lei para regular a tecnologia com padrões de segurança. Editores, autor e atores processaram uma empresa de tecnologia pelo uso de dados de direitos autorais para treinar o modelo de IA.

(O New York Times acusou o OpenAi e seu parceiro Microsoft por acusar a violação de direitos autorais em notícias relacionadas ao sistema de IA. OpenAI e Microsoft negaram essa reivindicação.)

Mas depois que Trump venceu a eleição em novembro, empresas e líderes de tecnologia imediatamente fortaleceram o saguão. Google, Meta e Microsoft doaram um milhão de dólares para a inauguração de Trump, como Altman e Tim Cook, da Apple, respectivamente. Mark Zuckerberg, da Meta, realizou uma festa de inauguração e conheceu Trump várias vezes. Musk, dono de sua empresa de IA, Xai, passou quase todos os dias pelo presidente.

O presidente Trump recebeu as apresentações da IA, incluindo planos para Openai, Oracle e Softbank. O anúncio da IA, que pode investir US $ 100 bilhões em data centers de IA, é um enorme edifício cheio de servidores que fornecem poder de computação.

O vice -presidente da JD Vance disse aos funcionários do governo e líderes técnicos na semana passada: “Estamos apoiados contra o futuro com otimismo e esperança.

Na cúpula da IA ​​realizada em Paris no mês passado, Vance também exigiu uma política de IA de “crescimento profissional” e alertou os líderes mundiais sobre “regulamentos excessivos” de “regulamentação excessiva” que podem matar indústrias inovadoras ao decolar.

As outras empresas, que são afetadas por empresas de tecnologia e IA, agora forneceram a segunda ordem administrativa da IA ​​do presidente e desenvolveram a política de IA dentro de 180 dias “eliminando barreiras à liderança americana da inteligência artificial”. Centenas de pessoas enviaram opiniões ao escritório da National Science Foundation and Science and Technology Policy, que afetou a política.

O OpenAI enviou 15 páginas de opiniões e pediu ao governo federal que não criasse leis de IA. Sediada em São Francisco, a empresa também causou a Deepseek, um chatbot chinês contribuiu para alguns dos custos do chatbot de desenvolvimento dos EUA e disse que era “essa competição”.

O Openai disse que os desenvolvedores chineses disseram: “Se o acesso aos dados for eliminado e a empresa dos EUA não for usada de maneira justa, a competição de IA terminará efetivamente”.

Muitas empresas de tecnologia também argumentaram que o uso de obras protegidas por direitos autorais para treinar o modelo de IA é legal e o governo deve ter seu próprio lado. Openai, Google e Meta acreditavam que poderiam abordar legalmente trabalhos com direitos autorais como livros, filmes e artes para treinamento.

O Meta, que possui seu próprio modelo de IA chamado LLAMA, emitiu ordens administrativas ou outras medidas da Casa Branca, dizendo: “Forçamos ordens administrativas ou outras medidas para esclarecer que ele usa claramente os dados publicamente disponíveis no modelo de trem.

Google, Meta, OpenAI e Microsoft dizem que as informações com dados protegidos por direitos autorais são modificados no processo de treinamento do modelo e são legais porque não são usados ​​para replicar a propriedade intelectual do detentor dos direitos. Atores, escritores, músicos e editores insistiram que uma empresa de tecnologia deveria compensar e usar seu trabalho.

Algumas empresas técnicas também fizeram lobby no governo Trump para aprovar a IA “código aberto”, que copia, modifica e reutiliza os códigos de computador.

A Meta, proprietária do Facebook, Instagram e WhatsApp, fez o seu melhor pela recomendação de políticas para o fornecimento aberto, que outras empresas de IA, como o Antrópico, aumentaram a vulnerabilidade dos riscos de segurança. A Meta disse que a tecnologia de código aberto pode acelerar o desenvolvimento da IA ​​e iniciar mais empresas existentes.

Andreessen Horowitz, uma empresa de capital do Vale do Vale do Silício, pediu o apoio de um modelo de código aberto com dezenas de novas empresas de IA, e muitas empresas dependem da criação de produtos de IA.

Andreessen Horowitz fez uma reivindicação máxima de novos regulamentos sobre as leis existentes sobre segurança, proteção do consumidor e direitos civis, informou a empresa.

Andresen Horowitz disse: “Os danos são proibidos e punidos maus atores, mas os desenvolvedores não precisam ir além do cambaleio regulatório, dependendo do medo especulativo”.

Outros continuaram a alertar que a IA deveria ser regulamentada. Grupos de direitos civis exigiram uma auditoria do sistema para que não discriminem populações vulneráveis ​​em decisões de moradia e emprego.

Artistas e editores disseram que as empresas de IA deveriam divulgar o uso de dados de direitos autorais, e a Casa Branca solicitou que o setor de tecnologia se recusasse a usar a propriedade intelectual para treinar o modelo. O IA Policy Center, um think tank e um grupo de lobby, exigiu uma auditoria de terceiros para um sistema de vulnerabilidade de segurança nacional.

“Em outras indústrias, se o produto prejudicar o consumidor ou prejudicá -lo negativamente, o projeto está com defeito e o mesmo padrão deve ser aplicado à IA.

Link da fonte