Três dias depois O governo Trump emitiu um plano de ação de IA altamente esperado, e o governo chinês apresentou seu próprio plano de política de IA. A coincidência do momento foi? Duvido.

O “Plano Global de Ação de Governança da AI” da China foi publicado em 26 de julho, o primeiro dia da Conferência Mundial de Inteligência Artificial (WAIC), o maior evento anual de IA da China. Geoffrey Hinton e Eric Schmidt estavam entre as figuras de muitas indústrias de tecnologia ocidental que participavam dos festivais em Xangai. Nosso colega com fio Will Knight também estava no local.

Vibe em Waic foi o primeiro dos EUA de Trump, a visão leve do arranjo para a IA, Will me diz que Will me diz. Em seu discurso de abertura, o primeiro -ministro chinês Li Qiang entrou com uma ação sóbria pela importância da cooperação global na IA. Foi seguido por uma série dos principais pesquisadores chineses de IA que fizeram negociações técnicas que enfatizavam as questões de emergência do governo Trump.

Zhou Bowen, líder do Laboratório de Xangai AI, uma das melhores instituições de pesquisa de IA da China, iniciou o trabalho de sua equipe sobre a segurança da IA em WAIC. A autoridade sugeriu que o governo pudesse desempenhar um papel no monitoramento dos modelos comerciais de IA para déficits de segurança.

Em uma entrevista à Wired, Yi Zeng, professor da Academia Chinesa de Ciências, e uma das principais vozes do país na IA, disse que organizações de segurança de IA de todo o mundo encontrariam maneiras de cooperar. “Seria melhor conhecer o Reino Unido, EUA, China, Cingapura e outros institutos”, disse ele.

A conferência também incluiu reuniões de portas fechadas sobre questões de política de segurança da IA. Falando depois de ingressar em essa configuração, Paul Triolo, sócio de sua empresa de consultoria DGA-Albright Stonebridge Group, disse que a Wired foi produtiva à Wired. Triololo, em sua declaração a Wired, os EUA fora da fotografia, China, Cingapura, Inglaterra e a Coalizão da UE dos grandes players de segurança da IA, agora criarão esforços para construir trilhos ao redor do desenvolvimento do modelo de fronteira. Autorizado, ele acrescentou que não há apenas o governo dos EUA: todos os grandes EUA.

Muitos visitantes ocidentais ficaram surpresos ao descobrir quanto da conversa sobre IA na China girou em torno dos acordos de segurança. Brian Tse, fundador da Concordia AI, o Instituto de Pesquisa de Segurança de AI baseado em Pequim, disse: “Você pode literalmente participar de atividades de segurança de IA nos últimos sete dias. E esse não foi o caso em algumas das outras cúpulas globais da IA”. No início desta semana, ele organizou um fórum de segurança de um dia em Xangai com pesquisadores famosos de IA como Concordia AI, Stuart Russel e Yoshua Bengo.

Locais de comutação

Quando o plano de IA da China é comparado ao plano de ação de Trump, parece que os dois países mudaram de posição. Quando as empresas chinesas começaram a desenvolver modelos avançados de IA, muitos observadores pensaram que seriam mantidos de volta com a necessidade de censura trazida pelo governo. Agora, os líderes dos EUA dizem que, como escreveu meu colega Steven Levy na semana passada, eles querem “seguir a verdade objetiva” dos modelos de IA do anfitrião. Canal traseiro O Boletim é um exercício aberto de preconceito ideológico de cima para baixo ”. Enquanto isso, o plano de ação da AI da China parece como um manifesto globalista: propõe pioneiros nos esforços internacionais das Nações Unidas e propõe que os governos desempenhem um papel importante na regulação da tecnologia.

Embora seus governos sejam muito diferentes, quando se trata de segurança artificial de inteligência, as pessoas na China e nos Estados Unidos estão preocupados com muitas das mesmas coisas: modelas alucinações, discriminação, riscos existenciais, déficits de segurança cibernética, etc. Os Estados Unidos e a China dizem que eles também usaram a mesma arquitetura e os efeitos sociais e as mesmas influências sociais e emergidas da mesma maneira ”. dos padrões de teste de segurança que podem operar juntos, o que significa que a pesquisa acadêmica sobre segurança da IA em dois países é combinada.

Link da fonte