Silicon Valley assusta defensores da segurança da IA

Os líderes do Vale do Silício, incluindo a IA da Casa Branca e o czar da criptografia, David Sachs, e o diretor de estratégia da OpenAI, Jason Kwon, causaram agitação online esta semana por seus comentários sobre grupos que promovem a segurança da IA. Em casos separados, alegaram que alguns proponentes da protecção da IA não são tão virtuosos como parecem e estão a agir no seu próprio interesse ou nos bastidores no interesse de mestres de marionetas bilionários.
Grupos de proteção de IA que conversaram com o TechCrunch dizem que as alegações da Sachs e da OpenAI são a mais recente tentativa do Vale do Silício de intimidar seus críticos, mas certamente não a primeira. Em 2024, algumas empresas de capital de risco espalharam rumores de que o projeto de lei de proteção à IA da Califórnia, SB 1047, enviaria os fundadores de startups para a prisão. A Brookings Institution identificou o boato como um dos muitos “Deturpação” sobre o projeto, mas o governador Gavin Newsom acabou vetando-o de qualquer maneira.
Quer Sacks e OpenAI pretendessem intimidar os críticos ou não, suas ações assustaram alguns defensores da segurança de IA. Vários líderes de organizações sem fins lucrativos contatados pelo TechCrunch na semana passada pediram para falar sob condição de anonimato para proteger seus grupos de retaliações.
O debate sublinha a crescente tensão em Silicon Valley entre construir IA de forma responsável e transformá-la num produto de consumo de massa – um tema que os meus colegas Kirsten Korosek, Anthony Ha e eu desvendamos esta semana. equidade Podcast Também nos aprofundamos em uma nova lei de proteção de IA aprovada na Califórnia para regular os chatbots e a abordagem da OpenAI ao erotismo no ChatGPT.
Sachs escreveu na terça-feira, um Postado em X Alegação de que a antropologia – que é levantar preocupações Sobre a capacidade da IA de contribuir para o desemprego, ataques cibernéticos e danos catastróficos à sociedade – apenas temendo a aprovação de leis que irão beneficiá-los e afogar pequenas startups no papel. A Anthropic foi o único grande laboratório de IA a endossar o Projeto de Lei 53 do Senado da Califórnia (SB 53), um projeto de lei que exige requisitos de relatórios de segurança para grandes empresas de IA, que foi sancionado no mês passado.
O saco foi uma resposta Ensaio Viral Do cofundador da Anthropologie, Jack Clark, sobre seus medos em relação à IA. Clark fez o ensaio como discurso de abertura na conferência de segurança Curve AI em Berkeley, há uma semana. Sentado na plateia, deve ter parecido um relato genuíno das reservas dos tecnólogos em relação ao seu produto, mas Sachs não via as coisas dessa forma.
Sachs disse que a Anthropic está executando uma “estratégia sofisticada de captura regulatória”, embora seja importante notar que uma estratégia verdadeiramente sofisticada provavelmente não criaria inimigos fora do governo federal. UM Postagem de acompanhamento no X, Sachs observou que a Anthropic “se posicionou consistentemente como inimiga da administração Trump”.
Evento TechCrunch
São Francisco
|
27 a 29 de outubro de 2025
Também esta semana, o diretor de estratégia da OpenAI, Jason Kwon, escreveu um Postado em X Explica por que a empresa está enviando intimações para organizações sem fins lucrativos de segurança de IA, como a Encode, uma organização sem fins lucrativos que defende políticas responsáveis de IA. (Uma intimação é uma ordem legal que exige documentos ou provas.) Kwon disse que depois que Elon Musk processou a OpenAI – devido a preocupações de que o fabricante do ChatGPT tivesse se desviado de sua missão sem fins lucrativos – a OpenAI achou suspeito a forma como várias empresas se opuseram à sua reestruturação. A Encode entrou com um pedido de amicus brief em apoio ao processo de Musk, e outras organizações sem fins lucrativos se manifestaram publicamente contra a reestruturação da OpenAI.
“Isso levanta questões de transparência sobre quem os financia e se houve alguma coordenação”, disse Kwon.
A NBC News informou esta semana que a OpenAI enviou extensas intimações para Encode e As outras seis são sem fins lucrativos Isso criticou a empresa, solicitando suas comunicações com dois dos maiores oponentes da OpenAI, Musk e o CEO da Meta, Mark Zuckerberg. A OpenAI também solicitou à Encode comunicação sobre suporte para SB 53.
Um importante líder de segurança de IA disse ao TechCrunch que há uma divisão crescente entre a equipe de assuntos governamentais da OpenAI e sua organização de pesquisa. Os pesquisadores de segurança da OpenAI publicam frequentemente relatórios expondo os riscos dos sistemas de IA, a unidade política da OpenAI fez lobby contra o SB 53, dizendo que teria regulamentações uniformes em nível federal.
O chefe de alinhamento de missão da OpenAI, Joshua Achiam, fala sobre sua empresa enviando intimações para organizações sem fins lucrativos Postado em X essa semana
“Talvez arriscando toda a minha carreira, eu diria: não parece ótimo”, disse Achiam.
Brendan Steinhauser, CEO da organização sem fins lucrativos de segurança de IA Alliance for Secure AI (que não foi intimada pela OpenAI), disse ao TechCrunch que a OpenAI está convencida de que seus críticos fazem parte de uma conspiração liderada por Musk. No entanto, ele argumenta que este não é o caso, e grande parte da comunidade de segurança de IA é bastante crítica em relação às práticas de segurança da xAI, ou à falta delas.
“Da parte da OpenAI, isso serve para silenciar os críticos, intimidá-los e desencorajar outras organizações sem fins lucrativos de fazerem o mesmo”, disse Steinhauser. “Quanto a Basta, acho que ele está preocupado com o crescimento do movimento (de proteção à IA) e com as pessoas querendo responsabilizar essas empresas.”
Sriram Krishnan, conselheiro político sênior da Casa Branca para IA e ex-sócio geral da a16z, iniciou uma conversa esta semana. Postagens em mídias sociais Por si só, os defensores da segurança da IA estão fora de alcance. Ele instou as empresas de segurança de IA a “conversar com pessoas no mundo real que usam, vendem e adotam IA em suas casas e organizações”.
Uma pesquisa recente da Pew descobriu que quase metade dos americanos Mais ansioso do que animado Sobre a IA, mas não está claro o que exatamente os preocupa. Outra pesquisa recente foi mais detalhada e descobriu que os eleitores americanos se preocupam mais Perda de emprego e deepfakes Em vez dos riscos catastróficos representados pela IA, que é o foco principal do movimento de segurança da IA.
A resolução dessas preocupações de segurança pode ocorrer às custas do rápido crescimento da indústria de IA – uma compensação que preocupa muitos no Vale do Silício. Com o investimento em IA a impulsionar grande parte da economia dos Estados Unidos, os receios de uma regulamentação excessiva são compreensíveis.
Mas depois de anos de progresso desenfreado da IA, o movimento de segurança da IA parece estar a ganhar um verdadeiro impulso em direção a 2026. Os esforços do Vale do Silício para combater grupos focados na segurança podem ser um sinal de que estão a funcionar.