A ex-liderança de pesquisa em IA de Ken Koher está apostando contra a corrida em escala
Laboratórios de IA estão correndo para construir data centers Tão grande quanto Manhattan, Cada uma custa bilhões de dólares e consome tanta energia quanto uma pequena cidade. O esforço é impulsionado por uma profunda crença na “escalação” – a ideia de que adicionar mais poder computacional aos métodos de treinamento de IA existentes acabará por criar sistemas superinteligentes capazes de realizar todos os tipos de tarefas.
Mas um coro crescente de investigadores de IA afirma que a escala de grandes modelos de linguagem atingiu os seus limites e que podem ser necessários outros avanços para melhorar o desempenho da IA.
Essa é a aposta que Sarah Hooker, ex-vice-presidente de pesquisa de IA de Koher e ex-aluna do Google Brain, está fazendo com sua nova startup. Laboratórios de Adaptação. Ele foi cofundador da empresa com o colega Kohre e o veterano do Google Sudeep Roy, e ela se baseia na ideia de que dimensionar o LLM se tornou uma forma ineficiente de extrair mais desempenho dos modelos de IA. Hooker, que deixou Kohr em agosto, anunciou calmamente A startup começará a contratar de forma mais ampla este mês.
Em entrevista ao TechCrunch, Hooker disse que o Adaptation Labs está construindo sistemas de IA que podem se adaptar e aprender continuamente com suas experiências do mundo real, e fazê-lo de forma muito eficiente. Ele se recusou a compartilhar detalhes sobre os métodos por trás da abordagem ou se a organização depende do LLM ou de outra arquitetura.
“Há agora um ponto de viragem em que está muito claro que a fórmula para dimensionar estes modelos – a abordagem escalonada, que é interessante mas muito aborrecida – não produziu inteligência capaz de navegar ou interagir com o mundo”, disse Hooker.
A adaptação é “o coração da aprendizagem”, segundo Hooker. Por exemplo, dê uma topada com o dedo do pé ao passar pela mesa da sala de jantar e você aprenderá a contorná-la com mais cuidado na próxima vez. Os laboratórios de IA tentaram capturar esse conceito por meio do aprendizado por reforço (RL), que permite que os modelos de IA aprendam com seus erros em ambientes controlados. No entanto, os métodos RL atuais não ajudam os modelos de IA em produção – ou seja, sistemas já em uso pelos clientes – a aprender com os seus erros em tempo real. Eles simplesmente continuam batendo os dedos dos pés.
Alguns laboratórios de IA oferecem serviços de consultoria para ajudar as empresas a ajustar seus modelos de IA de acordo com suas necessidades personalizadas, mas isso tem um preço. Sabe-se que os clientes da OpenAI precisam Custou mais de US$ 10 milhões Prestar serviços de consultoria de afinação com a empresa.
Evento TechCrunch
São Francisco
|
27 a 29 de outubro de 2025
“Temos alguns laboratórios de fronteira que definem esse conjunto de modelos de IA que atendem a todos da mesma forma e são muito caros para se adaptar”, disse Hooker. “E, na verdade, acho que isso não precisa mais ser verdade, e os sistemas de IA podem aprender com um ambiente de maneira muito eficiente. Provar que a IA pode controlá-lo e moldá-lo mudará completamente a dinâmica e, realmente, a quem esses modelos servem no final do dia.”
Adoption Labs é o mais recente sinal de que a fé da indústria na expansão do LL.M. está corroendo. Um artigo recente de pesquisadores do MIT encontrou o maior modelo de IA do mundo Pode apresentar retornos decrescentes em breve. As vibrações de São Francisco também parecem estar mudando. O podcaster favorito do mundo da IA, Dwarkesh Patel, recentemente organizou algumas conversas incomumente duvidosas com pesquisadores famosos de IA.
Richard Sutton, vencedor do Prêmio Turing considerado o “pai da RL”, disse a Patel em setembro que LLM não pode realmente escalar Porque eles não aprendem com a experiência do mundo real. Este mês, Andrej Karpathi, antigo funcionário da OpenAI, disse a Patel Houve uma reserva Sobre o potencial de longo prazo da RL para melhorar os modelos de IA.
Tais receios não são inéditos. Ainda em 2024, alguns investigadores de IA expressaram preocupação de que o dimensionamento de modelos de IA através de pré-formação – onde os modelos de IA aprendem padrões a partir de pilhas de conjuntos de dados – estava a obter retornos decrescentes. Até então, o pré-treinamento era o molho secreto para a OpenAI e o Google melhorarem seus modelos.
Essas preocupações de escalonamento pré-treinamento estão agora aparecendo nos dados, mas a indústria de IA encontrou outras maneiras de melhorar os modelos. Em 2025, os avanços em torno dos modelos de raciocínio de IA, que exigem tempo e recursos computacionais adicionais para resolver problemas antes de fornecer respostas, avançaram ainda mais as capacidades dos modelos de IA.
O AI Labs está convencido de que dimensionar modelos de raciocínio de RL e IA é a nova fronteira. Pesquisadores da OpenAI disseram anteriormente ao TechCrunch que construíram seu primeiro modelo lógico de IA, o1, porque pensaram que ele seria bem dimensionado. Recentemente, pesquisadores do Meta and Periodic Labs Dr. publicou um artigo Explorando como a RL pode dimensionar ainda mais o desempenho – relatou um estudo Custando mais de US$ 4 milhões, Quão dispendiosa continua a ser a abordagem actual.
Em contraste, os laboratórios de adaptação pretendem encontrar o próximo avanço e provar que aprender com a experiência pode ser muito mais barato. A startup estava em negociações para levantar uma rodada inicial de US$ 20 milhões a US$ 40 milhões no início deste outono, de acordo com três investidores que revisaram sua apresentação. Dizem que a rodada foi encerrada, embora o valor final não seja claro. Hooker se recusou a comentar.
“Estamos preparados para ser muito ambiciosos”, disse Hooker, quando questionado sobre seus investidores.
Hooker liderou anteriormente o Kohr Labs, onde treinou pequenos modelos de IA para casos de uso corporativo. Os sistemas compactos de IA agora superam rotineiramente seus equivalentes maiores em critérios de codificação, matemática e raciocínio – uma tendência que Hooker deseja continuar.
Ele também construiu uma reputação por expandir o acesso à pesquisa em IA em todo o mundo, recrutando talentos de pesquisa de regiões sub-representadas, como a África. Embora o Adoption Labs abra em breve um escritório em São Francisco, Hooker disse que planeja contratar globalmente.
Se Hooker e Adaptation Labs estiverem certos sobre as limitações do dimensionamento, as implicações podem ser enormes. Bilhões já foram investidos na expansão do LLM, com a suposição de que modelos maiores levarão à inteligência geral. Mas é possível que a aprendizagem verdadeiramente adaptativa possa revelar-se não só mais poderosa – mas também muito mais eficiente.
Marina Temkin contribuiu com reportagens.



