As propriedades usam IA para lutar contra Sora e impedi-los de abusar de Sora.

Faz menos de um mês desde que a OpenAI lançou seu mais recente modelo de geração de vídeo de IA, Sora 2, e problemas decorrentes de personagens protegidos por direitos autorais e representações hiper-realistas de figuras públicas da vida real surgiram mais rápido do que as pessoas conseguem impedi-los.
Na manhã de sexta-feira, 17 de outubro, OpenAI Emitiu conjuntamente uma declaração O espólio de Martin Luther King Jr. disse que “pausou” Zora e criou o Dr. King depois que os usuários “retrataram a imagem do Dr. King de maneira desrespeitosa” e que isso fortaleceria as “proteções” para figuras históricas. Só podemos imaginar que tipo de coisas ruins devem estar por aí antes que a OpenAI entre em ação.
Na sua declaração, a OpenAI acredita que ainda existem “fortes interesses discursivos” na representação de figuras históricas. Vimos um vídeo onde Sora disse que sonhou que o Dr. King poderia um dia fazer com que “aquela luz” parasse de piscar acima de sua cama, então sim, ligue para os advogados da Primeira Emenda. A OpenAI também adere ao conceito de que representantes ou proprietários “podem solicitar que sua imagem não seja usada em participações especiais de Sora”.
Como já perguntamos a muitos advogados antes, não existe recurso de cancelamento Qualquer Um tipo de direito legal funciona. Toda figura pública que não quer que sua imagem seja retratada – especialmente os mortos – precisa Diga-me É surpreendente que a OpenAI pare antes de cumprir. E isso não significa que a OpenAI ainda não tenha treinado Sora sobre a aparência dessa persona pública e, teoricamente, você não pode criar essa persona.
Mas os problemas de IA não desapareceram. Alguém fez um vídeo do Sora no tempo que você leva para ler estes últimos parágrafos. Assim, proprietários de propriedades e franquias começaram a combater fogo com fogo.
No início desta semana, a empresa de gestão de talentos CMG Worldwide fez parceria com uma empresa de inteligência artificial chamada Loti AI, que usa IA para detectar conteúdo abusivo e remoções, e a empresa trabalha com figuras públicas e indivíduos comuns. O padrão da empresa afirma que é 95% eficaz na detecção de vídeos, imagens ou áudio gerados por IA e sua remoção em um dia.
Embora esteja disponível para outros clientes da CMG, até agora apenas alguns clientes concordaram em receber a proteção antecipadamente. Ele administrará os direitos e uma pequena lista de figuras públicas falecidas que já receberam essas proteções incluem: Burt Reynolds, Christopher Reeve, Ginger Rogers, Harry Belafonte, Jimmy Stewart, John Wayne, Judy Garland, Mickey Rooney, Raquel Welch, Andre the Giant, Joe Louis Margie, Joe Louis, Macho Man Rowdy, Robinson, David Ruffin, Albert Einstein, General George Patton, Mark Twain, Neil Armstrong e Rosa Parks.
Luke Arrigoni, CEO da Loti AI, disse ao IndieWire que não passou despercebido para eles que estão usando IA para combater a IA. Mas seus modelos são treinados sem a necessidade de construir modelos completos sobre todos os ativos individuais de um indivíduo. A empresa usa ferramentas de reconhecimento de voz e facial para detectar conteúdo explícito, deepfakes, imitadores, endossos falsos e coisas não criadas por IA.
Embora seja difícil para outras empresas especializadas em detecção de deepfake considerarem como os vídeos Sora vivem agora, Arrigoni diz que as ferramentas de reconhecimento facial usadas por Lodi tornam mais fácil encontrar novos vídeos, mesmo que eles cheguem mais rápido.
“É difícil jogar o golpe no nível em que Sora está criando problemas, a menos que você basicamente construa um sistema como o nosso, que automatize as quedas, automatize o processo de descoberta”, disse Arigoni. “Achávamos que o mundo estava seguindo assim e, há cerca de um ano, começamos a construir ferramentas para ajudar figuras públicas, propriedades póstumas e detentores de propriedade intelectual a administrar este momento com mais facilidade.

Isso pode ser do interesse de Zelda Williams, que implorou às pessoas que parassem de enviar vídeos de IA de seu falecido pai, Robin Williams, dizendo: “É idiota, é uma perda de tempo e energia e, acredite, não era isso que ele queria”.
“Ver o legado de pessoas reais sendo reduzido a ‘apenas parecer e soar assim vagamente’ pode desencadear um tapa cruel no TikTok de outras pessoas, e é enlouquecedor zombar delas”, escreveu ele em um comunicado no Instagram. “Você não faz arte, você transforma a vida das pessoas e a história da arte e da música em gatas desagradáveis e superprocessadas, e depois as enfia na garganta de outra pessoa, esperando que elas lhe dêem um pequeno sinal de positivo e gostem. Nojento.”
Arrigoni diz que Hollywood está recorrendo a serviços de segurança de IA como o dele, atendendo ligações de grandes agências e detentores de direitos. Ele abordou as coisas com cautela, mas com otimismo, para ver como eles podem colaborar com gigantes da tecnologia como OpenAI e Google. Embora tenha uma visão positiva de que a indústria tecnológica irá estabelecer as regras de que necessita, a OpenAI precisa de repensar a sua estratégia de desligamento se quiser jogar a bola.
“A escolha é a única coisa. Nem deveria ser chamada de coisa. Se você quiser participar, existe um mecanismo seguro para garantir que todos possam embarcar, e esse é realmente você, e não alguém trapaceando o sistema Sora”, disse Arigoni. “A reserva não é uma boa estratégia. Optar por sair significa que, sem culpa de Sora, as pessoas vão abusar desses sistemas, a menos que possam participar e ter uma palavra a dizer. Estas são as regras que tenho para a minha aparência.”