Um vídeo Dipfek do primeiro -ministro australiano Antony Albaniz em um smartphone

Australian Associated Press/Alami

Um detector Universal Dipfek ainda alcançou a melhor precisão na identificação de vários tipos de vídeos manipulados ou totalmente produzidos pela inteligência artificial. A tecnologia pode ajudar a sinalizar pornografia não compatível com A-i-Exposed, Dipfek Scandal ou Information Vídeos de Informações Incorretas de Seleção.

A ampla disponibilidade de ferramentas baratas de fabricação de DiPFeck movidas a IA aprimora ainda mais a propagação on-line não controlada de vídeos sintéticos. Muitas retratam mulheres, incluindo celebridades e até estudantes escolares, em pornografia descoberta. E Dipfkes também foram usados para influenciar as eleições políticas, bem como aumentar o escândalo financeiro por clientes em geral e executivos da organização.

No entanto, a maioria dos modelos de IA é treinada para detectar o foco em vídeo sintético nos rostos – o que significa que eles são mais eficazes na identificação de um certo tipo de Dipfke, onde o rosto de uma verdadeira pessoa é transformado em um vídeo existente. “Precisamos de um modelo que possa detectar vídeos manipulados para o rosto, bem como vídeos manipulados ou totalmente expostos de fundo”, ” Rohit Kundu Na Universidade da Califórnia, Riverside. “Nosso modelo aborda essa preocupação – assumimos que todo o vídeo pode ser gerado sinteticamente”.

Kundu e seus colegas treinaram seu detector universal dirigido por IA para monitorar vários elementos de fundo do vídeo, bem como rostos humanos. Ele pode identificar sintomas sutis de inconsistências espaciais e temporárias nos Dipfkes. Como resultado, ele pode identificar os termos de iluminação inconsistente em pessoas que selecionaram artificialmente vídeos presenciais, os detalhes de fundo dos vídeos gerenciados pela AI e até os vídeos sintéticos que não contêm rostos humanos em rostos humanos que não contêm rostos humanos. Os detectores também sinalizam as cenas de rostos realistas, como Grand Theft Auto V, como o Grand Theft Auto V, que não é necessariamente produzido pela IA.

“A maioria dos métodos existentes gerencia os vídeos de rosto expostos a A como, como um vídeo ou reconstrução facial de face-the-face, que se soluciona, que torna um rosto vivo de uma única imagem”. Cui Lau Na Universidade de Buffalo, Nova York. “Este método tem uma ampla gama de aplicabilidade”.

O detector universal alcançou 95 % a 99 % de precisão para detectar quatro vídeos de teste associados a DIPFKEs manipulados pelo rosto. Isso é melhor do que todos os outros métodos publicados para esse tipo de identificação do DipFeck. Ao observar todos os vídeos sintéticos, era mais preciso do que qualquer outro detector para avaliá -lo até agora. Pesquisadores Apresentar seu trabalho 2025 IEEE/Conferência sobre a visão computacional de Nashville e a recitação de padrões de Nashville em 15 de junho.

Vários pesquisadores do Google também participaram do desenvolvimento de novos detectores. Esse método de detecção não respondeu à pergunta do Google sobre se poderia ajudar a detectar Dipfkes em plataformas como o YouTube. No entanto, as empresas suportam um equipamento de marca d’água que as torna mais fáceis de detectar o conteúdo produzido por seus sistemas de IA.

Os detectores universais também podem ser desenvolvidos no futuro. Por exemplo, seria útil se pudesse detectar DIPFECs implantadas durante chamadas de videoconferência ao vivo, uma técnica que já começou a usar algum scammer.

“Como você sabe que a pessoa do outro lado é pura, ou é um vídeo gerado por Dipfek, e o vídeo pode ser determinado mesmo depois de viajar em uma rede, e os recursos da rede são afetados pela largura de banda?” Dizer Amit Roy-Choduri Na Universidade da Califórnia, Riverside. “Este está em nosso laboratório, olhamos para o outro lado” “

Assunto:

Link da fonte