Você já deve ter ouvido falar da teoria da simulação, o conceito de que nada é real e de que todos fazemos parte de um programa de computador gigante. Vamos pelo menos assumir ao longo desta postagem do blog que essa visão não é verdadeira. No entanto, podemos estar a caminhar para um futuro em que muito do que vemos, ouvimos e lemos sejam simulações geradas por computador. Mantemos a realidade na FTC, mas o que acontece quando nenhum de nós consegue perceber a diferença?
Num post recente no blog, discutimos como o termo “IA” pode ser usado como um argumento de venda enganoso para novos produtos e serviços. Vamos chamá-lo assim IA falsa problema. O tópico de hoje é o uso de IA por trás da tela para criar ou espalhar enganos. Vamos chamar isso IA falsa problema. Esta última é uma ameaça emergente e mais profunda que as empresas do ecossistema digital precisam de enfrentar. Atualmente.
A maioria de nós passa muito tempo olhando as coisas em nossos dispositivos. Graças às ferramentas de IA que criam “mídia sintética” ou geração de conteúdo, uma percentagem cada vez maior do que vemos não é autêntico e é cada vez mais difícil perceber a diferença. E à medida que essas ferramentas de IA se tornam mais avançadas, elas também se tornam mais fáceis de acessar e usar. Algumas dessas ferramentas podem ter usos úteis, mas os golpistas também podem usá-las para causar danos generalizados.
IA criativa e mídia sintética são termos coloquiais que se referem a chatbots desenvolvidos a partir de grandes modelos de linguagem e tecnologias que simulam atividades humanas, como deepfake e software de criação de vídeo clonado. Há evidências de que os golpistas podem usar essas ferramentas para criar, de forma rápida e barata, conteúdo realista, mas falso, divulgá-lo para grandes grupos ou atingir alguma comunidade ou indivíduo específico. Eles podem usar chatbots para criar e-mails de phishing, site falsopostagens falsas, perfis falsos e avaliações falsas de consumidores ou para ajudar a criar malware, ransomware e ataque de reforço. Eles podem usar deepfakes e clonagem de voz para facilitar fraudes por imitadores, chantageme fraude financeira. E essa é realmente uma lista incompleta.
A proibição da Lei FTC sobre práticas enganosas ou injustas pode ser aplicada se você fabricar, vender ou usar um instrumento que seja efetivamente projetado para enganar – mesmo que esse não seja o propósito pretendido ou exclusivo dessa ferramenta. Então considere:
Você deveria fabricá-lo ou vendê-lo? Se você desenvolver ou fornecer uma mídia sintética ou um produto de IA sintética, considere na fase de design e, em seguida, as maneiras razoavelmente previsíveis – e muitas vezes óbvias – pelas quais ela pode ser usada indevidamente para cometer fraudes ou causar outros danos. Em seguida, pergunte-se se esses riscos são altos o suficiente para que você não deva oferecer aquele produto. Tornou-se um meme, mas aqui parafrasearemos o Dr. Ian Malcolm, o personagem de Jeff Goldblum em “Jurassic Park”, que repreendeu os executivos por estarem muito preocupados em saber se eles talvez construir algo em que não param para pensar se deve.
Você está efetivamente minimizando o risco? Se você decidir fabricar ou fornecer tal produto, tome todas as precauções razoáveis antes chega ao mercado. A FTC processou empresas que divulgam tecnologias potencialmente prejudiciais sem tomar medidas razoáveis para prevenir lesões aos consumidores. Simplesmente alertar seus clientes sobre uso indevido ou exigir que divulguem informações não é suficiente para impedir maus atores. Suas medidas de prevenção devem ser recursos integrados e persistentes, e não correções de bugs ou recursos opcionais que terceiros podem enfraquecer por meio de modificação ou remoção. Se a sua ferramenta se destina a ajudar as pessoas, pergunte-se se ela realmente precisa simular um ser humano ou apenas ser capaz de olhar, falar, falar ou agir de forma eficaz como um robô.
Você depende muito da descoberta pós-lançamento? Os pesquisadores continuam a melhorar os métodos de detecção de vídeos, imagens e sons gerados por IA. Reconhecer texto gerado por IA é mais difícil. Mas esses pesquisadores estão em uma corrida armamentista com empresas que desenvolvem ferramentas sintéticas de IA, e os golpistas que usam essas ferramentas geralmente vão embora quando alguém descobre o conteúdo falso. Independentemente disso, não deve recair sobre os consumidores o ónus de descobrir se uma ferramenta sintética de IA está a ser utilizada para os fraudar.
Você está enganando as pessoas sobre o que elas estão vendo, ouvindo ou lendo? Se você é um anunciante, talvez queira usar algumas dessas ferramentas para vender praticamente qualquer coisa. Por exemplo, deepfakes de celebridades se tornaram populares e aparecem em propagandas. Já alertámos anteriormente as empresas que enganar os consumidores através de doppelgängers, como perfis de encontros falsos, seguidores falsos, deepfakes ou chatbots, pode levar a – e de facto resultar – em ações de fiscalização da FTC.
Embora o foco desta postagem seja a fraude e o engano, essas novas ferramentas de IA trazem consigo uma série de outras preocupações sérias, como danos potenciais a crianças, adolescentes e outras populações que correm risco ao interagir ou usar essas ferramentas. Os funcionários da Comissão estão a acompanhar de perto estas preocupações, à medida que as empresas continuam a lançar estes produtos no mercado e à medida que a interacção humano-computador continua a tomar rumos novos e potencialmente perigosos.
Mais artigos na FTC‘S IA e seu negócio série: