Meta está adicionando recursos de segurança de chatbot de IA para adolescentes

A Meta, empresa controladora do Instagram e do Facebook, planeja lançar novos recursos de segurança para seus chatbots de inteligência artificial (IA) para ajudar a proteger os adolescentes em meio a preocupações crescentes sobre o impacto da tecnologia nos usuários jovens.
A gigante da mídia social anunciou na sexta-feira que adicionará novos controles parentais para chatbots de IA que permitirão aos pais bloquear o acesso de seus filhos adolescentes a bate-papos individuais com personagens de IA e obter informações sobre o que seus filhos estão conversando com os produtos de IA da empresa.
Os novos recursos devem ser lançados no Instagram a partir do início do próximo ano.
“Reconhecemos que os pais já têm muito a fazer quando se trata de navegar com segurança na Internet com seus filhos adolescentes, e estamos comprometidos em fornecer-lhes ferramentas e recursos úteis que tornem as coisas mais fáceis para eles, especialmente quando pensam em novas tecnologias como IA”, escreveram o chefe do Instagram, Adam Mosseri, e o diretor de IA da Meta, Alexander Wang. Postagem no blog.
Os pais poderão bloquear bate-papos com todos os personagens de IA do Meta ou direcionar personagens específicos, observou a empresa. O assistente de IA da empresa permanecerá disponível para adolescentes, mesmo que os personagens de IA estejam desativados.
Meta também destacou sua abordagem PG-13 anunciada recentemente para contas de adolescentes, onde a empresa usará classificações de filmes PG-13 para orientar o conteúdo que os adolescentes assistem por padrão em sua plataforma.
A empresa de tecnologia observa que seus personagens de IA são projetados para não envolver usuários jovens em discussões sobre suicídio, automutilação ou alimentação desordenada, e direcioná-los para recursos, se necessário.
De acordo com Meta, os adolescentes são capazes de interagir com personagens limitados a “tópicos apropriados à idade, como educação, esportes e hobbies – e não romance ou outro conteúdo impróprio”.
A Meta foi criticada no início deste ano, depois que um documento político mostrou exemplos de como seus chatbots de IA poderiam envolver crianças em conversas “românticas ou sensuais”.
A empresa disse na época que os exemplos eram imprecisos e acabaram sendo removidos.
Os chatbots de IA têm enfrentado um escrutínio geral nos últimos meses. A família de um adolescente da Califórnia processou a OpenAI em agosto, acusando ChatGPT de encorajar seu filho a tirar a própria vida.
O pai, Matthew Raine, foi um dos vários pais que testemunhou perante um painel do Senado no mês passado que os chatbots de IA levaram os seus filhos a cometer suicídio ou automutilação, e instou os legisladores a se protegerem contra a nova tecnologia.
Diante dessas preocupações, o governador da Califórnia, Gavin Newsom (D), assinou um projeto de lei no início desta semana exigindo que os desenvolvedores de chatbots criassem protocolos para evitar que seus modelos discutissem suicídio e automutilação com crianças e para lembrá-los repetidamente de que não estão falando com um ser humano.
No entanto, o governador vetou uma medida separada que teria impedido os criadores de disponibilizar os seus produtos às crianças, a menos que pudessem garantir que não se envolveriam em conversas sobre temas prejudiciais. Newsom sugeriu que “restrições mais amplas” “levariam involuntariamente a uma proibição total” do uso de chatbots por crianças.



