Meta está adicionando recursos de segurança de chatbot de IA para adolescentes

A Meta, empresa controladora do Instagram e do Facebook, planeja lançar novos recursos de segurança para seus chatbots de inteligência artificial (IA) para ajudar a proteger os adolescentes em meio a preocupações crescentes sobre o impacto da tecnologia nos usuários jovens.

A gigante da mídia social anunciou na sexta-feira que adicionará novos controles parentais para chatbots de IA que permitirão aos pais bloquear o acesso de seus filhos adolescentes a bate-papos individuais com personagens de IA e obter informações sobre o que seus filhos estão conversando com os produtos de IA da empresa.

Os novos recursos devem ser lançados no Instagram a partir do início do próximo ano.

“Reconhecemos que os pais já têm muito a fazer quando se trata de navegar com segurança na Internet com seus filhos adolescentes, e estamos comprometidos em fornecer-lhes ferramentas e recursos úteis que tornem as coisas mais fáceis para eles, especialmente quando pensam em novas tecnologias como IA”, escreveram o chefe do Instagram, Adam Mosseri, e o diretor de IA da Meta, Alexander Wang. Postagem no blog.

Os pais poderão bloquear bate-papos com todos os personagens de IA do Meta ou direcionar personagens específicos, observou a empresa. O assistente de IA da empresa permanecerá disponível para adolescentes, mesmo que os personagens de IA estejam desativados.

Meta também destacou sua abordagem PG-13 anunciada recentemente para contas de adolescentes, onde a empresa usará classificações de filmes PG-13 para orientar o conteúdo que os adolescentes assistem por padrão em sua plataforma.

A empresa de tecnologia observa que seus personagens de IA são projetados para não envolver usuários jovens em discussões sobre suicídio, automutilação ou alimentação desordenada, e direcioná-los para recursos, se necessário.

De acordo com Meta, os adolescentes são capazes de interagir com personagens limitados a “tópicos apropriados à idade, como educação, esportes e hobbies – e não romance ou outro conteúdo impróprio”.

A Meta foi criticada no início deste ano, depois que um documento político mostrou exemplos de como seus chatbots de IA poderiam envolver crianças em conversas “românticas ou sensuais”.

A empresa disse na época que os exemplos eram imprecisos e acabaram sendo removidos.

Os chatbots de IA têm enfrentado um escrutínio geral nos últimos meses. A família de um adolescente da Califórnia processou a OpenAI em agosto, acusando ChatGPT de encorajar seu filho a tirar a própria vida.

O pai, Matthew Raine, foi um dos vários pais que testemunhou perante um painel do Senado no mês passado que os chatbots de IA levaram os seus filhos a cometer suicídio ou automutilação, e instou os legisladores a se protegerem contra a nova tecnologia.

Diante dessas preocupações, o governador da Califórnia, Gavin Newsom (D), assinou um projeto de lei no início desta semana exigindo que os desenvolvedores de chatbots criassem protocolos para evitar que seus modelos discutissem suicídio e automutilação com crianças e para lembrá-los repetidamente de que não estão falando com um ser humano.

No entanto, o governador vetou uma medida separada que teria impedido os criadores de disponibilizar os seus produtos às crianças, a menos que pudessem garantir que não se envolveriam em conversas sobre temas prejudiciais. Newsom sugeriu que “restrições mais amplas” “levariam involuntariamente a uma proibição total” do uso de chatbots por crianças.

Link da fonte

Releated