OpenAI lançou Conselho de Especialistas em Bem-Estar Mental

A OpenAI formou um conselho consultivo para monitorar o bem-estar do usuário e a segurança da IA, anunciou a empresa esta semana. O grupo de oito pessoas terá a tarefa de estabelecer padrões para interações saudáveis de IA em todas as faixas etárias.
O anúncio veio junto com um X postagem O CEO Sam Altman disse que a empresa conseguiu mitigar com sucesso “sérios problemas de saúde mental” levantados pelo uso de seus produtos – Altman então explicou que o ChatGPT começaria a permitir mais conteúdo adulto, incluindo conteúdo erótico, nos chats. A OpenAI enfrenta atualmente seu primeiro processo por homicídio culposo, após alegações de que o ChatGPT contribuiu para a morte por suicídio de um jovem adolescente.
O mais recente modelo de IA da Anthropic, Claude Haiku 4.5, dobra em velocidade e segurança
Os membros do conselho incluem acadêmicos do Laboratório de Bem-Estar Digital do Hospital Infantil de Boston e da Clínica de Saúde Mental Digital de Stanford, bem como especialistas em psicologia, psiquiatria e interação humano-computador.
Velocidade da luz mashável
“Continuamos responsáveis pelas decisões que tomamos, mas continuaremos a aprender com este conselho, a Rede Global de Médicos, os decisores políticos e muito mais, à medida que desenvolvemos sistemas avançados de IA que apoiam o bem-estar humano”, escreveu a empresa num comunicado. Postagem no blog.
Este tweet não está disponível no momento. Ele está carregando ou foi removido.
Este tweet não está disponível no momento. Ele está carregando ou foi removido.
semana passada, VocêGov Uma pesquisa com 1.500 americanos revelou que apenas 11% estão abertos ao uso da IA para melhorar sua saúde mental. Apenas 8% dos entrevistados disseram confiar na tecnologia usada neste espaço.
Em termos gerais, os companheiros de IA generativos levantaram sérias preocupações entre os especialistas em saúde mental, incluindo a criação de psicose de IA entre utilizadores crónicos de companheiros de chatbot. As empresas de IA continuam a lançar produtos de saúde mental Cada vez mais americano Recorra à IA para responder a questões de saúde mental e obter apoio de substitutos digitais – apesar da falta de provas que comprovem a sua eficácia.
são reguladores federais investigação O papel da IA generativa e dos companheiros de chatbot também na crescente crise de saúde mental, especialmente entre os adolescentes. Vários estados proibiram chatbots com tecnologia de IA anunciados como assistentes terapêuticos. No mês passado, o governador da Califórnia, Gavin Newsom, assinou vários projetos de lei que procuram regular a IA e os seus impactos sociais, incluindo a obrigatoriedade de relatórios de segurança para empresas de IA e protocolos que protegem utilizadores menores da exposição a conteúdo sexual. A próxima lei, SB 243, exige que as empresas instituam um sistema para abordar a ideação suicida, o suicídio e a automutilação.