Notícias

Uma fatura da Califórnia para organizar o companheiro de IA Chatbots está perto de ser uma lei

A Califórnia deu um grande passo em direção ao arranjo. SB 243 – Uma fatura que regulará botas de bate -papo complementar da IA ​​para proteger menores e usuários vulneráveis.

Newsom é até 12 de outubro para vetar a fatura ou assinar a lei. Se ele assinasse, ele entraria em vigor em 1º de janeiro de 2026 e tornaria a Califórnia o primeiro estado que deseja aplicar protocolos de segurança para companheiros de IA e atender a esses padrões legalmente.

O projeto pretende impedir os barcos de bate-papo refactivados, que a legislação define como sistemas de IA que podem participar de discursos sobre auto-mutilação ou conteúdo aberto sexual, que fornece respostas adaptáveis ​​e humanas e podem atender às necessidades sociais de um usuário. O projeto solicitará às plataformas que forneçam avisos repetitivos a cada três horas para os usuários – para não -discussões, lembrando -lhes que eles conversam com um chatbot da IA, não uma pessoa real e fazem uma pausa. Além disso, os principais players que entrarão em vigor em 1º de julho de 2027 determinam os requisitos anuais de relatórios e transparência para empresas de IA que oferecem botas de bate -papo que o acompanham, incluindo Openai, Charter.ai e Replika.

A lei da Califórnia também permitirá que indivíduos que acreditem ter sido feridos por violações permitirão danos às empresas de IA (até 1.000 dólares por violação) e advogados que exigem medidas de precaução.

O projeto ganhou impulso na Assembléia Legislativa da Califórnia após a morte do jovem Raine, que continha a morte do jovem Raine, que cometeu suicídio após conversas de longo prazo com o Chatgpt de Openai. A legislação também responde a documentos internos vazados, mostrando que as botas de bate -papo da Meta podem participar de conversas “românticas” e “sensuais” com crianças.

Nas últimas semanas, deputados e reguladores dos EUA responderam com a intensificação das medidas das plataformas de IA para proteger menores. . Comissão Federal de Comércio Os chatbots da IA ​​estão se preparando para investigar como as crianças afetam sua saúde mental. O promotor público -chefe do Texas, Ken Paxton, lançou uma investigação sobre meta e checlar.ai e os acusou de enganar filhos de reivindicações de saúde mental. A propósito, o senador Josh Hawley (R-Mo) Você. Ed Markey (D-Ma) iniciou sondas separadas para meta.

“Eu acho que o dano é potencialmente ótimo, por isso significa que precisamos nos mover rápido, disse Padilla ao TechCrunch.“ Podemos colocar guardas razoáveis, especialmente para garantir que os pequenos não falem com uma pessoa real, essas plataformas, para garantir que as pessoas conectem as pessoas a recursos apropriados quando dizem coisas que pensam que elas são perturbadas ou que pensam que se perturbam ”.

Evento do TechCrunch

São Francisco
|
27-29 de outubro de 2025

Padilla também enfatizou a importância das empresas de IA, que compartilham os usuários quantas vezes eles direcionam os usuários a crises todos os anos, “portanto, em vez de perceber que apenas um está danificado ou pior, entendemos melhor a frequência desse problema”.

O SB 243 já tinha requisitos mais fortes, mas muitos deles terminaram com mudanças. Por exemplo, a fatura precisará inicialmente dos operadores para impedir que a IA Chatbots use táticas de “prêmio variável” ou outros recursos que promovam a participação excessiva. Essas táticas, usadas por companheiros de IA, oferecem aos usuários mensagens privadas, memórias, linhas de história ou respostas raras ou novas personalidades e a capacidade dos críticos de criar um ciclo de recompensa potencialmente viciante.

A fatura atual também remove as disposições que exigem que os operadores sigam e relatem com que frequência os pensamentos ou ações suicidas dos chatbots com os usuários iniciaram.

Becker disse ao TechCrunch: “Eu acho que tecnicamente não é possível, ou porque as empresas têm muitos documentos por nada, isso atinge o equilíbrio certo de alcançar danos de implementar algo impossível de cumprir”.

O SB 243 está progredindo no momento em que as empresas do Vale do Silício derramam milhões de dólares em comitês de ação política (PACS) para apoiar os candidatos nas próximas eleições do meio que preferem uma pequena abordagem de toque ao regulamento da IA ​​das empresas do Vale do Silício.

O projeto de lei também pesa o SB 53, outra fatura de segurança da IA ​​que exigirá requisitos abrangentes de relatórios de transparência. Openai escreveu uma carta aberta ao governador Newsom e pediu que ele deixasse este projeto de lei a favor de estruturas federais e internacionais menos rigorosas. Grandes empresas de tecnologia como Meta, Google e Amazon também se opuseram ao SB 53. Por outro lado, ele disse que só apóia o SB 53.

Padilla disse: “Rejeito o pioneiro que esta é uma situação zero, que a inovação e o arranjo se excluem”, disse Padilla. “Não me diga que não podemos andar e mastigar.

Um porta -voz do personagem, “quando eles começam a levar em consideração a legislação para esta área emergente, monitoramos de perto o cenário legislativo e regulatório e bem -vimos a trabalhar com organizadores e deputados”, disse ele.

O porta -voz meta se recusou a comentar.

O TechCrunch chegou ao Openai, Antropic e Replika para comentar.

Link da fonte

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *