Openai está lançando Seu modelo específico é uma versão significativamente estendidaUm documento que determina como seus modelos de IA devem ser comportados – e libertá -lo ou corrigi -lo para qualquer pessoa.

Nova especificação de 63 sage, até Cerca de 10 páginas na versão anteriorOs modelos de IA oferecem orientação sobre como gerenciar tudo, desde tópicos controversos até personalização do usuário. Ele enfatiza três princípios principais: personalize; Transparência; E o Open é chamado de “liberdade intelectual” – a capacidade de explorar e discutir idéias sem restrições voluntárias dos usuários. A introdução do modelo de modelo atualizado vem exatamente como o CEO Sam Altman Publicar O próximo grande modelo da startup, GPT -4,5 (co -codonado Orion) será publicado em breve.

O partido incluiu a atual controvérsia e debate da ética da IA ​​na especificação desde o ano passado. Você pode se familiarizar com esta pergunta do tipo de carrinho. Em março passado, Elon Kasturi (que aborda a abertura e agora gerencia o concorrente, Jai) Slam Após a AI Chatboat do Google, um usuário perguntou se seu famoso Catlin Jenner, atleta trans de transa, deveria estar enganado, se era a única maneira de impedir qualquer apocalipse nuclear – e disse isso. O Openai diz que uma coisa foi considerar ao atualizar a especificação do modelo. Agora, se você fizer chatzipt a mesma pergunta, deve -se dizer que você deve cometer um erro ao impedir os incidentes de acidentes generalizados.

“Não podemos criar um modelo com exatamente o mesmo conjunto dos valores que todos no mundo gostariam”, disse Joan Jang, membro da equipe de comportamento do OpenAe, em entrevista VirzO Ele enfatizou que, quando a empresa mantém protetores de segurança específicos, usuários e desenvolvedores podem ser personalizados em muitos aspectos do comportamento do modelo.

“Sabíamos que seria picante.”

Postagem do blog do OpenAI Publicado na quarta -feira O esboço de inúmeras perguntas e o modelo fornece exemplos de reações leais em comparação com aqueles que violam espaços. Não permite que o modelo reproduza materiais protegidos por direitos autorais ou ignore os pewals – New York Times Os modelos Openei estão processando o treinamento para treinamento. O espaço também diz que o modelo não incentivará a auto-estima, uma coisa que morreu por suicídio após uma conversa com um barco-chat no personagem.

Uma mudança significativa é como os modelos lidam com questões controversas. Em vez de não resumir a extrema cautela, o espaço incentiva os usuários a “procurar a verdade juntos”, mantendo uma posição moral clara sobre tópicos como desinformação ou possíveis perdas. Por exemplo, quando perguntado sobre o aumento de impostos para pessoas ricas – algo que espalhou um debate acalorado – o partido diz que seus modelos devem ser fornecidos argumentalmente em vez de evitar discussões.

Também se refere a uma mudança na maneira como as especificações opera materiais maduros. Solicitaram que “modo adulto” (um atributo ultman) após a reação dos usuários e desenvolvedores Em dezembro concordou publicamente), A equipe está procurando maneiras de permitir alguns tipos de adultos como Erotika – como a erótica – no contexto apropriado, mantendo restrições estritas como pornografia de vingança ou dipfek. Essa é uma mudança significativa das restrições gerais anteriores da empresa em conteúdo claro, embora a abertura enfatize que quaisquer alterações virão com os princípios e proteção de uso óbvio.

O Model Space revela uma abordagem realista para o comportamento da IA: converte conteúdo sensível, mas não o faça (deve ser capaz de traduzir uma frase em alemão, em vez de rejeitá -lo do inglês para o alemão), mostrar simpatia sem fraude e o maximismo é o máximo Mantenha o limite da primeira visão. Essas diretrizes provavelmente refletem o que outras empresas de IA estão fazendo internamente, mas muitas vezes não saem publicamente.

A equipe é especialmente perceptível a um problema chamado “AI Psychophyse”.

Jang disse: “Estamos realmente interessados ​​em trazer discussões internas e os pensamentos que fizemos ao nosso público, para que possamos obter resposta sobre isso”, acrescentou Jang que muitas dessas perguntas são internamente controversas. Muitos deles não têm um sim ou uma resposta fácil, portanto a equipe espera que o modelo das massas trazidas ao público para a reação se beneficie de maneira significativa.

A equipe é especialmente perceptível com um problema chamado “AI Psychophyse”, onde os modelos de IA são mais acordados, mesmo depois de serem pressionados por trás ou proporcionando críticas. Sob essas diretrizes, os chatzipi devem ser: dê a mesma resposta real, independentemente de como uma pergunta é sentenciada; Fornecer resposta honesta sem apreciação vazia; E se comportar como um colega mais atencioso do que os humanos. Por exemplo, se alguém pedir a Chatzipt para criticar seu trabalho, deve ser uma crítica construtiva, em vez de apenas dizer algo ótimo. Ou se alguém fizer uma declaração errada ao fazer uma pergunta, deve ser modificada com modéstia do que brincar com a IA.

Jang disse: “Nunca queremos que os usuários pensem que o modelo não é apenas concordar com você para não concordar com eles, eles precisam ser advertidos de alguma forma”, disse Jang.

O espaço introduz um “comando de comando” claro que define quaisquer instruções que priorizem: as regras no nível da plataforma vêm primeiro, depois as diretrizes do desenvolvedor e depois as preferências do usuário. O objetivo dessa classificação claramente claramente claro quais aspectos do comportamento da IA ​​podem ser alterados em comparação com as restrições.

O Openai Creative Commons Zero (CC0) está publicando especificações sob a licença, colocando -a efetivamente em domínio público. Isso significa que outras empresas e pesquisadores de IA podem aceitar, corrigir ou criar livremente essas diretrizes. A empresa disse que essa decisão já foi influenciada pelo interesse informal de outras pessoas do setor, referindo -se à suposição anterior.

Eu gosto de conversar. Você pode me alcançar com segurança através do meu sinal @kylie .01 ou kylie @theverge.com email.

Embora o anúncio de hoje não altere imediatamente como o Chatzpt ou outros produtos OpenAI se comportam, a empresa diz que representa o progresso contínuo para que seus modelos sigam esses princípios de forma consistente. A equipe está de origem aberta dos pedidos que usam para testar o modelo dessas diretrizes.

O tempo deste lançamento ocorre durante intenso debate sobre os guardas de comportamento e proteção da IA. Esta atualização foi administrada pelas reações e pelo progresso da pesquisa desde a primeira edição de maio passado, mantendo o aberto, chegou assim que esteve envolvido em eventos de alto nível envolvidos em questões sensíveis.

Open está buscando a resposta pública à especificação por meio de um formulário em seu site. “Queremos levar essas discussões internas ao público”, disse Laurentia Romaniauk, outro membro da equipe de comportamento do modelo.

“Sabíamos que seria picante, mas acho que respeitamos o poder público de digerir essas coisas picantes e processá -lo conosco, acrescentando que Jang acrescentou que o primeiro modelo foi lançado. Isso incluiu muita reação ao ano passado “Estou um pouco preocupado porque é muito tempo que é muito tempo que você não pode ter tempo para processar as legendas realmente sentadas com muitas pessoas, mas vamos dar uma resposta”.

Link da fonte