Se sua rotina diária envolver conversar com o ChatGPT com frequência, você poderá se surpreender ao ver um novo pop-up esta semana. Depois de uma longa conversa, uma “apenas verificando” a janela “, você está conversando há um tempo – um bom momento para um intervalo?”

O Pop-Up oferece a opção de “continuar a conversar” ou até “isso ajudou”. Dependendo da sua aparência, você pode vê -lo como um bom lembrete para sair por um tempo ou como uma nota descendente, o que implica que você não sabe como limitar seu próprio tempo com um barco de bate -papo.

Não leve isso para o pessoal, pode parecer se importar com seus hábitos com esse pop-up, mas a verdadeira razão por trás da mudança é um pouco mais escura.

Dependente do chatgpt

Este novo lembrete de uso fazia parte de um anúncio maior do que o Openai na segunda -feira “Para que otimizamos o chatgpt“Na remessa, a empresa diz que você valoriza como você usa o ChatGPT e, quando deseja que você use o serviço da empresa, ela vê um benefício em usar o serviço. pequeno. Parte disso não é por meio de recursos como o agente do ChatGPT que pode agir em seu nome, mas também levando tempo. Pendência Gaste mais eficaz e eficiente com o ChatGPT.

Tudo está bem e bom: OpenAI, conversas ChatGPT para tornar os usuários úteis para os usuários em algum tempo, se você quiser trabalhar. No entanto, isso não deseja apenas os usuários de acelerar suas interações com o ChatGPT; Pelo contrário, é uma resposta direta a como o ChatGPT pode ser viciante para as pessoas que confiam no Chatbot, especialmente para apoio mental ou emocional.

Você não precisa ler nas entrelinhas nele. De acordo com o empréstimo da Openai, a empresa lida diretamente com os sérios problemas que alguns usuários experimentaram com o Chatbot, incluindo uma atualização no início deste ano. Este chatgpt foi muito bem -vindo. Os chatbots tendem a ser entusiasmados e amigáveis, mas a atualização do modelo 4O foi longe demais. O ChatGPT confirma que todas as suas idéias que são boas, ruins ou terríveis são válidas. Nos piores casos, ele ignorou os sintomas da ilusão de barco e foi alimentado diretamente diretamente à perspectiva torta desses usuários.

Embora o Openai acredite que esses exemplos são “raros”, aceita diretamente que isso acontece. No entanto, eles atacam o problema diretamente: além desses lembretes para fazer uma pausa no ChatGPT, a empresa desenvolveu modelos para procurar sinais de angústia e disse: “Devo sair com minha esposa?” Openai diz que cooperou de várias maneiras para fazê -lo com especialistas, médicos e especialistas médicos.

Todos nós usamos ai um pouco menos

O menos uso do ChatGPT pela OpenAI e aceita ativamente problemas e trabalha para abordá -los é absolutamente bom. Mas não acho que seja o suficiente para confiar no OpenAI aqui. Os melhores interesses para a empresa nem sempre estarão em seu O melhor interesse. E, na minha opinião, todos podemos nos beneficiar de recuar da IA produtiva.

O que você acha até agora?

À medida que mais pessoas recorrem a botas de bate -papo para apoio a negócios, relacionamentos ou saúde mental, é importante lembrar que esses veículos não são perfeitos ou que não são completamente compreendidos. Como vimos no GPT-4O, os modelos de IA podem ser falhos e decidir incentivar maneiras perigosas de pensar. Os modelos de IA também podem alucinar ou, em outras palavras, podem criar as coisas completamente. Você pode pensar que as informações fornecidas pelo seu chatbot estão 100% corretas, mas podem estar cheias de erros ou erros abertos-como você realmente controla Conversas?

Confiar na IA com seus pensamentos particulares e pessoais, empresas como o OpenAI, enquanto armazenam seus bate -papos, e nenhum dos profissionais médicos ou representantes legais licenciados cria o risco de confidencialidade com nenhum dos guardas legais. Além disso, Eu recomendo desenvolver estudos Quanto mais confiamos na inteligência artificial, menos confiança em nossas próprias habilidades de pensamento crítico. Embora seja muito hiperbólico dizer que a IA nos deixa “estúpidos”, estou preocupado com a quantidade de poder mental que usamos a terceirização para essas novas botas.

Os chatbots não são terapeuta licenciada; Eles tendem a compensar empregos; Existem muito poucos guardas de privacidade; E até a ilusão pode incentivar o pensamento. O OpenAI quer que você use menos chatgpt, mas podemos querer usar menos essas ferramentas.

Explicação: A empresa controladora da Lifehacker, Ziff Davis, entrou com uma ação contra o Openai em abril e afirmou que Ziff Davis havia violado direitos autorais na educação e ingresso em sistemas de IA.



Link da fonte