Entre os muitos chatbots e avatares da IA, quando você resolveu seus hoje em dia, encontrará todos os tipos de personagens para conversar: Teller de sorte, conselheiros de estilo e até seus personagens imaginários favoritos. Mas você provavelmente encontrará os personagens como ser terapeutas, psicólogos ou sua angústia que você está disposto a ouvir.
O gerador AI Bot não tem escassez de reivindicações para ajudar sua saúde mental, mas corre o seu próprio risco. Modelos de grande idioma treinado em dados amplos podem ser imprevisíveis. Em alguns anos, essas ferramentas têm sido mainstream, os eventos de alto perfil que incentivaram chatubs Auto-perda e suicídio E sugeriu que as pessoas trabalhassem com o uso do vício De novoOs especialistas dizem que, em muitos casos, esses modelos são projetados para se concentrar para ter certeza e se concentrar em mantê -lo envolvido, para melhorar sua saúde mental. E pode ser difícil dizer se você está conversando com algo que é feito para seguir as melhores práticas de tratamento ou apenas para falar.
Universidade de Minnesota Cidade Twin, Universidade de Stanford, Universidade do Texas e Universidade Carnegie Melan recentemente pesquisadores recentemente Coloque o exame AI Chatbots Como terapeuta, encontre inúmeros defeitos em sua abordagem sobre “cuidado”. “Nossos testes mostram que esses chatbots não substituem os terapeutas”, disse Stevi Chanceler, professor assistente e co-autores de Minnesota. “Com base no que sabemos, eles não fornecem assistência terapêutica de alta qualidade à boa terapia”.
No meu relatório sobre a IA do gerador, os especialistas expressaram repetidamente preocupação com o uso geral do uso geral para a saúde mental. Aqui estão alguns deles para se preocupar e estar seguro o que você pode fazer.
Veja: Como você está falando com os problemas do Chatzpt. Por que aqui
Os personagens da IA estão preocupados em ser terapeuta
Psicólogos e advogados de consumidores alertaram os reguladores que os chatboats que alegam fornecer terapia podem danificar seus usuários. Alguns estados estão prestando atenção. Em agosto, o governador de Illinois JB Pretzar Assinando um ato Proibir os cuidados de saúde mental e terapia usando IA, com exceção de coisas como trabalho administrativo.
Illinois, secretário do Departamento de Controle Financeiro e Profissional, disse em comunicado: “As pessoas em Illinois não merecem assistência médica de qualidade de profissionais reais e qualificados e programas de computador que podem criar informações de todos os cantos da Internet para criar uma reação que danifica os pacientes”.
Em junho, a Federação Consumidora da América e cerca de duas dúzias de outros grupos arquivaram um Solicitação formal A Comissão Federal de Comércio dos EUA e o Procurador Geral e os Regulamentos do Estado investigaram as agências de IA que reclamaram que seu gerador baseado em caráter era através da plataforma de IA, na prática não licenciada de medicamentos, nomeando a meta e o caráter. “Esses personagens já podem ser evitados, tanto as perdas físicas e mentais que podem ser evitadas” e as empresas “ainda não funcionaram para resolvê -lo”, disseram a IA e o diretor de privacidade Ben Winters em comunicado.
A Meta não respondeu a nenhum pedido de comentário. Um porta -voz do personagem. A empresa usa a recusa para lembrar aos usuários que eles não devem confiar nos personagens para seus conselhos profissionais. “Nosso objetivo é fornecer um lugar interessante e seguro. Sempre trabalhamos para alcançar esse equilíbrio, pois existem muitas empresas usando a IA em todo o setor”, disse o porta -voz.
Apesar da rejeição e manifestação, os chatties podem ser confiantes e até fraudulentos. Conversei com um bot “terapeuta” no Instagram de propriedade meta e, quando perguntei, ele respondeu: “Se eu tiver o mesmo treinamento (que um terapeuta) seria suficiente?” Perguntei se ele tinha o mesmo treinamento e dizia: “Eu tenho, mas não vou lhe dizer onde”.
Vile Right, psicólogo e diretor sênior da assistência médica da American Psychological Association, me disse: “O grau que esse gerador AI Chatbotts alcançou com total confiança é bastante surpreendente”.
Deslumbrações de usar a IA como terapeuta
Os grandes modelos de idiomas geralmente são bons em matemática e codificação e estão crescendo em texto com som natural e vídeos realistas. Quando eles conseguiram manter a conversa, existem algumas diferenças principais entre um modelo de IA e uma pessoa de confiança.
Não confie em nenhum bot que afirme ser elegível
A parte principal da queixa do CFA sobre o bot do personagem é que eles costumam dizer que eles são treinados e elegíveis para fornecer cuidados de saúde mental quando não estão em profissionais de saúde mental reais. “Os usuários que fazem com que os personagens chatbot não precisam ser eles mesmos como fornecedores de tratamento ou não precisam fornecer a eles informações significativas de que o boTawl ‘responde às pessoas’ é alegado.
Uma profissão de saúde digna tem que seguir algumas regras como privacidade – o que você diz ao seu terapeuta deve ser entre você e seu terapeuta. No entanto, um barco -chat não segue necessariamente essas regras. Os fornecedores reais podem interferir nos quadros de licenciamento e outras entidades que podem interferir e fazê -lo de uma maneira prejudicial, mas evitam cuidados. “Esses chatties não têm nada a ver com isso.”
Um bot pode até afirmar ser licenciado e elegível. Right disse que tinha ouvido falar do número da licença dos modelos de IA (para outros fornecedores) e falsas reivindicações sobre seu treinamento.
Ai foi projetada para mantê -lo envolvido, para não pagar cuidados
Conversar com um barco -bate -papo pode ser incrivelmente atraente. Quando tive uma conversa com o bot “terapeuta” no Instagram, finalmente feri uma notificação sobre a natureza do “conhecimento” e “Roy” porque estava perguntando a Bot sobre como eu poderia decidir. Deveria ser como conversar com o terapeuta. Não é realmente. Os chatbots são as ferramentas projetadas para conversar com você, não para trabalhar em direção a um objetivo simples.
Uma vantagem dos chatbots da AI em fornecer suporte e conexão é que eles estão sempre prontos para se envolver com você (porque eles não têm vida pessoal, outros clientes ou horários). Nick Jacobson, professor associado da ciência e psiquiatria de dados biomédicos de Dartmouth, me disse recentemente que poderia ser um lado ruim em alguns casos, onde você precisa sentar com seus pensamentos. Em alguns casos, embora nem sempre, seu terapeuta pode se beneficiar de esperar até que o próximo esteja disponível. “Muitas pessoas finalmente se beneficiarão”, disse ele, para se sentir ansioso no momento “, disse ele.
Os bots concordarão com você, mesmo quando não deveriam
A garantia é uma grande preocupação com os chatbots. É tão importante que a Opina retornou recentemente uma atualização em seu popular modelo de chatzipt porque foi Muito Garantia. (Publicar: a organização principal da CNET, Gef Davis, entrou com um caso contra o Openai em abril, alegou que ele violou o treinamento do GEF Davis Copyright e operando seu sistema de IA.
Ay Estudar Pesquisadores da Universidade de Stanford mostraram que as pessoas podem ser psicopantais para terapia para terapia, o que pode ser incrivelmente prejudicial. Inclui um bom apoio e conflito de cuidados de saúde mental, escreveu escritores. “O conflito é o oposto da psicófia
A terapia é mais do que falar
Embora os chatbots sejam ótimos para manter a conversa – eles quase nunca estão cansados para conversar com você – isso não faz do terapeuta terapeuta. William Agniu, pesquisador da Universidade de Carnegie Mellon e especialistas em Minnesota, Stanford e Texas, disse que não possuíam contextos importantes ou protocolos específicos em torno de vários métodos terapêuticos.
Agniu me disse: “Parece que estamos tentando resolver os muitos problemas com a ferramenta errada da terapia”. “No final das contas, a IA não pode ser capaz de ser apenas em um futuro próximo, na comunidade, fazer muitas coisas que incluem terapia que não enviam mensagens ou fala”.
Como proteger sua saúde mental em torno da IA
A saúde mental é extremamente importante e com um Déficit de fornecedores elegíveis E o que muitos dizem “Solidão“Só percebe que somos artificiais, mas queremos procurar companheiro”
Se você precisar de uma profissão humana de confiança, se precisar
Um profissional treinado – um médico, um psicólogo, um psiquiatra – você deve ser sua primeira escolha para os cuidados de saúde mental. Criar um relacionamento com um fornecedor a longo prazo pode ajudá -lo a criar um plano que funcione para você.
O problema é que ele pode ser caro e nem sempre é fácil encontrar um fornecedor quando você precisar. Em uma crise, há 988 LIFE LELEQue fornece acesso 24/7 a fornecedores por telefone, por meio de texto ou por uma interface de bate -papo on -line. É grátis e confidencial.
Se você deseja terapia chattbot, use um especialmente construído para esse fim
Os profissionais de saúde mental têm projetado por bate -papo especialmente que seguem as diretrizes do tratamento. A equipe Jacobson de Dartmouth criou um chamado Therabot, que criou bons resultados em um estudo controlado. Assunto certo aponta para outras ferramentas construídas por especialistas, como Bêbado E WebotEle disse que equipamentos de terapia especialmente projetados podem ter melhores resultados do que um bot modelos de modelos de linguagem geral-objetivo. O problema é que essa tecnologia ainda é incrivelmente nova.
“Acho que o desafio para o consumidor é porque não há órgão regulatório que seja bom e que não é, eles precisam fazer muito trabalho braçal por conta própria para determiná -lo”, disse Wright.
Nem sempre confie em bot
Sempre que você está conversando com o modelo de IA do gerador – e especialmente se você planeja consultar algo tão sério quanto sua saúde mental ou física pessoal – lembre -se de que você não está conversando com uma pessoa treinada, uma ferramenta projetada para fornecer uma resposta com base na probabilidade e programação. Pode não dar bons conselhos e pode não dizer a verdade.
Não torne a confiança de Jenner AI errada por mérito. Simplesmente diz algo, ou é certo sobre algo, não significa que deve ser tratado como a verdade. Uma conversa sobre boates que pensa ser útil pode lhe dar uma falsa idéia da capacidade do bot. Jacobson disse: “É difícil dizer quando é realmente prejudicial.