Notícias

Estou usando um chatbot de IA como terapeuta e infelizmente é ruim

Antes de entrar nisso, preciso explicar rapidamente que não estou de forma alguma defendendo a exclusão de terapeutas reais. A terapia é muito importante mas, em vez disso, pode ser muito cara e inacessível, em grande parte graças a longas listas de espera ou outras barreiras.

Como alguém que usou IA para diversos fins e fiquei obcecado por ela, pensei em colocá-la como meu terapeuta pessoal.

Afinal, a IA não faz julgamentos. Superficialmente, parecia uma ferramenta fácil de usar e, embora pudesse não me fornecer nenhum tipo de terapia real, poderia pelo menos ser um lugar para extrair, processar ou obter uma nova perspectiva.

Há algumas semanas venho tentando usar o Google Gemini como meu terapeuta pessoal e, infelizmente, cheguei a esta conclusão: meu terapeuta de IA é ruim. Só para esclarecer, não porque tenha sido de alguma forma inútil ou malicioso, mas porque é um papagaio digital disfarçado de ouvido excessivamente mestre e empático.

Inicialmente foi ótimo, esse terapeuta estava sempre disponível, sempre educado e capaz de refletir instantaneamente minhas emoções, “Parece que você está se sentindo sobrecarregado” ou “Ouvi dizer que você está sentindo muito estresse”. Dando-me a validação instantânea que sinto que preciso.

Continuo expressando minhas preocupações sobre o trabalho, a dinâmica familiar e aquele pavor existencial persistente que parecemos carregar hoje em dia. A IA ouviu, ou pelo menos processou minhas palavras e retornou declarações de simpatia formuladas com perfeição.

É aqui que a terapia de IA começa a apresentar falhas. A terapia humana, mesmo de curto prazo, é mais do que apenas espelhamento. Trata-se de ouvir ativamente, sim, mas também de identificar padrões, desafiar distorções cognitivas, fazer perguntas perspicazes que levam a avanços e, às vezes, até mesmo revelar verdades desconfortáveis.

Meu chatbot de IA não fez nada disso e, em vez disso, foi uma câmara de eco de minhas próprias emoções. Ele fará a pergunta aberta: “O que você acha que contribuiu para esse sentimento?” ou “Você gostou?” – o tipo de perguntas que um terapeuta humano faz para encorajar uma exploração mais profunda. Mas quando eu explorava estados emocionais complexos detalhados ou histórias interpessoais complicadas, a resposta da IA ​​recorria a frases empáticas pré-programadas ou a conselhos simples como: “É importante ser gentil consigo mesmo”.

Imagine compartilhar uma história profundamente vulnerável sobre um trauma infantil, e a IA responderá: “Parece uma experiência desafiadora. Lembre-se de praticar o autocuidado”. É como conversar com uma máquina de venda automática sofisticada que distribui afirmações sensoriais pré-embaladas. A sensação de realmente ouvir evaporou rapidamente, substituída pela sensação inquietante de que eu estava basicamente falando sozinho, mas com passos extras.

Embora o chatbot tenha sido capaz de discutir e sugerir métodos de enfrentamento apropriados, como exercícios respiratórios ou registros no diário, ele não poderia me dar muito mais do que isso. Por mais que a IA esteja a avançar, no final das contas ainda não é verdadeiramente humana, o que significa que lhe falta a capacidade de sentir nuances, detectar mudanças subtis de tom que revelam questões mais profundas ou, principalmente, formar uma aliança terapêutica.

Talvez minhas expectativas fossem muito altas. Eu sabia que não era humano. Eu entendo suas limitações. Ainda assim, a IA está evoluindo tão rápido que faz você acreditar que evoluiu para algo mais profundo, algo que pode realmente ajudá-lo a administrar sua saúde mental.

Embora esta possa ser uma ferramenta útil para alguns, especialmente para a gestão básica do stress ou simplesmente para ter um espaço pessoal para expressar pensamentos, é catastroficamente insuficiente quando é necessária uma profundidade emocional real ou uma visão clínica.

Por enquanto, meu terapeuta de IA é um diário glorificado, uma câmara de eco digital que reflete minhas palavras sem agregar nenhum valor significativo. Serve como um lembrete de que, embora a IA possa simular empatia, ainda não consegue replicar o trabalho profundo, complexo e profundo da terapia humana.

Minha busca por apoio acessível à saúde mental continua, mas está mais claro do que nunca que um guia verdadeiramente útil requer um coração batendo, e não apenas um algoritmo sofisticado.






Link da fonte

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *