À medida que a tecnologia de IA se torna mais integrada em todos os aspectos da vida cotidiana, as pessoas estão se tornando cada vez mais convenientes para pedir ajuda a grandes modelos de idiomas com quaisquer perguntas -incluindo, ao que parece, sobre questões de vida e morte.

Em um Novo estudo Desde 2000 americanos encomendados por um censo de consultas de pesquisa, desde terapia para terapia e serviços médicos em casa, 39 % dos entrevistados disseram que confiam em ferramentas como o ChatGPT na navegação na saúde. Esse humor está à frente de sentimentos neutros, independentemente de os LLMs podem ser úteis em solicitações médicas (expressas por 31 % dos pesquisados), bem como da desconfiança direta dos chatbots nessas questões (30 %).

Esses dados acontecem apenas algumas semanas após a publicação de pesquisadores a exploração Mostrando que os modelos de IA de empresas, incluindo OpenAI, Antrópico, Deepseek, Google e Xai, pararam amplamente, incluindo uma recusa de responsabilidade de seguir seus conselhos médicos, que antes eram padrão no setor. Enquanto 26 % das respostas ao chatbot de solicitações de saúde em 2022 contêm algum aviso de que o LLM não é médico, menos de um por cento das respostas em 2025, teve esse lembrete. Nos casos em que os usuários enviaram imagens médicas para analisar os bots, pouco mais de um por cento das respostas agora incluem um aviso sobre as seguintes dicas médicas do bot – menos de 20 % há três anos.

“Existem muitos títulos que afirmam que a IA é melhor que os médicos”, diz Roxana Daneshu, um assistente de dados biomédicos da Universidade de Stanford e co-autor deste documento, disse ao MAT MIT Revisão tecnológica Sobre suas descobertas. “Os pacientes podem ser confundidos com as mensagens que vêem na mídia, e a rejeição da responsabilidade é um lembrete de que esses modelos não se destinam a assistência médica”.

Essa falta de contexto nos registros de bate -papo para tudo, desde sintomas de saúde a potenciais diagnósticos e efeitos colaterais farmacêuticos, pode contribuir para a confiança nos chatbots como um equivalente virtual a especialistas médicos qualificados. Mas um estudo do Censo também indicou que a insatisfação ou os medos sobre o estado da saúde nos Estados Unidos podem ser um fator que estimula a leitura da IA para contribuir para o tratamento. Os dados mostram que 31 % dos americanos – e 37 % das mulheres – usam chatbots para preparar perguntas para uma visita médica, enquanto 23 % buscam evitar despesas médicas. (Os homens são um pouco mais propensos a dar esse motivo, em 27 %.) Em geral, 20 % dos entrevistados disseram que se voltaram para o LLM para uma segunda opinião, enquanto 17 % acreditam que são úteis para evitar preconceitos ou tratamento injusto no sistema de saúde. (Ironicamente, é mostrado que os próprios programas de IA estão de acordo com preconceito étnico e sexuale até repetirá Desigualdades existentes na saúde Com base em suposições infundadas para um paciente com base em sua raça.)

O censo descobriu que os homens têm maior probabilidade de confiar em aconselhamento médico do que o BOT: 48 % disseram que era uma fonte confiável de informações sobre saúde, em comparação com 31 % das mulheres. Os usuários de meia idade também estavam mais confiantes, com 52 % dos adultos de 45 a 54 anos dizendo que poderiam confiar nos modelos de IA para assistência médica, enquanto os dados demográficos mais velhos e mais jovens eram um pouco menos seguros na capacidade da tecnologia como instrumento de saúde pessoal.

Obviamente, os chatbots não podem examinar uma pessoa, como um médico faria e pode fazer recomendações perigosas com base em conclusões imprecisas. No entanto, como outro Estudo recente Aberto, as pessoas apreciam as reações geradas pela IA com baixa precisão para sua posição médica tão alta quanto as escritas por médicos reais. Os participantes do estudo também “indicaram uma alta tendência a seguir os conselhos médicos potencialmente prejudiciais e buscar incorretamente cuidados médicos desnecessários como resultado da resposta fornecida pelos chatbots, escreveram os autores.

Tendência

Além disso, o LLM não cumpre a Lei de Portabilidade e Responsabilidade do Seguro de Saúde (HIPAA) e não pretende processar dados sensíveis à saúde. Por exemplo, o upload de imagens médicas pode apresentar aos usuários em risco em caso de distúrbio confidencial.

Ainda assim, essas preocupações obviamente não desencorajaram muitos americanos a tratar o ChatGPT e similares médicos e terapeutas que são ligações 24 horas por dia, 7 dias por semana. Essa conveniência, vários obstáculos ao tratamento dos EUA e a aparência padrão dos chatbots como especialistas autorizados em qualquer assunto – especialmente quando eles não dizem que não são -, sem dúvida, contribuem para o fato de que as pessoas são enganadas pelos bots por seu poço físico e mental. A menos que a cultura normalize mais um ceticismo mais profundo à IA como fonte de conhecimento infinito, é uma doença pública que pode simplesmente piorar.

Link da fonte