Los chatbots impulsados por inteligencia artificial (IA) están entregando consejos médicos problemáticos aproximadamente la mitad de las veces, según un nuevo estudio, lo que pone en evidencia los riesgos para la salud de una tecnología que se está volviendo cada vez más parte de la vida cotidiana. Investigadores de Estados Unidos, Canadá y el Reino Unido evaluaron cinco plataformas populares —ChatGPT, Gemini, Meta AI, Grok y DeepSeek— formulando a cada una 10 preguntas en cinco categorías de salud. Del total de respuestas, cerca del 50% fue considerado problemático, incluyendo casi un 20% que resultó altamente problemático, según los hallazgos publicados esta semana en la revista médica BMJ Open.

Los chatbots mostraron un mejor desempeño en preguntas cerradas y en temas relacionados con vacunas y cáncer, y un peor rendimiento en preguntas abiertas y en áreas como células madre y nutrición, de acuerdo con el estudio. Las respuestas a menudo se entregaban con confianza y certeza, aunque ningún chatbot proporcionó una lista de referencias completamente completa y precisa ante ninguna de las preguntas, señalaron los investigadores. Solo hubo dos casos en que se negaron a responder una pregunta, ambos de Meta AI.

Los resultados subrayan la creciente preocupación sobre cómo las personas están utilizando plataformas de IA generativa, que no están autorizadas para dar consejos médicos y carecen del juicio clínico necesario para realizar diagnósticos. El crecimiento explosivo de los chatbots de IA los ha convertido en una herramienta popular para quienes buscan orientación sobre sus dolencias, y OpenAI ha señalado que más de 200 millones de personas le hacen preguntas sobre salud y bienestar a ChatGPT cada semana. La plataforma anunció en enero herramientas de salud tanto para usuarios comunes como para clínicos, y Anthropic indicó ese mismo mes que su producto Claude está lanzando una nueva oferta en el ámbito de la salud.

Un riesgo importante en la implementación de chatbots sin educación pública ni supervisión es que podrían amplificar la desinformación, señalaron los autores del estudio publicado en BMJ Open. Los hallazgos “destacan limitaciones conductuales importantes y la necesidad de reevaluar cómo se implementan los chatbots de IA en la comunicación pública sobre salud y medicina”, escribieron. Estos sistemas pueden generar “respuestas con tono autoritativo pero potencialmente defectuosas”.