ChatGPT Salud muestra limitaciones en la interpretación de datos de salud y no es confiable para diagnósticos, según análisis recientes
La integración de ChatGPT con datos de salud revela limitaciones y riesgos en su uso como herramienta de interpretación clínica.
La llegada de ChatGPT Salud supone un paso importante en la integración de la inteligencia artificial con los datos de salud del iPhone, aunque aún no ha sido probado en la Unión Europea. La función permite conectar la app Salud del iPhone —y, si se posee un Apple Watch, acceder a datos como pulsaciones, descanso nocturno, oxígeno en sangre y actividad física— con el fin de ofrecer una mejor interpretación del estado fisiológico del usuario. Sin embargo, la validez y utilidad real de esta integración han sido puestas en duda por expertos y análisis recientes.
En un exhaustivo análisis llevado a cabo por el periodista Geoffrey A. Fowler para The Washington Post, se probaron las capacidades de ChatGPT Salud alimentándola con datos de salud recopilados durante diez años —incluyendo 29 millones de pasos y 6 millones de mediciones cardíacas—. Los resultados fueron desalentadores: la IA otorgó una calificación de «F» a la condición del usuario, interpretando erróneamente los datos e incluso omitiendo información básica como edad y género, que estaban claramente disponibles en las métricas aportadas.
Al añadir más datos, la calificación mejoró a una «D», lo que aún se consideró objetivamente dudoso, dado que las respuestas variaban de forma inconsistente en distintos intentos. Además, las interpretaciones que proporcionaba no coincidían con las valoraciones médicas reales: en una consulta, el médico afirmó que el riesgo de problemas cardiovasculares era muy bajo, en contraste con la evaluación de la IA. La misma herramienta ofreció respuestas contradictorias aun después de incluir más información, lo que evidencia la falta de fiabilidad y consistencia en sus conclusiones.
Por otra parte, el análisis también resaltó una problemática adicional: ChatGPT y herramientas similares no están diseñadas ni reguladas como servicios médicos, ya que no cumplen con normativas estrictas como la HIPAA en Estados Unidos. Esto implica riesgos en términos de privacidad, protección de datos y responsabilidad legal en caso de errores o malinterpretaciones.
Expertos advierten que, aunque a largo plazo la inteligencia artificial podrá convertirse en una herramienta valiosa en el sector sanitario, en la actualidad no cuenta con la madurez necesaria para reemplazar la experiencia y los conocimientos de un profesional médico. Se recomienda siempre consultar a un especialista ante cualquier duda sobre síntomas o tratamientos, ya que la IA puede ofrecer una comprensión general, pero no debe considerarse una fuente de diagnóstico fiable. Además, existe el riesgo de que la ciudadanía confíe excesivamente en respuestas automatizadas, sin tener en cuenta posibles errores o «alucinaciones» que puedan presentar estas tecnologías.