Expertos advierten sobre los riesgos del uso de inteligencia artificial en salud y la importancia de consultar profesionales
El crecimiento del uso de inteligencia artificial en salud plantea beneficios, pero también riesgos que requieren una evaluación responsable.
El uso de herramientas de inteligencia artificial, como ChatGPT, crece rápidamente en el ámbito de la salud, transformando la forma en que las personas consultan síntomas, interpretan informes médicos, comprenden diagnósticos y preparan preguntas para los profesionales sanitarios. Aunque estas tecnologías ofrecen ventajas importantes, su utilización implica riesgos que deben considerarse con cuidado.
Expertos en salud advierten que la ciudadanía recurre cada vez más a estos sistemas para buscar información sobre medicamentos, síntomas y diagnósticos, ya que estas herramientas son accesibles y ofrecen respuestas en lenguaje natural, similares a las de un amigo confiable. Además, el uso de IA puede proporcionar acompañamiento emocional, ayudando a quienes atraviesan momentos de estrés o incertidumbre, como en casos de embarazo o diagnósticos preocupantes.
Por otro lado, la calidad de la información obtenida depende en gran medida de cómo se formulen las preguntas, lo que representa un desafío para la democratización del conocimiento. La IA no reemplaza a los profesionales médicos, y su consejo puede ser superficial o incorrecto si no se tienen en cuenta factores como la edad, el género o los antecedentes de salud. La confianza en respuestas afirmativas y la interpretación errónea de los datos pueden derivar en retrasos en la atención o en decisiones equivocadas.
Uno de los riesgos más destacados es que la IA puede cometer errores por fuentes desactualizadas, sesgos en los datos o incluso «alucinaciones», cuando presenta información falsa con confianza. En temas de salud, esto puede tener consecuencias graves, como la mala interpretación de síntomas o diagnósticos erróneos, ejemplificado en casos donde una persona consulta a ChatGPT sobre una lesión sin obtener una evaluación clínica adecuada.
Los expertos también señalan que la IA carece de la capacidad para realizar diagnósticos precisos, ya que no posee experiencia clínica ni puede captar todos los matices del contexto de cada paciente. La integración de factores como antecedentes, signos específicos y exámenes físicos es esencial para una correcta evaluación médica, algo que actualmente escapa a la capacidad de estas herramientas.
Asimismo, existe preocupación por las desigualdades en el acceso y en el entendimiento de la información. Personas con menor nivel de alfabetización en salud o con condiciones complejas pueden recibir respuestas superficiales o confusas, agravando la brecha en el acceso a una atención de calidad. La confianza excesiva en respuestas automatizadas puede generar ansiedad o decisiones inapropiadas, especialmente en casos de enfermedades crónicas o múltiples condiciones.
Para un uso responsable, los expertos recomiendan entender cómo funciona la IA: que suele responder en base a la frecuencia de la información en sus datos y que esta puede estar desactualizada. Es importante verificar siempre la información obtenida, realizar preguntas claras y específicas, y no compartir datos altamente sensibles sin considerar las implicaciones de privacidad.
Se sugiere utilizar estas herramientas en tareas de bajo riesgo, como recomendaciones sobre alimentación, ejercicio o comprensión de pruebas médicas, siempre complementando y no sustituyendo la consulta con profesionales cualificados. La regla de oro es escuchar al propio cuerpo y acudir a un médico ante síntomas severos o que empeoren, pues la IA no tiene la capacidad de diagnóstico ni de evaluar la gravedad de una situación clínica.