OpenAI lanza ChatGPT Salud, permitiendo compartir historias clínicas con un enfoque en privacidad, pero genera preocupación por riesgos y regulaciones
OpenAI presenta ChatGPT Salud, una innovación que facilita el intercambio de historias clínicas, pero que genera dudas sobre seguridad y regulación en salud.
El uso de la inteligencia artificial en el ámbito de la salud está en plena expansión y cada semana más de 230 millones de personas en todo el mundo consultan ChatGPT para temas relacionados con su bienestar. OpenAI ha anunciado una nueva función que facilita a los usuarios compartir su historia clínica con el chatbot, permitiendo entender mejor sus análisis y prepararse para futuras citas médicas. Sin embargo, esta innovación no está exenta de controversias y riesgos.
ChatGPT Salud, un espacio «privado y cifrado» dentro del asistente conversacional, ha sido diseñado junto a más de 260 profesionales del sector sanitario. Los usuarios podrán volcar sus datos médicos y conectar información proveniente de aplicaciones como Apple Health, MyFitnessPal o Peloton. Aunque OpenAI asegura que no está destinada a hacer diagnósticos, expertos en salud y tecnología advierten que esta función puede generar problemas significativos.
Los modelos de lenguaje que sustentan estos sistemas son probabilísticos; producen respuestas plausibles pero no siempre precisas o correctas. La tendencia a «alucinar», como se denomina en el ámbito técnico, puede ocasionar recomendaciones médicas incorrectas en hasta un 22% de los casos, según estudios conjuntos de Harvard y Stanford. Esto puede tener consecuencias graves e incluso poner en riesgo la vida del paciente si se siguen indicaciones erróneas.
Además, existe preocupación por la ética y la legalidad de su uso. La función todavía no está disponible en la Unión Europea, ya que no cumple con el Reglamento General de Protección de Datos (RGPD) ni con la Ley de la Inteligencia Artificial, que consideran a los sistemas algorítmicos en salud como de alto riesgo. En Europa, los datos relacionados con la salud son especialmente sensibles, por lo que su tratamiento requiere estrictos controles y consentimientos específicos.
Expertos también alertan sobre posibles brechas de seguridad y el riesgo de que datos personales puedan ser cedidos a empresas estadounidenses, disminuyendo la autonomía y privacidad de las personas usuarias. Aunque OpenAI afirma que la información compartida en ChatGPT Salud se almacenará de forma aislada y no se usará para entrenar sus modelos, la historia ha demostrado que los ciberataques a empresas del sector tecnológico son frecuentes. Un ejemplo reciente es el hackeo a 23andMe, que expuso datos genéticos de millones de personas.
Por su parte, muchas y muchos especialistas consideran que, a largo plazo, la inteligencia artificial en salud puede integrarse de forma segura en los sistemas existentes. La clave está en desarrollar soluciones que ayuden al personal sanitario en tareas como la gestión clínica, interpretación de resultados o diagnóstico, siempre garantizando el cumplimiento normativo y la protección de datos. En ese sentido, instituciones como el Hospital Sant Joan de Déu y organizaciones públicas trabajan en proyectos de IA que respetan estas normativas.
En conclusión, si bien la innovación tecnológica ofrece oportunidades para mejorar la atención médica y la gestión sanitaria, su implementación debe ir acompañada de una regulación estricta para evitar errores, proteger la privacidad y prevenir posibles daños a las personas pacientes. La tendencia señala que, en el futuro, la inteligencia artificial será una aliada segura y eficiente en el ámbito sanitario, siempre que se supervise y controle adecuadamente su desarrollo y uso.