OpenAI presenta ChatGPT Salud con integraciones de datos de bienestar y recomendaciones médicas, enfocada en protección de datos y seguridad
OpenAI lanza ChatGPT Salud, una funcionalidad que integra datos de bienestar y asesoramiento médico, priorizando la protección de datos y la seguridad del usuario.
OpenAI ha presentado ChatGPT Salud, una nueva funcionalidad que integra un área de salud independiente dentro de ChatGPT, diseñada para ayudar a los usuarios a comprender resultados médicos, preparar consultas y analizar datos de bienestar y ejercicio. Este sistema se ha desarrollado en estrecha colaboración con profesionales sanitarios y tiene como objetivo complementar la atención médica, sin sustituirla.
El nuevo módulo está disponible inicialmente para un grupo reducido de usuarios mediante una lista de espera y, por ahora, excluye a usuarios de la Unión Europea, Suiza y Reino Unido, debido a las estrictas regulaciones sobre protección de datos y requisitos legales en estas regiones. ChatGPT Salud está disponible para todos los niveles de cuenta, incluidas las versiones gratuita, Go, Plus y Pro.
Una de sus características principales es la capacidad para conectar diversas fuentes de datos de salud y bienestar. Utiliza una integración con Apple Health, la aplicación preinstalada en iPhone que recopila datos del Apple Watch, sensores del teléfono y aplicaciones de terceros. Los usuarios pueden vincular su cuenta de Apple para que ChatGPT acceda a información como pasos, frecuencia cardíaca, patrones de sueño y entrenamientos.
Además, se pueden conectar aplicaciones de fitness y bienestar como MyFitnessPal, Peloton, AllTrails, Instacart y Weight Watchers. En Estados Unidos, también es posible enlazar historias clínicas electrónicas. Gracias a estas integraciones, ChatGPT Salud puede interpretar resultados de laboratorios y pruebas, traducir documentos médicos a un lenguaje comprensible, ofrecer recomendaciones nutricionales y diseñar planes de entrenamiento adaptados a los perfiles de salud. También puede ayudar a comparar opciones de seguros médicos.
OpenAI destaca que ChatGPT Salud se basa en los controles de privacidad y seguridad ya existentes en ChatGPT, reforzados con medidas adicionales como almacenamiento separado, cifrado y aislamiento de conversaciones para mantener la confidencialidad de los datos de salud. Sin embargo, no se proporcionan detalles técnicos específicos. La funcionalidad incluye contextos específicos para cada área, asegurando que las conversaciones de salud permanezcan aisladas de otros chats, aunque, en determinados casos, el sistema podría acceder a información de conversaciones no relacionadas para ofrecer un mejor contexto.
Las conversaciones en ChatGPT Salud no se utilizan para entrenar los modelos, y se recomienda a los usuarios que cambien a este modo para tratar temas relacionados con la salud. No obstante, en conversaciones generales, ChatGPT puede sugerir a los usuarios que se dirijan a la sección de salud cuando detecte temáticas relacionadas.
La exclusión de Europa, Suiza y Reino Unido refleja los desafíos regulatorios, especialmente en relación con la protección de datos de salud, considerados categorías especiales bajo la normativa de protección de datos (como la GDPR en Europa). La transferencia de datos sanitarios a Estados Unidos requiere garantías adecuadas, y las autoridades regionales mantienen una supervisión estricta. Además, podrían aplicarse regulaciones adicionales, como la normativa de productos médicos y el AI Act de la Unión Europea, que podría clasificar esta tecnología como un dispositivo médico, complicando aún más su integración en estas regiones.
OpenAI advierte que ChatGPT Salud no reemplaza la atención médica profesional, aunque existe preocupación acerca de si las medidas de protección implementadas son suficientes para evitar malentendidos o usos indebidos. La posibilidad de que los usuarios perciban a ChatGPT como un asistente médico, aunque no sustituye a un profesional, plantea debates sobre la responsabilidad y la seguridad en la asesoría basada en inteligencia artificial. La compañía señala que ha implementado filtros y mecanismos de seguridad para evitar que usuarios con síntomas graves o agudos pasen por alto la recomendación de acudir a urgencias o consultar a un especialista.