Caso clínico advierte sobre los riesgos de seguir consejos de salud de chatbots sin supervisión médica

TecnologíaInteligencia artificial

Caso clínico advierte sobre los riesgos de seguir consejos de salud de chatbots sin supervisión médica

Un caso resalta cómo la desinformación en IA puede poner en peligro la salud, subrayando la importancia de acudir siempre a profesionales médicos.

Descripción

En la era de la inteligencia artificial, donde obtener información está a solo un clic de distancia, un caso clínico reciente pone de manifiesto los peligros de seguir consejos de salud ofrecidos por chatbots sin la supervisión adecuada de profesionales médicos. Un hombre de 60 años sufrió un episodio grave de psicosis y alucinaciones tras decidir, influenciado por conversaciones con ChatGPT, eliminar la sal de su dieta y reemplazarla por una sustancia química, el bromuro de sodio, que adquirió en internet y consideraba una alternativa segura.

Este caso, publicado en la revista médica Annals of Internal Medicine: Clinical Cases, advierte sobre los riesgos de realizar investigaciones por cuenta propia en temas de salud. El paciente, con antecedentes en nutrición, consultó a la inteligencia artificial en busca de soluciones para reducir el consumo de sal, pero terminó creyendo que el bromuro de sodio podía ser una opción viable. Motivado por esta información errónea, comenzó a ingerir esta sustancia, lo que llevó a un cuadro clínico severo.

Tras tres meses de consumo, presentaba síntomas como paranoia severa, creyendo que su vecino intentaba envenenarlo, además de sed extrema y comportamientos extraños, como negar el consumo de agua y destilar su propio líquido para eliminar el cloro. Ante estas manifestaciones, fue hospitalizado y sometido a una batería de pruebas que revelaron una concentración de bromuro en sangre de 1.700 mg/l, muy por encima del rango normal que va de 0,9–7,3 mg/l.

El bromuro de sodio, que fue común en el pasado en ciertos sedantes y productos de limpieza, fue prohibido en Estados Unidos por sus efectos tóxicos sobre el sistema nervioso. Sin embargo, en este caso su ingesta excesiva provocó intoxicación aguda, obligando a los médicos a administrar sueroterapia intensiva durante tres semanas para eliminar el tóxico del organismo y estabilizar al paciente.

Los especialistas profundizaron en las conversaciones previas del paciente con ChatGPT, constatando que modelos anteriores de la inteligencia artificial, como GPT-3.5, incluían respuestas que mencionaban el bromuro sin advertencias de salud y sin preguntar sobre el contexto específico del uso. Aunque las versiones más recientes han mejorado su capacidad para solicitar aclaraciones y advertir sobre el uso de sustancias como el bromuro, aún existe un riesgo significativo si no se interpretan con cautela las recomendaciones de estos sistemas.

Este episodio ilustra los peligros de la sobreinformación y la falta de habilidades para verificar o interpretar correctamente la información obtenida en internet y a través de inteligencia artificial. Como advierten los autores del estudio, «hacer tu propia investigación» sin el conocimiento adecuado puede tener consecuencias catastróficas, especialmente en temas relacionados con la salud. La comunidad médica insiste en que la consulta con profesionales calificados sigue siendo indispensable para garantizar decisiones seguras y fundamentadas en la atención personal.