Incidente por uso de ChatGPT lleva a intoxicación grave por bromuro en paciente en Estados Unidos

TecnologíaInteligencia artificial

Incidente por uso de ChatGPT lleva a intoxicación grave por bromuro en paciente en Estados Unidos

Un error en una recomendación de inteligencia artificial provocó una peligrosa intoxicación por bromuro en un paciente en Estados Unidos.

Descripción

Un hombre de 60 años en Estados Unidos fue hospitalizado tras experimentar un episodio grave de psicosis e intoxicación por bromuro, derivada de una recomendación errónea de ChatGPT. Según la revista Annals of Internal Medicine: Clinical Cases, el paciente, con formación en nutrición, decidió eliminar el cloruro de sodio o sal común de su dieta y sustituirlo por bromuro de sodio, un compuesto inorgánico poco conocido pero utilizado en diversas industrias.

Tras conversar con la inteligencia artificial, el hombre adquirió la sustancia por internet y la consumió durante varias semanas. Sin embargo, tres meses después acudió a urgencias en un estado paranoico, convencido de que su vecino intentaba envenenarlo. Presentaba síntomas de deshidratación y se negaba a ingerir agua en el hospital, confiando únicamente en la que tenía en su casa.

Los médicos detectaron una grave intoxicación por bromuro, conocida como bromismo, que en el siglo XIX representó hasta el 10% de los ingresos psiquiátricos. La condición del paciente incluía alucinaciones, paranoia, alteraciones en los movimientos y problemas en la piel. Su estado empeoró en las primeras horas y trató incluso de escapar, por lo que fue ingresado en la unidad de psiquiatría. Se inició un tratamiento con antipsicóticos, hidratación intensiva y electrolitos para eliminar el exceso de bromuro, cuya concentración en sangre fue 200 veces superior a los niveles normales (entre 0,9 y 7,3 mg/l). Tras tres semanas de hospitalización, logró recuperarse.

Este caso ha generado preocupación en la comunidad médica, pues la persona había utilizado versiones antiguas de ChatGPT, como GPT-3.5 o GPT-4.0, que, según los especialistas, mencionaban el bromuro en sus respuestas sin advertencias sanitarias claras. Este incidente coincide con la reciente llegada de GPT-5, promocionado como más seguro y confiable para entornos clínicos tras obtener altas puntuaciones en evaluaciones como HealthBench y un informe elaborado por cerca de 300 médicos.

Expertos advierten que, por muy precisas que puedan parecer estas herramientas, un error mínimo puede tener consecuencias graves para la salud. Por ello, sostienen que ninguna inteligencia artificial debería sustituir la consulta con un profesional médico y que la información proporcionada en las conversaciones siempre debe ser contrastada con un especialista calificado para evitar riesgos potenciales.