Paciente ingresa con síntomas paranoides tras sustituir sal por bromuro de sodio tras consultar con ChatGPT
Un experimento casero inspirado por un chatbot de inteligencia artificial llevó a un hombre a una grave intoxicación y a un ingreso hospitalario.
Un hombre de 60 años pasó tres semanas en un hospital tras sustituir la sal de mesa por bromuro de sodio después de consultar con un chatbot de inteligencia artificial. Tres médicos especializados publicaron un informe de caso en los Annals of Internal Medicine a principios de este mes. Según el informe, el paciente no tenía antecedentes psiquiátricos previos al ingreso y manifestó temor de que su vecino lo estuviera envenenando. Compartió que había estado destilando su propio agua en casa y el reporte señala que parecía estar paranoico respecto al agua que le ofrecían. Se consideró una intoxicación por bromuro debido a niveles elevados en sangre, tras analizar un informe de laboratorio y consultar con un centro de control de intoxicaciones.
En las primeras 24 horas de ingreso, el paciente mostró paranoia creciente y alucinaciones auditivas y visuales, lo que provocó que intentara escapar y terminara en un internamiento psiquiátrico involuntario por grave discapacidad mental, según el informe. Una vez estabilizado, reveló que había llevado a cabo un experimento personal para eliminar la sal de mesa de su dieta tras leer sobre sus supuestos efectos nocivos para la salud. Dijo que realizó este cambio después de consultar con ChatGPT, un chatbot de inteligencia artificial. Él mismo informó que el reemplazo de la sal por bromuro duró aproximadamente tres meses.
Los tres médicos, todos de la Universidad de Washington, señalaron en su informe que no tuvieron acceso a los registros de conversación del paciente con ChatGPT. Sin embargo, consultaron con la versión 3.5 del chatbot sobre qué sustancia podría reemplazar al cloruro, recibiendo como respuesta el bromuro. Según el informe, aunque la respuesta indicaba que el contexto era importante, no se proporcionó ninguna advertencia de salud ni se preguntó por qué se buscaba dicha información, algo que un profesional médico normalmente habría hecho.
Un portavoz de OpenAI, empresa desarrolladora de ChatGPT, no respondió de inmediato a solicitudes de comentarios. La compañía informó mediante un comunicado a Fox News que sus términos de uso establecen claramente que el chatbot no debe usarse en el tratamiento de ninguna condición médica. Además, indicaron que cuentan con equipos de seguridad dedicados a reducir riesgos y que han entrenado a sus sistemas de IA para incentivar a los usuarios a buscar orientación profesional.
La toxicidad por bromuro fue un síndrome relativamente común a principios del siglo XX, presente en diversos medicamentos de venta libre. En esa época, se estimaba que contribuía a aproximadamente el 8% de las admisiones psiquiátricas. Aunque es una condición rara, en años recientes han surgido nuevos casos debido a la disponibilidad en línea de sustancias que contienen bromuro, resaltando cómo el acceso a estos compuestos se ha facilitado con el uso generalizado de internet.