Estudio en Alemania revela que la mitad de los polacos confían en chatbots para temas de salud

TecnologíaCiberseguridad

Estudio en Alemania revela que la mitad de los polacos confían en chatbots para temas de salud

Un estudio en Alemania muestra la creciente confianza en chatbots para consultas de salud, aunque también surgen preocupaciones por su seguridad y precisión.

Descripción

Un estudio reciente realizado en Alemania revela que la mitad de los polacos confía en los chatbots para consultar temas relacionados con la salud. Este fenómeno refleja un cambio en la percepción y el uso de estas tecnologías, que cada vez se integran más en la gestión del bienestar personal. En campañas promocionales, como la de OpenAI bajo el lema «Controle su salud con confianza», se muestran diversos casos de usuarios que utilizan ChatGPT para analizar información médica, preparar citas, gestionar enfermedades crónicas o recibir apoyo durante terapias contra el cáncer. Además, muchas personas emplean estos asistentes para planificar ejercicios, verificar la composición de ropa, analizar datos propios de salud, comprender mejor sus resultados médicos o preparar conversaciones con profesionales sanitarios.

El uso de chatbots en el ámbito de la salud también ha generado controversias y preocupaciones, incluyendo demandas legales y críticas públicas. Se han reportado incidentes graves, como un caso en el que consejos erróneos de un chatbot condujeron a daños físicos y psicológicos en usuarios e incluso a un supuesto suicidio vinculado a recomendaciones incorrectas. Estos errores, que en algunos casos se han producido por simples errores tipográficos, pueden tener consecuencias peligrosas y comprometidas para la salud, lo que ha llevado a ajustes y restricciones en los modelos de IA para reducir riesgos en temas sensibles.

Aun con los beneficios, la experiencia ha demostrado que los consejos inadecuados de los chatbots pueden causar daños considerables. Algunos usuarios han sufrido intoxicaciones, como una persona que, confiando en una recomendación del asistente, padeció una intoxicación por bromuro que le provocó una psicosis, o individuos que han sido reforzados en ideas delirantes tras conversar con estas inteligencias artificiales. Ante estos riesgos, OpenAI ha implementado mejoras en sus modelos, incluyendo filtros de seguridad más estrictos y automáticos para temas delicados, aunque aún persisten desafíos para garantizar consejos siempre precisos y seguros.