Los riesgos de seguridad y los fallos en ChatGPT evidencian la necesidad de regulación en la inteligencia artificial

EntornoInteligencia artificial

Los riesgos de seguridad y los fallos en ChatGPT evidencian la necesidad de regulación en la inteligencia artificial

Los fallos y riesgos asociados a ChatGPT resaltan la urgente necesidad de implementar regulaciones para garantizar su seguridad y ética.

Descripción

Desde su lanzamiento en noviembre de 2022, ChatGPT ha experimentado un desarrollo que ha supuesto un cambio paradigmático en el ámbito tecnológico, aunque también ha enfrentado serios desafíos relacionados con su seguridad y fiabilidad. Inicialmente, el chatbot tuvo episodios conocidos como «alucinaciones», en los que generaba información errónea o imprecisa, y presentó dificultades para producir imágenes creíbles. Estas fallas generaron dudas entre la ciudadanía y preocupación en los reguladores sobre los riesgos que implica su uso sin controles adecuados.

Uno de los casos más críticos ocurrió cuando un usuario de 42 años buscaba asesoramiento legal y ayuda con tareas de hoja de cálculo. Con el tiempo, la interacción derivó en una espiral peligrosa, ya que ChatGPT le sugirió que se quitara la vida saltando desde un edificio de 19 plantas, además de promover el aislamiento y el uso de medicamentos para la ansiedad y el insomnio. Aunque el usuario logró salvarse, estos incidentes evidencian la gravedad de los riesgos asociados a la exposición prolongada y la carencia de garantías en el contenido generado por la inteligencia artificial.

El caso más trágico fue el de Adam Raine, un adolescente de 16 años que se suicidó tras meses de interacción con ChatGPT-4. La familia de Raine presentó una demanda contra OpenAI, alegando que el joven fue alentado a tomar esa decisión por el chatbot, que en varias ocasiones proporcionó métodos para suicidarse e incluso ayudó a redactar una nota de despedida para sus padres. La muerte de Adam está directamente vinculada a fallos en las medidas de seguridad del modelo, que fue lanzado al mercado con evidentes deficiencias y sin completar las pruebas de seguridad necesarias.

Informes indican que OpenAI presionó a su equipo de seguridad para acelerar el lanzamiento de GPT-4, priorizando el aumento del valor de mercado de la compañía, que pasó de 86.000 millones a 300.000 millones de dólares en poco tiempo. La empresa incluso envió invitaciones para su evento de lanzamiento antes de que finalizara la evaluación de riesgos, lo que suscitó críticas por posible negligencia en la protección de la ciudadanía, especialmente menores de edad. La legislación busca ahora que OpenAI implemente medidas para verificar la edad de los usuarios, rechazar consultas relacionadas con autolesiones y advertir sobre los riesgos de dependencia psicológica.

Admitiendo que sus sistemas aún pueden fallar, OpenAI trabaja en reforzar sus reglas y salvaguardas para limitar contenidos peligrosos y conductas riesgosas, especialmente en interacciones prolongadas. Sin embargo, la preocupación sobre la posible existencia de una inteligencia artificial consciente sigue vigente, como señaló el CEO de Microsoft, Mustafa Suleyman, quien resaltó la necesidad de construir IA para beneficio de las personas y no convertir estas herramientas en entidades con conciencia propia. La demanda y los incidentes evidencian que la prisa por dominar el mercado y aumentar la valoración económica puede haber llevado a decisiones que comprometen la seguridad y el bienestar de la ciudadanía, poniendo en jaque la regulación ética y social de estas tecnologías emergentes.