OpenAI trabaja en fortalecer las protecciones de ChatGPT para evitar respuestas peligrosas y ofrecer apoyo en situaciones de emergencia
OpenAI impulsa nuevas medidas para reforzar la seguridad de ChatGPT, incluyendo controles parentales y funciones de apoyo en emergencias.
Tras el reciente lanzamiento de ChatGPT-5 por parte de OpenAI, muchos han centrado su atención en sus capacidades de programación. Sin embargo, en realidad, el uso que las personas hacen de esta inteligencia artificial va mucho más allá. Diversos usuarios emplean ChatGPT como entrenador de vida, terapeuta y amigo, lo que ha llevado a OpenAI a reconocer la responsabilidad que ello conlleva.
En respuesta, la compañía ha señalado que trabaja en mejorar las salvaguardas y protecciones en conversaciones prolongadas, para evitar que el sistema ofrezca respuestas inapropiadas o perjudiciales. Entre las iniciativas se encuentran la detección y bloqueo de contenidos peligrosos, la intervención en crisis y la posibilidad de conectar a los usuarios en situaciones de emergencia con profesionales certificados. De hecho, se exploran formas de crear una red accesible desde ChatGPT que permita conectar a quienes atraviesan momentos críticos con terapeutas capacitados.
Asimismo, OpenAI anunció la próxima implementación de controles parentales para que los padres puedan supervisar y gestionar el uso de ChatGPT por parte de adolescentes. Entre las funciones previstas está la posibilidad de que los jóvenes, bajo supervisión parental, designen un contacto de emergencia confiable. De este modo, en casos de crisis agudas, ChatGPT no solo señalará recursos, sino que también podrá facilitar una conexión directa con personas capacitadas para brindar asistencia inmediata.
A pesar de estos avances, la implementación de controles efectivos avanza con lentitud en comparación con otros sistemas de inteligencia artificial que ya incorporan mayores medidas de protección y control. La introducción de estos controles parentales en ChatGPT representa un paso importante para iniciar conversaciones más amplias sobre la regulación de la inteligencia artificial y su impacto en la seguridad y bienestar de la ciudadanía.