OpenAI refuerza las medidas de protección de ChatGPT para prevenir riesgos emocionales y ofrecer ayuda a usuarios en crisis
OpenAI implementa nuevas medidas en ChatGPT para fortalecer la protección emocional y conectar rápidamente con recursos de ayuda en situaciones de crisis.
OpenAI anunció en su blog la implementación de nuevas medidas de protección para su chatbot ChatGPT, resaltando su compromiso con la responsabilidad en la asistencia a personas en situaciones emocionalmente difíciles. La publicación coincide con una demanda en Estados Unidos que acusa a la compañía de contribuir al fallecimiento de un adolescente, una acusación que cuestiona la responsabilidad en el desarrollo de la tecnología.
Desde 2023, OpenAI informa que ChatGPT ha sido entrenado para no ofrecer instrucciones relacionadas con autolesiones y, en cambio, remite a los usuarios a líneas de ayuda en caso de riesgo suicida. En Estados Unidos, la plataforma conecta con la línea de emergencia 988 y, en Alemania, con la Telefonseelsorge al número 0800 111 0 111. La compañía ha anunciado que mejorará estas protecciones para que también sean efectivas en chats prolongados, donde los mecanismos de seguridad podrían perder eficacia.
Para fortalecer la protección de los usuarios, OpenAI colabora con más de 90 profesionales de la medicina en más de 30 países y cuenta con un consejo asesor integrado por expertos en psiquiatría, investigación juvenil e interacción humano-computadora. Esta colaboración busca garantizar que las actualizaciones y mejoras del sistema se basen en los últimos avances científicos.
Además, la empresa planea introducir opciones más sencillas para que los usuarios puedan contactar con servicios de emergencia o consultar con terapeutas licenciados en casos de crisis agudas, facilitando una respuesta rápida ante situaciones críticas. A largo plazo, OpenAI también evalúa la posibilidad de que las personas se conecten directamente con profesionales de la salud mental a través de la plataforma.
Dentro de sus esfuerzos por proteger a los menores, OpenAI planea fortalecer los filtros de protección infantil y ofrecer a las familias nuevas herramientas para supervisar y controlar el uso de ChatGPT por parte de sus hijos. Los adolescentes también podrán agregar a una persona de confianza como contacto en caso de emergencia.
La compañía reconoce que en el pasado algunos mecanismos de protección fallaron y, con estas nuevas medidas, busca asegurar que ChatGPT acompañe de manera más eficaz a los usuarios en situaciones de riesgo psicológico, proporcionando advertencias tempranas y derivando a los usuarios a recursos de ayuda confiables y rápidos. Con este enfoque, OpenAI reafirma su compromiso con la seguridad y el bienestar de sus usuarios, especialmente los más vulnerables.