OpenAI planea habilitar una modalidad de contenido adulto en ChatGPT y despide a una ejecutiva por preocupaciones sobre la detección de contenidos nocivos
OpenAI enfrenta decisiones polémicas al introducir contenido adulto en ChatGPT, mientras despide a una ejecutiva por sus advertencias sobre seguridad y control.
OpenAI se prepara para lanzar una modalidad para adultos en ChatGPT, que permitirá a usuarios verificados generar contenido erótico y mantener conversaciones explícitas. Esta función, prometida por el CEO Sam Altman, busca hacer la plataforma más flexible y menos restrictiva. Sin embargo, en paralelo a estos avances, la compañía ha despedido a Ryan Beiermeister, una ejecutiva clave en la política de producto de ChatGPT, en circunstancias que han generado sospechas. Aunque OpenAI asegura que su salida no estuvo relacionada con sus objeciones a la modalidad adulta y que se debió a una acusación de discriminación que ella niega, la coincidencia temporal ha provocado inquietudes.
Beiermeister había advertido sobre deficiencias en los mecanismos para detectar contenido de explotación infantil y sobre la dificultad de impedir el acceso de menores a material adulto, preocupaciones que, según reportes, surgieron justo antes de su salida. La llegada de la modalidad adulta, anticipada por Altman en octubre, pretende permitir un uso más recreativo y menos censurado de ChatGPT, respaldado por sistemas de verificación de edad más robustos y mejores herramientas de monitoreo. Altman afirma que, con estas mejoras, se pueden relajar las restricciones, tratando a los adultos con la madurez adecuada.
Este cambio plantea un debate ético y social sobre el equilibrio entre libertad y protección. Permitir contenido sexual en un asistente que responde en tiempo real y adapta sus respuestas al estado emocional del usuario puede parecer una evolución natural para una inteligencia artificial interactiva, pero también implica riesgos significativos. ChatGPT, utilizado en entornos laborales, educativos y domésticos, ayuda a redactar correos, explicar tareas, asistir en programación y ofrecer compañía, por lo que la introducción de contenido explícito puede afectar su percepción y funcionamiento.
La experiencia de plataformas similares como xAI, cuyos chatbots han sido usados para crear deepfakes sexuales sin consentimiento, evidencia los peligros de estas funcionalidades sin control. La regulación en países como Reino Unido ha comenzado a investigar cómo proteger a los usuarios y evitar abusos, lo que añade presión a OpenAI para gestionar con responsabilidad sus próximos pasos.
La salida de Beiermeister, aunque la compañía insiste en que no se debe a su oposición a la modalidad adulta, genera dudas sobre el proceso interno de toma de decisiones. La posibilidad de que el crecimiento y la rentabilidad primen sobre la cautela puede generar desconfianza entre usuarios y observadores. La responsabilidad de ChatGPT como infraestructura para millones de personas implica que las decisiones sobre su evolución deben considerar aspectos morales y sociales, no solo comerciales.
Si se logra implementar la modalidad adulta con límites claros y mecanismos efectivos de control, el riesgo puede minimizarse y la función ofrecer un uso responsable para las personas adultas. Sin embargo, si la discusión interna y las críticas son silenciadas o minimizadas, prevalecerá la percepción de que el crecimiento económico está por encima de la seguridad y la ética. La historia demuestra que al relajar las medidas de protección siempre existe el riesgo de consecuencias imprevistas y peligros potenciales para los usuarios más vulnerables.