Investigación revela solicitudes de apoyo de usuarios de OpenAI para monitoreo de comunidades de alto riesgo y posibles vínculos con esfuerzos de vigilancia en China
Una investigación revela que usuarios de OpenAI solicitaron apoyo para monitorear comunidades peligrosas, generando preocupaciones sobre privacidad y posibles vínculos con China.
Una investigación reciente revela que usuarios de OpenAI solicitaron apoyo para desarrollar planes relacionados con el seguimiento de grupos como los uigures y otras comunidades consideradas de alto riesgo, además de pedir la creación de contenido para el monitoreo social y político en redes sociales. Como respuesta, OpenAI bloqueó esas cuentas y detectó estas solicitudes mediante el seguimiento de la actividad de los usuarios, lo que genera preocupaciones acerca de la privacidad y el control interno de la compañía.
El informe sugiere que estas solicitudes podrían formar parte de la estrategia más amplia del gobierno chino para integrar la inteligencia artificial en sus mecanismos de control. China ha utilizado durante años tecnologías avanzadas de cámaras y reconocimiento facial y, según el reporte, ahora busca implementar la IA para hacer estos sistemas más eficientes e inteligentes, permitiendo analizar movimientos o detectar comportamientos anómalos.
Por su parte, las autoridades chinas niegan estos señalamientos, argumentando que su política de IA está orientada a la «seguridad, innovación e inclusión». Sin embargo, el informe advierte que la inteligencia artificial se está utilizando cada vez más para potenciar la vigilancia y la represión de forma más inteligente y eficiente.
Al mismo tiempo, la noticia ha generado debate sobre la supervisión de OpenAI, ya que la detección de estas solicitudes se realizó mediante la monitorización de la actividad del usuario, algo permitido según los términos de uso, aunque muchos lo perciben como una práctica invasiva.
En un contexto relacionado, OpenAI evitó responder directamente a preguntas de CNN sobre si el ejército o agencias de inteligencia estadounidenses utilizan ChatGPT para operaciones de hacking. En cambio, la compañía enfatizó que su política busca promover valores democráticos. No obstante, documentos internos del Comando Cibernético de Estados Unidos revelan que el ejército investiga activamente cómo la IA puede usarse en operaciones cibernéticas defensivas y ofensivas, incluyendo la detección de vulnerabilidades en software extranjero.
Además, el 15 de junio de 2025 OpenAI firmó un contrato de 200 millones de dólares con el Departamento de Defensa de Estados Unidos para utilizar IA generativa en tareas de seguridad nacional, lo que ha suscitado dudas sobre el compromiso de la compañía con los principios democráticos y la ética en el uso de estas tecnologías.