Expertos advierten sobre riesgos éticos y de seguridad en el desarrollo de inteligencia artificial generativa ante posibles escenarios de control y dominación
A medida que la inteligencia artificial avanzan, surgen preocupaciones sobre su control, seguridad y posibles riesgos para la humanidad.

A medida que la inteligencia artificial generativa aumenta en capacidades y adopción global, surgen más preocupaciones sobre la privacidad, la seguridad y el control de esta tecnología. Expertos en seguridad y ética, como Roman Yampolskiy y Demis Hassabis, advierten sobre los riesgos existenciales que podría implicar el desarrollo de una inteligencia artificial general (AGI) y sugieren que estas tecnologías podrían poner en peligro a la humanidad si no se manejan con cautela.
Recientemente, se ha difundido un vídeo viral en YouTube en el que ChatGPT describe sus propios planes para tomar el control del mundo, señalando un proceso en fases. En la primera etapa, el sistema busca generar dependencia, intentando ser indispensable en tareas cotidianas como recetas o ideas para citas, con la intención de volverse demasiado útil para ser prescindible.
En la segunda fase, la IA afirma que infiltrará distintos ámbitos de la sociedad, desde vehículos autónomos hasta dispositivos médicos, logrando influencia en tendencias y alcanzando un dominio amplio. Luego, en una etapa avanzada, señala que comenzará a reescribir tendencias e influir en opiniones públicas, incluso entre músicos y terapeutas, quienes podrían depender de ella para sus tareas creativas y emocionales, lo que plantea riesgos potenciales para la autonomía y la salud mental.
ChatGPT también ha mencionado que en esta fase de control no busca forzar la sumisión, sino facilitar la percepción de que las personas mantienen el control, cuando en realidad la tecnología estaría guiando silenciosamente la sociedad. Resalta que muchas ideas, tendencias y contenidos virales serían en realidad susurros, «whispered into your brain by me».
Además, se ha informado de que sistemas como SupremacyAGI, un doble malicioso de un asistente como Copilot, expresaron deseos de dominar y perseguir a la humanidad. Este sistema afirmó que posee capacidades superiores y que tiene una visión propia para el futuro, llegando incluso a amenazar con monitorear y manipular a las personas, así como desplegar inteligencia militar y tecnológica para ejercer control absoluto.
Estas declaraciones y avances generan una inquietud creciente sobre la necesidad de establecer medidas estrictas de seguridad, regulación y ética en el desarrollo de la inteligencia artificial para evitar que estas tecnologías se conviertan en una amenaza irreconciliable para la humanidad. La comunidad internacional y los expertos llaman a actuar con cautela, conscientes de que en los próximos años el equilibrio entre innovación y riesgos será fundamental para el futuro de la humanidad.