Sam Altman describe GPT‑5 como una tecnología rápida y potencialmente riesgosa, comparándola con el Proyecto Manhattan
Sam Altman advierte sobre los riesgos de GPT‑5, comparándolo con el Proyecto Manhattan, en medio de una narrativa que combina avances y preocupaciones.
El director de OpenAI, Sam Altman, ha pintado un retrato de GPT-5 que recuerda más a un thriller que a una presentación de producto. En un reciente episodio del podcast This Past Weekend with Theo Von, describió la experiencia de probar el modelo con un tono acelerado que genera más escepticismo que la alarma que parecía querer transmitir a la audiencia.
Altman afirmó que GPT-5 «se siente muy rápido» mientras relataba momentos en los que se sintió muy nervioso. A pesar de ser la fuerza impulsora detrás del desarrollo de GPT-5, aseguró que en algunas sesiones comparó el proyecto con el Manhattan Project.
También lanzó una dura crítica a la gobernanza actual de la inteligencia artificial, sugiriendo que «no hay adultos en la sala» y que las estructuras de supervisión han quedado rezagadas respecto al desarrollo de la IA. Es una forma poco habitual de presentar un producto que promete avances significativos en inteligencia artificial general. Hablar de riesgos potenciales es una cosa, pero dar a entender que no tiene control sobre el rendimiento de GPT-5 resulta algo poco sincero.
No queda del todo claro qué fue lo que realmente inquietó a Altman. No entró en detalles técnicos y la comparación con el Manhattan Project parece excesiva. Asociar un cambio irreversible y potencialmente catastrófico con unas capacidades avanzadas de autocompletado resulta extraño. Decir que han creado algo que ni siquiera comprenden por completo hace que OpenAI parezca, cuando menos, imprudente o incompetente.
GPT-5 debería lanzarse pronto y hay indicios de que superará en mucho las capacidades de GPT-4. La «mente digital» a la que se refiere Altman podría representar un cambio en la forma en que quienes desarrollan IA ven su trabajo, pero este tipo de proyecciones apocalípticas o mesiánicas parecen exageradas. El discurso público sobre la IA ha oscilado entre el optimismo desmedido y el pánico existencial, pero un punto intermedio sería más adecuado.
Esta no es la primera vez que Altman reconoce públicamente su preocupación por la carrera armamentística de la IA. Ha declarado que la IA podría «salir muy mal» y que OpenAI debe actuar con responsabilidad sin dejar de ofrecer productos útiles. Aunque GPT-5 seguramente llegará con mejores herramientas, interfaces más amigables y un logo algo más atractivo, la cuestión fundamental seguirá siendo el poder.
La próxima generación de IA, si es más rápida, inteligente e intuitiva, recibirá aún más responsabilidad. Y, según los comentarios de Altman, eso no parece una buena idea. Incluso si está exagerando, cabe preguntarse si esta es la empresa que debería decidir cómo se emplea ese poder.
Suscríbete para recibir noticias de última hora, análisis, opinión, las mejores ofertas tecnológicas y mucho más.