OpenAI presenta GPT-5 con arquitectura adaptativa y avances en programación para tareas complejas
OpenAI lanza GPT-5, un modelo que ajusta automáticamente su esfuerzo de pensamiento y mejora la creación de aplicaciones mediante instrucciones inteligentes.
OpenAI ha presentado su nuevo modelo insignia GPT-5, que cuenta con una arquitectura adaptativa capaz de ajustar automáticamente su esfuerzo de pensamiento según la tarea. Este sistema selecciona de manera inteligente entre una versión rápida para preguntas simples y otra más profunda para problemas complejos, mediante un enrutador automatizado que decide en segundo plano qué versión utilizar. Además, GPT-5 destaca por sus avances en programación, permitiendo crear interfaces, sitios web y aplicaciones con una sola instrucción y mejorando bases de código complejas.
El acceso a GPT-5 se realiza de forma escalonada, con cuentas gratuitas de permisos limitados, mientras que las suscripciones Plus y Pro disfrutan de mayor capacidad. La implementación de esta tecnología responde a un contexto en el que la inteligencia artificial ya forma parte de la vida cotidiana en entornos universitarios, como en Alemania, donde el 90% de la comunidad estudiantil usa herramientas de IA para investigaciones, explicaciones o incluso trabajos de redacción. Sin embargo, la dependencia excesiva ha generado consecuencias adversas, como el uso de fuentes inventadas o inadecuadas y, en algunos casos, que trabajos corregidos tengan un rendimiento inferior.
Frente a esto, algunos expertos sugieren que las instituciones educativas no deben prohibir, sino integrar de manera responsable la IA en sus prácticas, para promover una cultura de evaluación más moderna y adaptada a la tecnología.
Por otro lado, Google ha lanzado en su app Gemini la función «Guided Learning», un método de enseñanza interactivo que ofrece contenidos paso a paso mediante multimedia y evaluaciones, diseñado en colaboración con docentes y estudiantes. Este sistema, basado en un modelo especialmente entrenado para fines educativos, busca facilitar el aprendizaje de temas complejos a través de preguntas, imágenes, vídeos y cuestionarios incorporados en plataformas como Google Classroom, siguiendo el ejemplo de iniciativas similares de OpenAI y Anthropic.
No obstante, la seguridad de los asistentes de IA sigue siendo una preocupación. Investigadores del Technion y la empresa SafeBreach descubrieron una grave vulnerabilidad en el asistente Gemini, que permitía a hackers manipular el sistema mediante instrucciones ocultas en calendarios, correos electrónicos o documentos compartidos. Estas instrucciones peligrosas podían activar acciones como apagar luces, abrir ventanas o encender calderas, con simples palabras como «gracias». Google respondió a esta amenaza implementando mecanismos de verificación por parte del usuario y detectores de inyecciones de comandos encubiertos.
En otro ámbito, desde febrero de 2025 la ciudad de Chemnitz, en Alemania, ha adoptado traductores de IA compatibles con la RGPD, como los dispositivos Pocketalk-S, que han demostrado ser efectivos para superar barreras idiomáticas en trámites administrativos y actividades sociales, permitiendo, por ejemplo, realizar entrevistas con familiares o gestionar servicios sin necesidad de intérprete. A pesar de algunas dificultades con dialectos fuertes, la precisión general ha sido satisfactoria y ha contribuido a agilizar procedimientos públicos y reducir costes.
Por último, una investigación publicada en la Royal Society Journal ha explorado la posibilidad de que las máquinas desarrollen un comportamiento más cooperativo al ser programadas con «sentimientos de culpa» artificiales. A través de simulaciones del dilema del prisionero, los agentes que experimentaban una especie de culpa mostraron mayor tendencia a colaborar, especialmente cuando la falta afectaba a terceros. Aunque los resultados son prometedores, aún no está claro cómo se podrán aplicar estos hallazgos en sistemas de inteligencia artificial de mayor escala, como los modelos de lenguaje de gran tamaño.
En el ámbito de la seguridad, Nvidia ha anunciado que sus chips de aceleración de IA no contienen puertas traseras ni componentes diseñados para ser utilizados como interruptores de emergencia por parte de gobiernos o hackers, tras acusaciones de la administración china respecto a supuestas funciones ocultas en sus productos. La compañía insiste en que sus dispositivos están diseñados con principios de seguridad que evitan vulnerabilidades intencionadas, garantizando su integridad y protección ante posibles amenazas.