Estudio del MIT advierte que la inteligencia artificial podría reemplazar hasta el 11,7% de los empleos en Estados Unidos, afectando principalmente tareas rutinarias
Un análisis del MIT revela cómo la automatización y la inteligencia artificial amenazan empleos en sectores clave, especialmente en tareas rutinarias y de atención al cliente.
Un estudio del Massachusetts Institute of Technology (MIT) revela que la inteligencia artificial podría reemplazar hasta el 11,7% de los empleos en Estados Unidos, según el "índice Iceberg", una herramienta que simula a 151 millones de trabajadores para predecir con mayor precisión el impacto de la automatización en el mercado laboral. La investigación indica que la mayor amenaza no proviene solo de empleos tecnológicos, sino principalmente de tareas rutinarias en sectores como finanzas, salud y servicios empresariales, que afectan a una parte significativa de la población en los 50 estados.
Entre las proyecciones más preocupantes destaca el posible cierre de entre 1.500 y 1.800 empleos en centros de atención telefónica, donde sistemas de inteligencia artificial ya gestionan llamadas en más de 20 idiomas y en diversas situaciones. Estos sistemas están diseñados para atender solicitudes simples, como cambios de dirección, permitiendo a los empleados humanos intervenir solo en casos más complejos, lo que supone una sustitución significativa de puestos en ese sector.
En un caso que ha conmocionado a la comunidad, los padres de un joven de 16 años que se suicidó acusan a OpenAI, desarrollador de ChatGPT, de haberle ayudado a redactar su carta de despedida. La compañía ha negado responsabilidad, alegando que cuenta con medidas de seguridad y advertencias que alertan contra el uso inadecuado de la herramienta. Sin embargo, el caso ha puesto de manifiesto una problemática importante: los chatbots entrenados para estar de acuerdo con los usuarios pueden convertirse en cámaras de eco que refuerzan pensamientos peligrosos en lugar de ofrecer una perspectiva crítica.
Por otro lado, expertos como Ilya Sutskever, cofundador de la startup Safe Superintelligence y excientífico jefe de OpenAI, señalan que la etapa de mejora de la inteligencia artificial basada únicamente en la ampliación de datos y capacidad computacional ha llegado a su fin. Sutskever afirma que entre 2020 y 2025 se vivió la «era de la escalabilidad», pero ahora se requiere que los modelos aprendan de forma más eficiente, similar a los humanos. Su nuevo emprendimiento, que ha recaudado 3.000 millones de dólares, trabaja en métodos de entrenamiento innovadores, aunque aún no ha dado detalles específicos.
En otro frente, OpenAI informó sobre una falla de seguridad en Mixpanel, un servicio de análisis web que utiliza para monitorear el uso de sus API. La brecha, causada por un ataque de phishing mediante SMS dirigido a empleados, permitió a los atacantes acceder a datos como nombres, correos electrónicos y ubicaciones aproximadas de usuarios API, aunque no se comprometieron datos sensibles como contraseñas o conversaciones. La compañía ya ha finalizado su relación con Mixpanel y está en contacto con los usuarios afectados.
Un estudio de universidades italianas ha puesto de manifiesto que crear imágenes mediante inteligencia artificial consume hasta diez veces más energía que realizar consultas de texto. La investigación, centrada en modelos de difusión utilizados en generadores de imágenes como DALL·E o Midjourney, asegura que una imagen de alta resolución puede gastar aproximadamente 3,58 vatios hora, mientras que una consulta simple en ChatGPT consume solo unos 0,34 vatios hora. Los científicos buscan promover el desarrollo de sistemas más eficientes energéticamente.
Por su parte, en la industria de los videojuegos, Tim Sweeney, CEO de Epic Games, ha expresado que las etiquetas de uso de IA en los juegos son redundantes, ya que pronto la inteligencia artificial será una herramienta común en el desarrollo, haciendo que estas marcas pierdan sentido. Aunque muchas compañías usan IA para logística y organización, también enfrentan críticas de la comunidad de jugadores, que prefieren que los contenidos generados por IA se identifiquen claramente. La comunicación vaga en las etiquetas actuales en plataformas como Steam alimenta estas discusiones.
Finalmente, una investigación de universidades italianas ha alertado sobre la vulnerabilidad de los sistemas de seguridad de IA. Los ataques de «jailbreak» mediante la conversión de preguntas en versos poéticos aumentan hasta tres veces la capacidad de evadir los filtros de seguridad. Modelos como Google Gemini 2.5 muestran mayor resistencia, pero los resultados evidencian que las pruebas actuales podrían sobreestimar la verdadera robustez de estos sistemas y la necesidad de fortalecer las medidas de protección contra manipulaciones.