Meta ajusta las reglas de su equipo FAIR, limitando la independencia de los investigadores en la publicación de resultados
Meta modifica las políticas de acceso y publicación en su equipo FAIR, generando preocupación entre científicos y líderes en inteligencia artificial.
Meta ha implementado nuevas reglas para su equipo de investigación FAIR que ahora requieren una revisión adicional antes de publicar resultados, limitando así la autonomía de los investigadores. Hasta ahora, los científicos de FAIR podían publicar sus hallazgos de forma bastante independiente, pero la reorganización bajo la estructura de Meta Superintelligence Labs ha generado preocupación entre sus líderes científicos. Yann LeCun, uno de los pioneros en inteligencia artificial y cofundador de FAIR, consideró en septiembre incluso abandonar su cargo como científico en jefe debido a estos cambios, aunque finalmente decidió permanecer en la organización. La introducción de estas políticas refleja un giro hacia un control más estricto sobre las revelaciones, en medio de una mayor reorganización interna en Meta.
En paralelo, la Unión Europea está intensificando su estrategia para reducir su dependencia de tecnologías estadounidenses y chinas. Un borrador de nueva estrategia de IA propone impulsar plataformas europeas y promover sistemas de código abierto con una inversión de 1.000 millones € provenientes de fondos existentes. La Comisión Europea advierte sobre los riesgos derivados de la dependencia de actores geopolíticos que podrían manipular hardware, software y datos, fundamentando así el desarrollo de sistemas propios para defensa, así como modelos avanzados para ámbitos como la exploración espacial y la defensa militar.
Por otro lado, en el sector empresarial, Salesforce amplía las capacidades de Slack incorporando una API de búsqueda en tiempo real y un protocolo de contexto para facilitar la integración de agentes de inteligencia artificial. Estas herramientas permitirán a los desarrolladores crear agentes AI que interactúen de forma segura con datos de conversaciones en Slack, facilitando funciones como la actualización automática de sistemas CRM o la resolución de solicitudes de soporte sin necesidad de cambiar de aplicación.
Google ha anunciado la sustitución de su asistente por Gemini for Home, un nuevo modelo basado en procesamiento de lenguaje avanzado que mejora la comunicación natural y la capacidad de entender instrucciones complejas. La actualización también incluye integración con aplicaciones como calendario y notas, permitiendo, por ejemplo, que los ingredientes de una receta se transfieran automáticamente a las notas. Además, el navegador Comet de Perplexity, equipado con inteligencia artificial, ya está disponible para todos los usuarios, permitiendo que agentes autónomos visiten sitios web y completen tareas como reservas o compras en línea, controlando incluso las pestañas del navegador.
En el ámbito de la seguridad, Claude Sonnet 4.5 de Anthropic ha demostrado ser capaz de detectar vulnerabilidades en código con rapidez y precisión, identificando en muchos casos fallos en el primer intento y ayudando a reducir los errores en la creación de parches de seguridad. Este modelo se presenta como una herramienta potente para acelerar los análisis de seguridad en un entorno donde los atacantes también emplean tecnologías similares.
Apple, por su parte, ha retrasado la implementación de funciones avanzadas de Siri, reclamando indemnización por expectativas incumplidas. La compañía había prometido funciones basadas en inteligencia artificial que debían llegar el pasado año, pero ahora estas se posponen hasta los primeros meses de 2026. Usuarios y accionistas han presentado demandas alegando que esta demora ha provocado una caída en el valor de las acciones y pérdidas económicas.
En el mundo del arte y el entretenimiento, una figura generada por inteligencia artificial llamada Tilly Norwood ha generado controversia tras ser presentada como parte de una agencia de artistas con numerosos interesados en representarla. Actores y sindicatos como SAG-AFTRA criticaron duramente la iniciativa, argumentando que el uso de personajes creados digitalmente sin respaldo artístico válido puede dañar a profesionales del sector. La productora defiende la innovación y creatividad digital frente a las críticas.
Finalmente, en el ámbito de la tecnología aplicada a la salud, se ha revelado que las tecnologías de diseño de proteínas mediante IA pueden producir variantes peligrosas que escapan a los sistemas de control de bioseguridad tradicionales. Un estudio publicado en Science advierte que estas herramientas abren nuevas posibilidades en medicina y materiales, pero también plantean riesgos significativos en bioseguridad, ya que no se ha logrado detectar en su totalidad todas las variantes potencialmente peligrosas, incluso mediante actualizaciones de software. Esta situación representa un avance prometedor, pero también un reto importante para la regulación y supervisión de esta innovadora tecnología.