Primero ministro de Suecia confiesa uso de inteligencia artificial en decisiones políticas, generando preocupación por la seguridad nacional

EntornoInteligencia artificial

Primero ministro de Suecia confiesa uso de inteligencia artificial en decisiones políticas, generando preocupación por la seguridad nacional

El uso de inteligencia artificial por parte del gobierno sueco plantea debates sobre seguridad, dependencia tecnológica y el futuro de la toma de decisiones políticas.

Descripción

La inteligencia artificial ha comenzado a integrarse de manera definitiva en las altas esferas del poder político, evidenciado por la reciente confesión del primer ministro de Suecia, Ulf Kristersson, quien admitió consultar herramientas como ChatGPT para obtener una «segunda opinión» en tareas de gobierno. Esta revelación ha generado polémica y preocupación entre la ciudadanía y expertos en tecnología.

Kristersson, líder del partido Moderado y cabeza de la coalición de centroderecha en Suecia, explicó al periódico Dagens Industri que tanto él como su equipo utilizan inteligencia artificial en su día a día laboral. Sin embargo, la reacción no se hizo esperar: expertos en tecnología advierten sobre los riesgos de depender de estas herramientas para decisiones políticas, especialmente cuando se trata de información sensible.

Medios nacionales como Aftonbladet han criticado duramente la postura del gobierno, sugiriendo que el uso de IA refleja una actitud de dependencia que podría poner en riesgo la seguridad del país. La divulgación también ha levantado alarmas respecto a la seguridad nacional, considerando que la información confidencial manejada por altos cargos podría filtrarse a través de plataformas no seguras.

Expertos en seguridad, como Simone Fischer-Hübner, advierten sobre los peligros de manejar datos sensibles en plataformas de inteligencia artificial debido a la vulnerabilidad al espionaje y a filtraciones. En respuesta, el portavoz del gobierno indicó que Kristersson no utiliza la IA con información que pueda poner en riesgo la seguridad y que, en general, se usa solo como referencia general.

Otra crítica central proviene de Virginia Dignum, profesora especializada en inteligencia artificial, quien señala que estas tecnologías solo reflejan opiniones preprogramadas y no poseen capacidad para tomar decisiones políticas reales. Para ella, confiar en ChatGPT para decisiones tan importantes como la dirección de un país es arriesgado, ya que la IA puede sesgar la información y generar errores, incluso inventando datos cuando no tiene acceso a información verificada.

Además, se ha revelado que aplicaciones como Strava, utilizadas por los guardaespaldas del primer ministro, podrían haber facilitado la localización y movimientos del mandatario, exponiendo riesgos mayores en materia de privacidad y seguridad. Esto ha puesto en evidencia las vulnerabilidades que implica el uso de tecnologías con potenciales implicaciones en la seguridad nacional, en un contexto en el que muchas empresas y gobiernos ya restringen su uso para evitar espionaje y filtraciones de información confidencial.