Académicos acusan a Ursula von der Leyen de exagerar las capacidades de la inteligencia artificial y apoyar a los gigantes tecnológicos

EntornoUnión Europea

Académicos acusan a Ursula von der Leyen de exagerar las capacidades de la inteligencia artificial y apoyar a los gigantes tecnológicos

Académicos y expertos alertan sobre las controversias en torno a las afirmaciones de la presidenta de la UE sobre la inteligencia artificial y su impacto en la regulación.

Descripción

La presidenta de la Comisión Europea, Ursula von der Leyen, está siendo acusada de replicar acríticamente el bombo publicitario que exagera las capacidades de la inteligencia artificial. Más de 70 académicos, ingenieros y científicos computacionales de todo el mundo han publicado esta semana una carta abierta en la que denuncian que la cara visible de la Unión Europea está haciendo el juego a los gigantes tecnológicos que están detrás de productos de IA tan populares como ChatGPT, de OpenAI; Gemini, de Google, o Grok, de xAI, propiedad de Elon Musk.

La polémica surgió hace meses, cuando Von der Leyen afirmó que la inteligencia artificial podría igualar el razonamiento humano ya en 2024, una afirmación que no cuenta con respaldo científico ni evidencia que permita prever tal logro en ese plazo. La propia presidenta de la UE hizo eco de una promesa reiterada desde Silicon Valley, sin que existan señales claras de que esa «superinteligencia» sea factible en el futuro cercano.

Los críticos advierten que estas declaraciones de optimismo desmedido son utilizadas por las empresas tecnológicas para atraer inversiones y concentrar aún más poder, en medio de una burbuja de entusiasmo por la IA. La estrategia también puede tener consecuencias negativas, como la formulación de políticas públicas perjudiciales, el malgasto de fondos públicos y la complicidad en los daños potenciales que puede generar la tecnología.

Además, la Comisión Europea ha sido criticada por usar herramientas de IA en tareas oficiales, como responder a consultas públicas con enlaces generados automáticamente por ChatGPT. Organizaciones en defensa de los derechos civiles, como el Irish Council for Civil Liberties, argumentan que esta práctica compromete la precisión y veracidad de la información ofrecida a la ciudadanía, ya que los sistemas probabilísticos pueden generar respuestas incorrectas o inexactas.