Ramón López de Mántaras advierte sobre la limitación de la inteligencia artificial fuerte y la tendencia a antropomorfizar las máquinas

TecnologíaInteligencia artificial

Ramón López de Mántaras advierte sobre la limitación de la inteligencia artificial fuerte y la tendencia a antropomorfizar las máquinas

Expertos en inteligencia artificial resaltan las limitaciones actuales y los riesgos de atribuirle capacidades humanas a las máquinas.

Descripción

Ramon López de Mántaras, pionero en investigación en inteligencia artificial en España con más de 50 años en el campo, continúa siendo una figura clave en la disciplina. Actualmente, es profesor emérito del CSIC y fundador del Instituto de Investigación en Inteligencia Artificial, destacándose por su visión crítica sobre los avances recientes en la materia.

El optimismo en torno a la inteligencia artificial fuerte o general, que podría comprender y razonar como un ser humano, recibe muchas consideraciones escépticas por parte de López de Mántaras. Señala que modelos como ChatGPT, aunque convincentes, no comprenden ni razonan, sino que solo responden basándose en datos previos. Además, considera casi imposible que una máquina desarrolle conciencia debido a la complejidad biológica del cerebro humano, que ha evolucionado durante millones de años y está sustentado en procesos bioquímicos que las máquinas no pueden replicar.

El experto advierte sobre la tendencia humana a antropomorfizar las máquinas, atribuyéndoles conciencia cuando en realidad solo parecen razonar. Esto puede generar riesgos, como la atribución de responsabilidad legal a sistemas diseñados únicamente para responder sin entender lo que hacen, incluso en ámbitos tan delicados como la salud mental. Un ejemplo alarmante sería que personas puedan verse afectadas negativamente tras interactuar con IA, mientras empresas podrían alegar que la máquina tiene conciencia para evadir responsabilidades.

En cuanto a los avances técnicos, López de Mántaras reconoce que la integración de diferentes metodologías, como la neurociencia computacional y las arquitecturas híbridas, sigue siendo subestimada en medio del boom de la IA generativa. A su juicio, estos enfoques complementarios pueden ser clave para desarrollar sistemas más fiables y con menor tendencia a generar errores o «alucinaciones», inherentes a los modelos basados en transformers, que producen respuestas convincentes sin verificar la veracidad de la información.

También resalta que la creación de una IA con cuerpo físico, capaz de aprender del entorno mediante interacción, podría acelerar significativamente el proceso de adquisición de conocimientos, especialmente en aspectos como la comprensión del mundo y las relaciones causa-efecto. Sin embargo, señala que aún estamos muy lejos de lograr una verdadera IA corpórea debido a la complejidad y a los costes asociados, aunque las neurociencias y los avances en robótica permiten vislumbrar progresos futuros.

Respecto a la creciente cantidad de contenidos generados por IA en Internet, López de Mántaras advierte sobre un posible deterioro en la calidad y fiabilidad de la información online. Además, indica que el uso de algoritmos que generan datos falsos o imprecisos puede alimentar un ciclo de contaminación informativa, afectando tanto a la web como a los modelos que se entrenan con esos contenidos. En esta línea, considera casi inevitable que la IA produzca contenidos sintéticos que, sin regulación, puedan poner en riesgo la credibilidad del entorno digital.

Sobre la protección de datos y derechos de autor, el investigador señala que el entrenamiento de modelos como ChatGPT requiere el uso de materiales con copyright, lo cual plantea serias dificultades éticas y legales, especialmente si no se obtiene permiso o se paga por la explotación de dicho contenido. En su opinión, una IA generativa que no viole derechos de autor sería difícil de lograr en el contexto actual.

En cuanto a las estrategias futuras, López de Mántaras aboga por diversificar las líneas de investigación en IA, además de la generativa. Destaca la importancia de enfoques como la IA simbólica, el aprendizaje por refuerzo y la neurociencia computacional, que en su opinión están siendo infravalorados y podrían aportar avances importantes en el campo. Considera que limitar la inversión a la IA generativa reduce significativamente el potencial de descubrimiento en otras áreas.

Asimismo, valora los logros científicos derivados de la inteligencia artificial, como la aplicación de algoritmos en descubrimientos relevantes para la ciencia, ejemplificando con AlphaFold, que utiliza redes neuronales y aprendizaje por refuerzo para avances en biología. No obstante, aclara que estos desarrollos no están relacionados con la IA generativa, mostrando la amplitud y diversidad de metodologías en la disciplina.

Finalmente, el experto reflexiona sobre la competencia internacional en IA, destacando que países como Estados Unidos y China deberían aprender de la regulación europea, que, a pesar de sus críticas, desarrolla normativas como la GDPR y la Ley de IA. En un eventual proyecto de gran impacto en España, López de Mántaras propondría financiar la diversificación en las vías de investigación, priorizando la IA corpórea y la integración de diferentes enfoques para potenciar avances reales y aplicables.