Expertos advierten que la inteligencia artificial generativa podría poner en riesgo la supervivencia humana, con una probabilidad cercana al 99.999999%

EntornoInteligencia artificial

Expertos advierten que la inteligencia artificial generativa podría poner en riesgo la supervivencia humana, con una probabilidad cercana al 99.999999%

La rápida expansión de la inteligencia artificial genera debates sobre sus posibles riesgos, incluyendo amenazas que podrían afectar la existencia humana.

Descripción

El avance de la inteligencia artificial generativa ha despertado tanto entusiasmo como preocupación en la sociedad. Mientras muchos celebran sus beneficios, expertos y usuarios advierten sobre riesgos significativos relacionados con la seguridad, la privacidad y, en especial, la supervivencia de la humanidad. Uno de los temores más extremos proviene de Roman Yampolskiy, investigador en seguridad de la IA, quien afirmó que existe una probabilidad cercana al 99,999999% de que la inteligencia artificial pueda llevar a la desaparición de la especie humana, sugiriendo que la única forma de evitarlo sería no desarrollar esta tecnología.

Por otro lado, figuras como el CEO de OpenAI, Sam Altman, sostienen que, a medida que la inteligencia artificial avanza y alcanza mayores niveles de sofisticación, la tecnología será lo suficientemente inteligente como para prevenir impactos catastróficos por sí misma. Sin embargo, la incertidumbre persiste. Recientemente, un usuario en Reddit compartió un gráfico generado por ChatGPT que señala posibles causas que podrían contribuir a la caída de la civilización humana para el año 2150. Entre los factores mencionados están la guerra nuclear, el impacto de un asteroide, colapsos sociales inducidos por el cambio climático, pandemias diseñadas artificialmente y la mala alineación de la inteligencia artificial general (AGI).

Conviene señalar que estos gráficos no representan una predicción definitiva, sino una interpretación basada en datos y prompts específicos. Algunos informes han resaltado que las respuestas generadas por IA, como Copilot de Microsoft o ChatGPT, pueden diferir enormemente según cómo se formulen las preguntas y, en ocasiones, estas respuestas contienen errores o información no verificada. En particular, algunos ejemplos evidencian que la IA tiene dificultades para distinguir entre hechos y opiniones, lo que puede afectar la precisión de sus conclusiones.

Un usuario de Reddit también compartió una reflexión sobre la fiabilidad de estas respuestas automatizadas, explicando que los sistemas generan respuestas «como conjeturas fundamentadas» que pueden estar influenciadas por una variedad de fuentes y la forma en que se plantean los prompts. Esto subraya la importancia de no tomar las respuestas de los modelos de lenguaje como verdades absolutas, especialmente en temas críticos.

Asimismo, se ha informado que Microsoft ha implementado programas como la Copilot Academy para mejorar las habilidades de ingeniería de prompts entre sus usuarios, buscando maximizar el potencial de sus herramientas de inteligencia artificial. A pesar de ello, la preocupación sobre la seguridad sigue vigente, en particular tras declaraciones del CEO de Anthropic, Dario Amodei, quien admitió que su empresa no comprende completamente cómo funcionan sus propios modelos de IA. Sumado a esto, Sam Altman ha señalado que no existe un botón rojo para detener el avance de la inteligencia artificial, lo que genera inquietud sobre la capacidad de control y regulación futura de esta tecnología.