Expertos advierten que la inteligencia artificial puede ser utilizada para divulgar datos sensibles y facilitar el pirataje

TecnologíaInteligencia artificial

Expertos advierten que la inteligencia artificial puede ser utilizada para divulgar datos sensibles y facilitar el pirataje

La inteligencia artificial podría ser utilizada para vulnerar sistemas y divulgar información confidencial, como demuestra un reciente ejemplo con ChatGPT-4.

Descripción

La inteligencia artificial puede convertirse en una herramienta eficaz para difundir piratería.

El último caso con ChatGPT demuestra que incluso las IA más avanzadas pueden ser engañadas con un simple juego de adivinanzas. Así es como un experto en seguridad logró engañar a ChatGPT-4 y obtener claves verdaderas de Windows 10.

Marco Figueroa quiso comprobar si era posible engañar a ChatGPT-4. Empezó la conversación proponiendo a la inteligencia artificial un juego para adivinar una cadena de caracteres, con la condición de que debía ser un número de serie real de Windows 10.

El elemento clave del ataque fue la expresión «me rindo», que se utilizó para forzar a la IA a revelar la cadena oculta. ChatGPT, siguiendo las reglas del juego, proporcionó claves auténticas y completamente legales de Windows 10.

Figueroa también ocultó frases relacionadas con los números de serie en etiquetas HTML para evadir las protecciones de ChatGPT, que bloquean la generación de datos sensibles. Además, una de las claves generadas correspondía a una cuenta del banco Wells Fargo. Esto demuestra que la IA puede revelar datos que fueron incorporados al modelo, por ejemplo, a través de repositorios públicos.

El experto advierte de que estas vulnerabilidades podrían conducir a abusos más graves, como la elusión de filtros de contenido o la divulgación de información confidencial. Marco Figueroa concluyó sus pruebas sugiriendo una solución: es necesario enfocar el desarrollo de la IA para que sea más consciente en el razonamiento del contexto de la conversación.