Sam Altman recomienda limitar y supervisar el uso del nuevo ChatGPT Agent debido a vulnerabilidades existentes
El nuevo ChatGPT Agent ofrece capacidades avanzadas, pero requiere supervisión y límites estrictos para evitar riesgos y vulnerabilidades potenciales.
El ChatGPT Agent combina modelos anteriores, capacidades de procesamiento de datos y habilidades lingüísticas de ChatGPT, ofreciendo un rendimiento avanzado en tareas complejas. Sin embargo, según advierte Sam Altman, su uso debe ser limitado y con precaución, ya que aún presenta riesgos y vulnerabilidades que requieren mayor estudio y mejora antes de utilizarse para propósitos de alto nivel o con datos sensibles.
Altman señala que el agente puede realizar tareas extensas, como analizar datos y crear presentaciones, pero enfatiza la importancia de restringir su acceso solo a lo estrictamente necesario para completar una tarea. Por ejemplo, se recomienda limitarlo a permisos como el acceso al calendario y evitar permisos que permitan la compra de productos o la divulgación de información confidencial, como correos electrónicos. Esto último, advierte, podría exponer datos sensibles ante posibles ataques maliciosos.
El CEO de OpenAI también destaca que actores malintencionados podrían intentar engañar al agente mediante correos electrónicos falsos o instrucciones maliciosas, facilitando así la divulgación de datos o el acceso indebido. Aunque se han implementado medidas de seguridad, su eficacia aún no está garantizada debido a vulnerabilidades comunes en modelos de inteligencia artificial, como instrucciones encubiertas o datos contaminados.
Altman insiste en que, por ahora, el ChatGPT Agent debe emplearse bajo supervisión humana y en entornos controlados, por ejemplo para gestionar tareas de organización personal o asistir en búsquedas específicas, pero sin permitir que actúe de manera autónoma. La clave está en limitar la exposición de información y en seguir investigando para mejorar su seguridad antes de un uso más amplio y sin restricciones.