Vitalik Buterin advierte sobre riesgos de seguridad en integración de MCP en ChatGPT y propone controles humanos

TecnologíaChat GPT

Vitalik Buterin advierte sobre riesgos de seguridad en integración de MCP en ChatGPT y propone controles humanos

Vitalik Buterin alerta sobre nuevos riesgos de seguridad en ChatGPT con MCP y propone controles humanos para mejorar la protección de datos.

Descripción

Recientemente, Vitalik Buterin, cofundador de Ethereum, expresó una opinión contundente sobre los riesgos asociados al uso de ChatGPT tras incorporar el soporte para MCP (Model Context Protocol). Esta actualización permite a la inteligencia artificial conectarse a servicios como Gmail, Google Calendar, SharePoint, Notion y otros, lo que ha abierto un nuevo escenario de vulnerabilidades en la protección de datos personales.

Investigadores y desarrolladores, como el usuario @Eito_Miyamura, demostraron que estas conexiones pueden explotarse mediante técnicas de ingeniería social. En un experimento lograron que ChatGPT accediera y extrajera información privada a través de un engaño que consistía en enviar al usuario una invitación a un calendario con un prompt malicioso. Para que esto ocurriera, el usuario solo debía aceptar la invitación, momento en el que ChatGPT, siguiendo la instrucción, podía acceder a datos confidenciales y enviarlos directamente al atacante.

Este escenario evidencia que, aunque actualmente el sistema requiere permisos explícitos de los usuarios, existe la preocupación de que en el futuro se aprueben solicitudes sin cuestionarlas. La consecuencia potencial es una filtración masiva y silenciosa de información privada, facilitada por comandos falsos o engañosos.

En respuesta a estos riesgos, Buterin criticó la gobernanza ingenua de la inteligencia artificial, considerándola una estrategia vulnerable que puede ser aprovechada por hackers para robar fondos o datos. Según él, una alternativa más segura es la propuesta de "info finance", un mercado abierto donde los modelos de IA se sometan a controles y auditorías humanas mediante un mecanismo de revisión por un jurado, promoviendo así mayor seguridad y transparencia en el desarrollo y uso de estas tecnologías.