Estudio revela que Meta.ai presenta mayor vulnerabilidad en protección de datos en plataformas de inteligencia artificial

TecnologíaMeta

Estudio revela que Meta.ai presenta mayor vulnerabilidad en protección de datos en plataformas de inteligencia artificial

Una evaluación reciente pone en evidencia las mayores deficiencias en protección de datos en plataformas de inteligencia artificial, destacando preocupantes niveles de vulnerabilidad.

Descripción

Una evaluación reciente realizada por la firma de protección de datos Incogni analizó las prácticas de privacidad de diversas plataformas de inteligencia artificial, destacando un panorama preocupante en cuanto a la protección de datos personales. Según los resultados, ChatGPT es la IA que mejor se desempeña en términos de privacidad, con un puntaje de 9,9, seguido de Mistral, que obtiene 9,8. Le siguen Grok, con 11,2, y Meta.ai, que presenta la peor calificación con 15,7. A mayor puntaje, mayor vulnerabilidad en la protección de datos.

La investigación revela que todas las plataformas utilizan datos de usuarios y fuentes públicas para entrenar sus modelos. Sin embargo, solo algunas compañías, como Anthropic, declaran formalmente no usar datos de usuario y ofrecen opciones de exclusión (opt-out) en ciertos casos. En particular, Anthropic afirma no aprovechar los datos generados por el usuario para el entrenamiento de sus modelos, a diferencia de otras empresas como OpenAI, Mistral y xAI, que permiten a los usuarios optar por no participar en el entrenamiento de forma limitada, principalmente en los prompts utilizados.

Un aspecto destacado en el informe es la falta de transparencia por parte de algunas empresas. Mientras firmas como Anthropic, OpenAI, Mistral y xAI facilitan información clara y accesible sobre sus políticas de privacidad, Google, Meta y Microsoft no presentan declaraciones uniformes ni claras respecto al uso y manejo de datos en sus plataformas de IA. En particular, Microsoft comparte los prompts con terceros, incluidos anunciantes y autoridades, dependiendo del producto o plataforma, además de recopilar datos en aplicaciones para Android e iOS, centrándose principalmente en la evaluación de la app de iOS.

La mayoría de las empresas también comparte datos con proveedores de servicios y, en algunos casos, con autoridades policiales. Por ejemplo, la evaluación de Microsoft señala que la compañía recopila y comparte datos del usuario en la app de iOS, aunque afirma no hacerlo en Android. Estos datos, que incluyen interacciones y prompts, representan un riesgo potencial para la privacidad, ya que los usuarios no siempre son conscientes de cómo sus datos están siendo utilizados y compartidos.

Ante este panorama, expertas, expertos y usuarios coinciden en que existe una necesidad imperante de mayor transparencia y regulación para proteger mejor la información personal frente a las prácticas de entrenamiento y manipulación de las plataformas de inteligencia artificial. La situación evidencia la urgencia de establecer políticas claras y uniformes en toda la industria para reducir los riesgos asociados con la recopilación y el uso de datos en el desarrollo de tecnologías de IA.