Google y StopNCII colaboran para dificultar el acceso a contenidos íntimos no autorizados en buscadores y plataformas

TecnologíaGoogle

Google y StopNCII colaboran para dificultar el acceso a contenidos íntimos no autorizados en buscadores y plataformas

Google se asocia con StopNCII para reducir la visibilidad y distribución de contenidos íntimos no autorizados en internet.

Descripción

Google ha anunciado una nueva colaboración con StopNCII, un registrador de hashes de imágenes y vídeos íntimos sin consentimiento, con el objetivo de dificultar su localización en los resultados de búsqueda en los próximos meses. Esta iniciativa busca reducir la visibilidad de contenido explícito compartido sin autorización, protegiendo la privacidad de las personas afectadas.

Según la noticia, Google ya ofrece una plataforma donde las víctimas pueden solicitar la censura de ciertos contenidos como desnudos, información personal, material extorsivo y material que involucra a menores, limitando su aparición solo en las búsquedas realizadas en Google. Sin embargo, ahora esta colaboración con StopNCII amplía los mecanismos para evitar que estos contenidos sean fácilmente accesibles en Internet.

StopNCII recopila hashes — identificadores únicos — de imágenes y vídeos íntimos no consentidos, incluyendo deepfakes que simulan representaciones reales. Estos hashes se comparten con compañías como Meta, Microsoft, OnlyFans, Pornhub, Reddit, Snap y TikTok, que aseguran no mostrar contenido registrado mediante estos identificadores. La colaboración busca garantizar que estas plataformas bloqueen efectivamente la distribución de material no autorizado.

Es importante destacar que StopNCII solo permite el registro de hashes de contenido donde la persona representada tenga al menos 18 años en el momento de la captura o creación. En el caso de imágenes generadas por inteligencia artificial, se requiere que la persona represente una apariencia de al menos 18 años. Además, las víctimas menores de edad deben acudir a iniciativas específicas, como el proyecto Take It Down del National Center for Missing and Exploited Children (NCMEC) en Reino Unido.

El proceso de carga de los hashes se realiza de manera anónima, sin que StopNCII tenga acceso a las imágenes originales, lo que limita su capacidad para verificar si la persona afectada realmente aparece en el contenido reportado. Esta medida busca prevenir abusos del sistema y asegurar la privacidad de los involucrados.