Apps de inteligencia artificial en Google Play y App Store generan preocupaciones por contenido sexualizado sin consentimiento

EntornoInteligencia artificial

Apps de inteligencia artificial en Google Play y App Store generan preocupaciones por contenido sexualizado sin consentimiento

Aplicaciones de IA en plataformas móviles crean imágenes sexualizadas sin consentimiento, generando preocupaciones sobre privacidad, regulación y protección de víctimas.

Descripción

Las tiendas de aplicaciones de Apple y Google Play alojan decenas de apps que utilizan inteligencia artificial para generar imágenes sexualizadas, muchas de ellas con millones de descargas y altos ingresos. Un informe reciente revela que en Google Play existen al menos 55 aplicaciones de este tipo, mientras que en la App Store hay 47. Estas apps, bajo términos de búsqueda como «nudify» y «undress», permiten transformar fotos comunes en imágenes sexualizadas o crear deepfakes sin el consentimiento de las personas involucradas.

Tras la publicación del informe del Tech Transparency Project (TPP), ambas plataformas han tomado medidas. Apple eliminó 28 aplicaciones identificadas y alertó a los desarrolladores sobre posibles eliminaciones si no corregían las violaciones a sus políticas. Algunas apps fueron restauradas tras ser ajustadas. Por su parte, Google suspendió varias aplicaciones en investigación, sin especificar la cantidad exacta, en respuesta a las actividades denunciadas.

La mayoría de estas apps provienen de China, han sido descargadas más de 700 millones de veces y generaron aproximadamente 117 millones de dólares, según datos de la firma de análisis AppMagic. La facilidad para crear contenido sexualizado con IA ha incrementado la preocupación internacional, motivando investigaciones en Europa y peticiones de legisladores para que sean eliminadas. La preocupación radica en que muchas de estas aplicaciones almacenan datos en países con leyes restrictivas, como China, aumentando el riesgo de retención y uso indebido de información personal.

Especialistas y autoridades indican que estas apps no solo violan las políticas de las plataformas, sino que también representan un peligro significativo para la privacidad y los derechos de las víctimas. Por ejemplo, CNBC documentó la creación de deepfakes sexuales sin consentimiento de más de 80 mujeres mediante servicios en línea. Organismos internacionales y legisladores, como senadores de Estados Unidos, han solicitado la eliminación de estas apps, argumentando que fomentan la sexualización no consentida y violan los términos de uso de las tiendas.

En respuesta a la problemática, tanto Apple como Google han reforzado sus políticas y continúan investigando. Sin embargo, los críticos señalan que estas plataformas aún permiten la circulación de aplicaciones que facilitan la creación y distribución de contenido sexualizado sin consentimiento, poniendo en jaque su compromiso con la seguridad y protección de la ciudadanía. Mientras tanto, organizaciones y autoridades trabajan para frenar la expansión de estas apps nocivas y proteger a las potenciales víctimas.