La detección de contenido generado por IA de Google marca erróneamente una foto auténtica y certificada, poniendo en duda la fiabilidad de los sistemas de verificación

TecnologíaInteligencia artificial

La detección de contenido generado por IA de Google marca erróneamente una foto auténtica y certificada, poniendo en duda la fiabilidad de los sistemas de verificación

Un fallo en la detección de Google cuestiona la confianza en los sistemas de verificación de contenido digital y su capacidad para distinguir entre realidad y ficción.

Descripción

Recientemente se ha desvelado un incidente que pone en entredicho la fiabilidad de las tecnologías de detección de contenido generado por inteligencia artificial (IA). La compañía Google, a través de su detector SynthID, identificó erróneamente una fotografía auténtica y certificada con el estándar C2PA como si fuera una imagen producida por IA. Esta imagen, que mostraba a cuatro personas con trajes tradicionales suizos, había sido editada profesionalmente en Lightroom para resaltar a las personas en el fondo, un proceso habitual en fotografía profesional. Sin embargo, debido a la precisión del algoritmo, la máscara de edición generó patrones estadísticos considerados «antinaturales», lo que llevó al sistema de Google a marcarla como creada por IA.

Lo más sorprendente es que dicha fotografía contaba con un certificado C2PA que verificaba su origen y proceso de edición, un estándar que, además, Google co-desarrolló a través de la iniciativa C2PA junto con empresas como Adobe y organizaciones como The New York Times y Twitter. Este certificado actúa como una prueba digital y criptográfica de la autenticidad y el flujo de trabajo del contenido, diseñado para evitar falsificaciones. Sin embargo, en este caso, el sistema de Google ignoró esa validación y marcó la imagen como generada por máquina, a pesar de su certificación oficial.

Al reportar esta discrepancia a Google, la respuesta recibida en solo 60 segundos fue un categórico «Won’t fix» («No se corregirá»), indicando que este comportamiento era intencional. Desde la perspectiva de la comunidad fotográfica y de periodistas, este hecho representa un golpe a la confianza en las herramientas de detección y en la validez de los certificados de origen. La situación evidencia cómo los algoritmos de Google parecen definir qué contenido es auténtico o generado por IA sin dejar margen para el cuestionamiento o la revisión en casos como este, afectando la credibilidad de la fotografía profesional y del periodismo.

Paralelamente, en noticias más positivas para el ecosistema fotográfico, la alianza Micro Four Thirds (MFT), liderada por OM Digital Solutions (antes Olympus) y Panasonic, ha incorporado un nuevo miembro: la compañía china Sonida Digital Technology Co., Ltd. Con experiencia en la fabricación de cámaras OEM (Original Equipment Manufacturer) y ya conocida bajo su marca Songdian, Sonida planea lanzar productos compatibles con el sistema MFT. Este movimiento no solo diversifica la oferta para los usuarios de esta tecnología, considerada un competidor valiente frente a las cámaras de formato completo de Sony, Canon y Nikon, sino que también puede promover una mayor competencia en precios y variedad de productos.

Sonida, que ya produce cámaras para otras marcas y ahora desea ofrecer sus propios modelos, representa una adición significativa al ecosistema MFT, fortaleciendo su presencia con nuevos fabricantes y potencialmente innovando en la gama de opciones disponibles. La incorporación de esta empresa china podría también influir en la dinámica del mercado, beneficiando a los usuarios con más opciones y recursos para la fotografía profesional y como afición.

Para quienes desean profundizar en estos temas, el periodista Georg Berg ha documentado detalladamente el caso de la detección errónea en su plataforma Tellerrand-Stories, ofreciendo no solo una explicación técnica, sino también un análisis crítico de las implicaciones de estas tecnologías. En un contexto donde la confianza en la autenticidad de las imágenes digitales es crucial, este tipo de investigaciones es fundamental para entender las limitaciones y riesgos de los sistemas automatizados de verificación.