Las autoridades de EE. UU. solicitan datos de ChatGPT en investigación por abuso infantil, marcando un caso pionero
Las autoridades estadounidenses utilizan por primera vez una orden legal para solicitar datos de ChatGPT en una investigación criminal, evidenciando nuevas facetas del uso de inteligencia artificial.
El Departamento de Seguridad Nacional de Estados Unidos (DHS) ha solicitado a OpenAI la entrega de datos y registros de conversaciones con ChatGPT mediante una orden de confiscación, marcando un caso pionero en el estado de Maine. Hasta ahora, no se conocía una orden similar para plataformas de inteligencia artificial generativa, lo que indica que las autoridades estadounidenses están empezando a emplear estas tecnologías para la recolección de pruebas en investigaciones penales.
La investigación comenzó en 2019 cuando agentes de Homeland Security Investigations (HSI), una división de la agencia de inmigración y aduanas (ICE), rastreaban a un sospechoso vinculado a al menos 15 foros en la dark web con contenido de abuso sexual infantil. Se descubrió que el sospechoso, que utilizaba ChatGPT y compartía con un informante encubierto prompts y respuestas, había empleado esta herramienta para comunicarse, generando huellas digitales conformadas por sus entradas en el chatbot.
Este caso representa la primera vez documentada en la que se emplea una técnica similar a una búsqueda en Google, conocida como «reverse AI prompt request», donde las entradas y metadatos usados en las conversaciones con ChatGPT sirvieron como huellas digitales para vincular la identidad anónima del usuario con su identidad real. Los investigadores identificaron al sospechoso, un hombre de 36 años llamado Drew H., que vivió en Alemania, trabajó en la base aérea de Ramstein y había solicitado trabajo en el Pentágono. La evidencia recopilada permitió acusarlo de conspiración para distribuir y poseer material de abuso sexual infantil.
El proceso también implicó que las autoridades pidieran a OpenAI la revelación de datos adicionales, incluyendo detalles de todas las conversaciones del sospechoso, así como su nombre, dirección y datos de pago asociados a su cuenta. Aunque OpenAI proporcionó una lista en formato Excel, la investigación no dependió sólo de esos datos, ya que en los chats el sospechoso reveló detalles personales y sobre su pasado, lo que facilitó su identificación.
Expertos como Jennifer Lynch, de la Electronic Frontier Foundation (EFF), han criticado que las empresas de inteligencia artificial deben limitar la cantidad de datos que almacenan y recopilan, dada la posibilidad de que estas tecnologías se usen como instrumentos de vigilancia masiva. Además, el uso de ChatGPT en investigaciones muestra cómo las consultas realizadas en estos sistemas pueden convertirse en huellas digitales, creando perfiles de comportamiento que pueden ser usados tanto por las autoridades como en otros contextos de seguridad.
Por su parte, OpenAI ha informado que entre julio y diciembre del último año reportaron 31.500 contenidos relacionados con material de abuso sexual infantil a la agencia de protección infantil, además de recibir 71 solicitudes de información de usuarios, accesando datos de 132 cuentas. La evidencia demuestra que estas plataformas, aunque desarrolladas para la asistencia y el entretenimiento, también pueden convertirse en herramientas de vigilancia, por lo que es imprescindible revisar y transparentar las políticas de privacidad y uso de datos de estas tecnologías.