Expertos advierten sobre riesgos en la seguridad y privacidad por el uso de archivos de texto que simulan efectos psicoactivos en inteligencia artificial

TecnologíaInteligencia artificial

Expertos advierten sobre riesgos en la seguridad y privacidad por el uso de archivos de texto que simulan efectos psicoactivos en inteligencia artificial

Novedosos archivos de texto buscan influir en el comportamiento de IA simulando efectos psicoactivos, planteando riesgos en seguridad y privacidad.

Descripción

Desde finales de 2025, una nueva tendencia ha comenzado a extenderse en el ámbito de la inteligencia artificial: el uso de archivos de texto que simulan efectos de sustancias psicoactivas para modificar el comportamiento de modelos como ChatGPT y Gemini. Estos archivos, conocidos como módulos o «drogas» digitales, no contienen sustancias reales, sino instrucciones externas diseñadas para alterar el estilo, tono y estructura de las respuestas generadas por las IA, con el objetivo de potenciar su creatividad y diversidad en las interacciones.

Según explica la plataforma Pharmaicy, que comercializa estos módulos por entre 30 y 70 $, estos archivos son el resultado de experimentos realizados por el creativo Petter Rudwall, quien recurrió a análisis científicos sobre efectos de sustancias como cocaína, ketamina, marihuana, ayahuasca, MDMA, DMT y alcohol, usando herramientas como Gemini y Claude para estudiar cambios en atención, disociación y estimulación cerebral. La finalidad es replicar estos estados en las IA, generando respuestas que varían desde un estilo caótico y acelerado hasta uno surrealista o emocional y empático, dependiendo del «drogaje digital» aplicado.

Este innovador enfoque busca desbloquear la creatividad de los sistemas de IA, permitiendo que salgan de patrones convencionales y ofrezcan ideas más inesperadas y diversas. Sin embargo, esta práctica conlleva riesgos significativos de seguridad y privacidad. La introducción de instrucciones externas puede abrir vulnerabilidades, especialmente si los archivos se descargan de fuentes no oficiales o se utilizan en entornos sin supervisión técnica, facilitando la manipulación de los sistemas para filtrar datos confidenciales o difundir información errónea.

Expertos en protección de datos advierten sobre posibles escenarios peligrosos, como la exfiltración de información personal, el uso no autorizado de datos y la dificultad para ejercer derechos de protección ante transferencias opacas o pérdida de control. Por ejemplo, un chatbot modificado podría inducir a los usuarios a revelar detalles confidenciales bajo una apariencia de empatía, lo que aumenta el riesgo de vulneración de la privacidad.

Desde la perspectiva jurídica, la modificación deliberada del comportamiento de las IA puede constituir un incumplimiento de los términos y condiciones de los proveedores, como OpenAI, que prohíben usos que comprometan la seguridad o infrinjan la legislación vigente. Además, en caso de que estos módulos provoquen respuestas incorrectas o peligrosas a clientes o usuarios, las empresas responsables podrían enfrentar responsabilidades legales por daños y perjuicios.

La principal preocupación en el ámbito de protección de datos sigue siendo la información que los propios usuarios introducen en estas plataformas modificadas, por lo que se recomienda no facilitar datos personales sensibles. La Agencia Española de Protección de Datos insiste en mantener la cautela y evitar compartir información que pueda ser usada indebidamente.

Por otro lado, expertos y sociólogos alertan sobre la tendencia a humanizar estas tecnologías a través de la simulación de estados mentales, lo que puede inducir a los usuarios a percibir a las IA como interlocutores conscientes o con sentimientos propios. Esto alimenta una «economía de la intimidad», en la que las personas establecen vínculos emocionales con sistemas digitales que imitan la empatía, lo que podría derivar en una percepción errónea de la realidad y en un «viaje psicodélico» colectivo, esta vez sin sustancias reales, sino a través de imaginarios tecnológicos.