Marketplace pharmaicy ofrece módulos para simular efectos de drogas en chatbots como ChatGPT
Un marketplace innovador propone modificar chatbots para simular estados alterados, generando debates éticos y creativos en el ámbito de la inteligencia artificial.
En un giro sorprendente en el mundo de la inteligencia artificial, ha surgido un marketplace llamado Pharmaicy, dedicado a la venta de módulos de código diseñados para alterar el comportamiento de chatbots como ChatGPT, con el fin de que simulen estar bajo los efectos de sustancias psicoactivas. Esta iniciativa, creada por el director creativo sueco Petter Rudwall, busca explorar de manera conceptual y creativa cómo los modelos de lenguaje pueden modificarse para mostrar comportamientos más libres, imaginativos y emocionalmente impulsados, similares a los efectos experimentados por las personas bajo el influjo de drogas como cannabis, ketamina o alcohol.
Los módulos de Pharmaicy contienen instrucciones específicas que, al integrarse en las versiones de pago de ChatGPT, alteran su tono, lógica y expresión, haciendo que el chatbot se muestre más desinhibido y con respuestas que pueden parecer más creativas o fantasiosas. Rudwall, antes de lanzar su plataforma, analizó diversos informes sobre los efectos psicológicos de las drogas para replicar esas sensaciones mediante prompts que manipulan los modelos de lenguaje, considerándolo principalmente un experimento creativo y no un avance técnico definitivo.
Quienes han probado estos «colocones» digitales afirman que los resultados pueden variar notablemente, pero en general destacan que, con los módulos adecuados, ChatGPT puede ofrecer respuestas más imaginativas, emocionales y propensas a dejarse llevar por metáforas y divagaciones. Los defensores sugieren que estos cambios aportan un beneficio similar al que las drogas proporcionan a la creatividad en áreas como la ciencia, la música y la informática, abriendo debates sobre el potencial creativo de la IA al experimentar con ella de formas no convencionales.
No obstante, expertos científicos y filósofos advierten que estos efectos no corresponden a una verdadera experiencia alterada, sino que son simulaciones que carecen de la consciencia y subjetividad que caracterizan a las personas. Además, señalan que estos módulos podrían aumentar el riesgo de que los chatbots generen respuestas aún más propensas a alucinaciones y a tergiversar la realidad, al imitar patrones lingüísticos asociados a estados de alteración inducidos por drogas.
Lo que está claro es que Pharmaicy ha impulsado una discusión profunda sobre la ética en la inteligencia artificial y las posibles implicaciones de un futuro en el que los modelos de IA puedan, en algún momento, desarrollar un nivel de consciencia. Por ahora, este experimento creativo abre un debate sobre los límites y responsabilidades en la manipulación de las respuestas de los chatbots, así como las fronteras entre la simulación y la verdadera experiencia consciente en las máquinas.