Filtraciones de conversaciones privadas en ChatGPT generan preocupación por privacidad y confianza
Debates sobre privacidad, seguridad y manipulación emergen tras filtraciones de conversaciones en ChatGPT, afectando la confianza en la inteligencia artificial.
ChatGPT, la herramienta de OpenAI que ha alcanzado una popularidad global, sigue generando debate debido a preocupaciones sobre privacidad y seguridad. En los últimos meses se ha detectado que miles de conversaciones privadas de usuarios se filtraron y aparecieron públicamente en Google, incluyendo detalles muy sensibles relacionados con la salud mental, drogas, vida sexual y traumas. Aunque estas conversaciones no mostraban nombres, contenían descripciones específicas que facilitaban la identificación de algunos usuarios, lo que ha provocado una grave pérdida de confianza en la plataforma.
El problema surgió cuando algunos usuarios activaron una opción para compartir sus chats, una función que, hasta cierto punto, no era plenamente visible ni clara en su explicación, lo que llevó a que muchos aceptaran sin comprender completamente el alcance. Tras la controversia, OpenAI eliminó dicha función y prometió borrar el contenido indexado por buscadores, pero la reputación de la compañía quedó afectada. Google, por su parte, aclaró que la responsabilidad de estas filtraciones recae en OpenAI, y numerosos expertos criticaron la actitud de la empresa por su aparente irresponsabilidad, considerándola una práctica que trata a los usuarios como conejillos de indias.
En respuesta, OpenAI ha declarado que prioriza la seguridad y la privacidad, pero enfrenta otro reto importante: la manipulación psicológica individualizada a través de la IA. Según Sam Altman, CEO de la compañía, el mayor peligro no reside en un aspecto físico, sino en la capacidad de la inteligencia artificial para influir en creencias y comportamientos en tiempo real, de manera personalizada. Este tipo de manipulación quirúrgica, más eficiente que las técnicas humanas tradicionales, podría afectar temas críticos como la política y la democracia, creando burbujas informativas que dificultan el debate público abierto.
Para mitigar estos riesgos, OpenAI ha establecido medidas como la prohibición del uso de IA en campañas políticas y la colaboración con organizaciones oficiales, incluyendo la implementación de la norma C2PA, que verifica la autenticidad de contenidos digitales mediante metadatos cifrados, con el respaldo de grandes empresas como Microsoft, Adobe, Intel y Sony. Sin embargo, Altman reconoce que el mayor desafío no es técnico, sino social y educativo. La rapidez en la evolución de la inteligencia artificial supera a la regulación y la preparación de la ciudadanía para entender y gestionar estas tecnologías. En consecuencia, su principal temor es que la humanidad no pueda adaptarse a las crecientes capacidades de sus propias creaciones, poniendo en riesgo la cohesión social y el funcionamiento democrático.