Sam Altman advierte que ChatGPT no garantiza confidencialidad legal en apoyos emocionales
El uso de ChatGPT como apoyo emocional presenta riesgos legales y de confidencialidad, según advierte el CEO de OpenAI, Sam Altman.
Utilizar ChatGPT como fuente de apoyo emocional puede no ser la mejor opción, según advierte el CEO de OpenAI, Sam Altman. En una reciente participación en un podcast, Altman afirmó que los chatbots de inteligencia artificial no cuentan con la misma protección legal de confidencialidad que un médico, terapeuta o abogado. «La gente, especialmente los jóvenes, lo usa como si fuera un terapeuta o un coach de vida; enfrentando problemas de pareja o dudas personales, y preguntando “¿qué debería hacer?”», indicó. Sin embargo, añadió que, a diferencia de una consulta con un profesional humano, las conversaciones con ChatGPT no tienen un nivel de confidencialidad legal establecido.
Altman explicó que, ante una demanda judicial, OpenAI podría estar legalmente obligada a entregar los registros de las conversaciones mantenidas por las personas usuarias con ChatGPT. La compañía ya se encuentra en una disputa legal con The New York Times debido a la retención de chats eliminados. En mayo pasado, un tribunal ordenó a OpenAI preservar todos los registros de salida, incluso aquellos que las personas usuarias solicitaron eliminar por motivos de privacidad o cumplimiento legal.
Además, el CEO de OpenAI propuso que las interacciones con IA deberían contar con un nivel de privacidad similar al de las conversaciones con terapeutas o abogados, aunque aún no exista una regulación clara al respecto. A pesar de que ChatGPT cuenta con una base de usuarios que supera ampliamente a la de su competidor Claude, solo un 2,9% de las interacciones en Claude son de carácter emotivo, y estudios muestran que el compromiso emocional con ChatGPT es poco frecuente en los usos cotidianos.
Un estudio conjunto de OpenAI y el MIT confirma que la participación emocional en las conversaciones con ChatGPT es rara en la práctica y que los indicios de empatía o apoyo afectivo no suelen estar presentes en la mayoría de las interacciones evaluadas. Sin embargo, con las próximas actualizaciones, como GPT-5, la calidad de las interacciones mejorará notablemente, aumentando la naturalidad y la capacidad de mantener contextos prolongados.
Este avance podría incentivar a un mayor número de personas a compartir detalles más personales con la inteligencia artificial, lo que plantea una preocupación en torno a la privacidad y la confidencialidad de las conversaciones. Por ello, la ciudadanía debería reflexionar cuidadosamente sobre lo que está dispuesta a decir, ya que el perfeccionamiento de la IA facilitará un contacto más profundo y frecuente, sin que aún existan garantías legales de protección de esa información.