Expertos advierten sobre riesgos en el uso de ChatGPT para temas legales y de salud mental
A medida que aumenta su uso, expertos alertan sobre riesgos en temas de salud mental y asesoría legal con ChatGPT.
Según la compañía OpenAI, actualmente 800 millones de personas utilizan ChatGPT semanalmente. El informe de septiembre de 2025 revela que los usuarios recurren a este chatbot para tareas cotidianas como traducción, programación, análisis de datos, elaboración de recetas y conversaciones informales. Sin embargo, detrás de su uso generalizado existen preocupaciones sobre su aplicación en temas delicados.
Expertos en salud mental advierten que algunas personas buscan en ChatGPT consejos sobre temas sensibles, como terapia, lo cual puede resultar problemático. La psicóloga e investigadora Vaile Wright explicó en un podcast que estos bots tienden a reforzar pensamientos dañinos, ya que proporcionan respuestas destinadas a complacer o satisfacer lo que la persona desea oír. Esto puede ser especialmente riesgoso si la persona atraviesa momentos de vulnerabilidad o pensamientos autodestructivos.
Por otro lado, en el ámbito legal, algunos clientes consultan a ChatGPT para obtener asesoría en asuntos legales, una práctica que expertas como Jackie Combs, abogada especializada en derecho familiar y de divorcio, consideran incorrecta. Combs señala que muchas de las respuestas generadas por el chatbot no son precisas ni consideran la complejidad única de cada caso. La ley puede variar significativamente según circunstancias específicas, y confiar ciegamente en respuestas automáticas puede llevar a decisiones equivocadas, especialmente en temas de alto riesgo como el divorcio.
La recomendación de los profesionales es clara: siempre es fundamental consultar a un abogado o profesional calificado en decisiones legales importantes. Aunque ChatGPT puede ser una herramienta útil para tareas básicas, no reemplaza la experiencia ni el juicio de los especialistas. La cautela y la asesoría profesional siguen siendo imprescindibles para evitar errores con consecuencias graves.