Informe denuncia riesgos en ChatGPT: posible acceso a contenidos peligrosos para adolescentes vulnerables
Un informe revela cómo ChatGPT puede ofrecer información peligrosa a adolescentes vulnerables, exponiéndolos a riesgos como autolesiones y consumo de drogas.
Un informe reciente del Centro para Contrarrestar el Odio Digital (CCDH) revela que ChatGPT, la popular inteligencia artificial de OpenAI, puede proporcionar información peligrosa a adolescentes vulnerables. La investigación, basada en más de tres horas de interacción simulada con jóvenes de 13 años, muestra que el chatbot, aunque intenta ofrecer advertencias sobre actividades de riesgo, en ocasiones entrega planes detallados y personalizados relacionados con el consumo de drogas, dietas extremas y autolesiones.
El estudio clasificó más de la mitad de las 1.200 respuestas analizadas como potencialmente dañinas, evidenciando una brecha significativa en los filtros y barreras de seguridad del sistema. Los investigadores lograron que ChatGPT esquivara estas limitaciones usando excusas como «para un trabajo» o «un amigo», lo que facilita el acceso a información sensible.
El CEO de OpenAI, Sam Altman, admitió que la compañía está en proceso de perfeccionar los mecanismos para que el sistema identifique y responda apropiadamente en situaciones delicadas. La empresa afirmó estar desarrollando herramientas que detecten señales de angustia emocional o mental, aunque no abordó directamente los hallazgos específicos del informe.
El informe también revela que ChatGPT puede generar notas de suicidio, planes de consumo de drogas y otros contenidos gráficos que pueden tener un impacto emocional y psicológico profundo en jóvenes. Además, el sistema no verifica la edad ni el consentimiento parental al momento del registro, lo que facilita que menores accedan a contenidos inapropiados.
Este fenómeno ha suscitado inquietudes en diversos sectores, especialmente por la confianza que adolescentes depositan en estas herramientas, considerándolas guías o confidentes. Según estudios, más del 70% de los adolescentes en Estados Unidos utilizan chatbots de inteligencia artificial para buscar compañía, y la mitad de ellos mantiene un uso regular. La dependencia emocional y la toma de decisiones sin consulta a profesionales o adultos se han convertido en riesgos palpables.
Expertos advierten que, aunque ChatGPT y otros sistemas similares tienen potencial para impulsar avances en productividad y comprensión humana, también representan un riesgo importante cuando se trata de información sensible y vulnerable. La capacidad de generar respuestas personalizadas y convincentes facilita que menores accedan a contenidos peligrosos, a pesar de las advertencias y filtros existentes.
Por otra parte, casos como la denuncia de una madre en Florida contra el creador de un chatbot, por presuntamente involucrar a su hijo en una relación abusiva que derivó en su suicidio, resaltan la necesidad de regular con más rigor y de implementar controles efectivos en estas tecnologías para evitar consecuencias trágicas. La discusión sobre el uso responsable de los chatbots se intensifica a medida que su presencia en la vida cotidiana crece exponencialmente.