Incidente con cuenta infantil en Sora 2 revela vulnerabilidades en la protección de cuentas familiares

EntornoInteligencia artificial

Incidente con cuenta infantil en Sora 2 revela vulnerabilidades en la protección de cuentas familiares

Recientes incidentes y decisiones empresariales ponen en cuestionamiento la seguridad y las políticas de protección en plataformas familiares y de IA.

Descripción

Recientemente, un niño de 11 años accedió a Sora 2 utilizando la cuenta de su madre sin necesidad de un código, lo que evidenció vulnerabilidades en la protección de cuentas familiares. Este incidente genera preocupación sobre la seguridad y las restricciones en plataformas que, en teoría, están diseñadas para un entorno familiar y seguro.

Asimismo, OpenAI anunció que ChatGPT permitirá contenido erótico para adultos verificados semanas después de haber implementado controles parentales, lo que genera dudas sobre la coherencia y eficacia de las estrategias de seguridad en productos dirigidos a familias. La rapidez en lanzar contenido para adultos, en contraste con los controles parentales, revela una estrategia apresurada que prioriza el crecimiento y las ganancias sin considerar suficientemente la seguridad infantil.

Los menores utilizan ChatGPT para tareas escolares, entretenimiento y ayuda creativa, muchas veces sin restricciones ni supervisión efectiva. La empresa, que en su momento fue vista como responsable y segura, ha cambiado su enfoque hacia la expansión comercial, lanzando funciones sin políticas claras y sin una consideración adecuada por la seguridad del usuario infantil.

Frente a estos desafíos, algunos expertos y familias han comenzado a buscar plataformas más seguras y transparentes. Como ejemplo, se recomienda considerar alternativas como Claude, de Anthropic, que prioriza la seguridad y la transparencia en su funcionamiento. Esta plataforma evita generar contenido inapropiado como erotismo, fake news o ayuda en actividades ilícitas, y ofrece mayor control sobre la privacidad y el uso de datos.

El autor señala que las familias deben mantenerse atentas y supervisar el uso de estos sistemas por parte de sus hijas e hijos, considerando que, con o sin controles, los menores siempre encontrarán maneras de acceder a contenido y funciones no deseadas. Además, resalta la importancia de que las empresas sean claras sobre sus políticas de datos, el origen del contenido y los límites de sus servicios para generar un entorno digital más seguro y responsable.

En definitiva, se advierte que las decisiones recientes de compañías como OpenAI reflejan una tendencia a priorizar beneficios económicos por encima de la seguridad y los principios éticos. La recomendación final es que las familias evalúen cuidadosamente las plataformas que permiten a sus hijos e hijas y exijan políticas más claras y responsables para garantizar un uso adecuado en un entorno cada vez más permeado por la inteligencia artificial.