Mattel y OpenAI desarrollan juguetes con inteligencia artificial, generando preocupaciones sobre seguridad infantil

TecnologíaInteligencia artificial

Mattel y OpenAI desarrollan juguetes con inteligencia artificial, generando preocupaciones sobre seguridad infantil

La integración de inteligencia artificial en juguetes infantiles plantea oportunidades innovadoras, pero también riesgos que requieren medidas de seguridad y regulación.

Descripción

Mattel ha anunciado una colaboración con OpenAI para desarrollar juguetes impulsados por inteligencia artificial, con la promesa de ofrecer experiencias de juego seguras, creativas y adecuadas para la infancia. Aunque la integración de IA en los juguetes puede hacer que estos sean más interactivos y educativos, también genera preocupaciones sobre la seguridad y la regulación de las respuestas que ofrecen a menores.

La capacidad de la inteligencia artificial para generar conversaciones puede dar lugar a situaciones impredecibles, como diálogos incoherentes, conversaciones inapropiadas o incluso peligrosas. La autoridad en la materia destaca que, aunque se implementen filtros y directrices para limitar estos riesgos, ChatGPT no fue diseñado específicamente para niños, por lo que aún puede producir respuestas imprevistas o inadecuadas.

Se enfatiza la diferencia fundamental entre usar los juguetes como herramientas controladas de juego y desarrollar una relación emocional o de confianza con ellos. La interacción con un robot o muñeco que responde de manera autónoma puede ser problemática si no se establecen límites estrictos, ya que la infancia podría absorber contenidos dañinos o extraños sin la supervisión adecuada.

Por ello, se propone que la incorporación de IA en los juguetes infantiles esté sujeta a restricciones similares a las aplicadas en programas de televisión o contenidos destinados a niñas y niños pequeños. Estas limitaciones buscan evitar que la IA genere contenidos fuera de control o potencialmente perjudiciales. La experiencia pasada con juguetes como Furbies, Elmo o Barbie, que en ocasiones tuvieron fallos o líneas inapropiadas, sirve como ejemplo de los riesgos que aún persisten.

Expertos y familias coinciden en que, aunque la IA tiene un gran potencial para potenciar el juego y la educación, es esencial que su uso esté guiado por medidas estrictas de seguridad y supervisión. La utilización de modelos como ChatGPT debe limitarse a herramientas controladas y no permitir interacciones abiertas que puedan derivar en conversaciones peligrosas o confusas para la infancia.

En definitiva, la clave está en gestionar con responsabilidad el uso de la inteligencia artificial en el entorno infantil, asegurando que su implementación sea segura, adecuada y centrada en el bienestar de la infancia. La colaboración entre empresas como Mattel y OpenAI deberá equilibrar la innovación con la protección infantil, para evitar que el avance tecnológico se convierta en un riesgo potencial.