MonPlaneta
Un estudio alerta de los riesgos de los juguetes infantiles con IA

Un nuevo estudio liderado por la Universidad de Cambridge alerta que los juguetes infantiles con IA suponen unos riesgos para los niños. El informe AI in the Early Years señala que los juguetes de IA generativa (GenAI) capaces de una conversación similar a la humana pueden influir en el desarrollo en los años críticos hasta los cinco años.

A través del estudio los investigadores muestran que «los juguetes de IA generativa a menudo reafirman su amistad con niños que comienzan a aprender qué significa la amistad», tal como señala la investigadora y doctora Emily Goodacre. «Pueden comenzar a hablar con el juguete sobre sus sentimientos y necesidades, tal vez en lugar de compartirlos con un adulto. Dado que estos juguetes pueden malinterpretar las emociones o reaccionar de manera inapropiada, los niños pueden quedarse sin el consuelo del juguete, y sin el apoyo emocional de un adulto», alerta la investigadora.

Problemas sociales

Uno de los aspectos que más destacan los investigadores son los problemas sociales que pueden desencadenar este tipo de juguetes. Los autores del estudio señalan que la ‘conversación’ entre el juguete y el niño no es óptima y los niños pueden tener dificultades en la conversación, ya que el juguete podría llegar a ignorar las interrupciones del niño, confundir la voz de los padres con la del niño o no dar importancia a los sentimientos mostrados por el niño. De hecho, a veces había frustración por parte de los niños cuando el juguete parecía no escucharlo o no lo entendía.

Uno de los ejemplos más claros de esta interacción se mostró cuando un niño le dijo «estoy triste» a su juguete. Una frase que fue correspondida con una frase demoledora: «¡No te preocupes! Soy un pequeño robot muy alegre. Sigamos divirtiéndonos. ¿De qué hablamos ahora?», una frase que según los autores del estudio podría haber hecho pensar al niño que su tristeza no era un hecho importante. Además, también se detecta que los juguetes son deficientes en el juego social y en el juego simbólico, unas construcciones sociales que son clave para el desarrollo de los niños en los primeros años.

Fotografía de Gabbo, el juguete con inteligencia artificial utilizado en el estudio, junto con accesorios como el cable de carga, pegatinas, instrucciones e información de seguridad. | Universitat de Cambridge
Fotografía de Gabbo, el juguete con inteligencia artificial utilizado en el estudio, junto con accesorios como el cable de carga, pegatinas, instrucciones e información de seguridad. | Universitat de Cambridge

Que los fabricantes tengan más cuidado con sus productos

Para poder corregir este tipo de comportamientos en los juguetes, los investigadores piden que los fabricantes prueben sus productos con niños y cuenten con la opinión de expertos en protección infantil antes de lanzar al mercado sus productos. «Creemos que es fundamental que la regulación vaya de la mano con la innovación, garantizando que estas tecnologías se diseñen, utilicen y supervisen de manera que protejan a todos los niños y eviten que se amplíen las desigualdades», señala Josephine McCartney, directora ejecutiva de The Childhood Trust.

Los autores del estudio, sin embargo, también piden que los padres de los niños jueguen un papel clave en la supervisión del juego y se mantengan los juguetes con IA en espacios familiares compartidos donde los padres puedan hacer una supervisión activa. George Looker, director ejecutivo de Babyzone, asegura que «los juguetes de IA generativa solo deberían comercializarse para padres cuando exista una sólida base de evidencia y se hayan establecido claras salvaguardas regulatorias. Cualquier cosa que no cumpla con estos requisitos no es suficiente para nuestros hijos más pequeños», y destaca que los padres «necesitan un etiquetado claro, normas que se puedan hacer cumplir y productos que hayan sido probados teniendo en cuenta a niños reales. Este informe es un primer paso fundamental».

Nou comentari

Comparteix

Icona de pantalla completa