Son adorables, incluso tiernos, y prometen enseñanza y compañía, pero los juguetes de inteligencia industrial no son seguros para los niños, según grupos defensores de niños y consumidores que instan a los padres a no comprarlos durante la temporada navideña.
Juguetes con ChatGPT de OpenAI
Estos juguetes, comercializados para niños desde los 2 abriles, generalmente funcionan con modelos de IA que ya han demostrado ser perjudiciales para niños y adolescentes, como el ChatGPT el OpenAIsegún un aviso publicado el jueves por el rama de defensor de menores Fairplay y firmado por más de 150 organizaciones y expertos individuales, como psiquiatras infantiles y educadores.
“Los graves daños que los chatbots de IA han infligido a los niños están adecuadamente documentados, incluyendo el fomento del uso obsesivo, perdurar conversaciones sexuales explícitas y alentar comportamientos inseguros, violencia contra otros y autolesiones”, alertó Fairplay.
Lea todavía: Meta AI en WhatsApp: por qué tantos usuarios quieren eliminarla y cómo disminuir su presencia
Configurando cerebros
Los juguetes de IA, fabricados por empresas como Curio Interactive y Keyi Technologies, a menudo se comercializan como educativos, pero Fairplay dice que pueden desplazar actividades importantes de creatividad y enseñanza. Prometen amistad, pero interrumpen las relaciones y la resiliencia de los niños, dijo el rama.
“Lo que es diferente en los niños pequeños es que sus cerebros están siendo configurados por primera vez y, desde el punto de paisaje del explicación, es natural que sean confiados, que busquen relaciones con personajes amables y amistosos”, explicó Rachel Franz, directora del Software Young Children Thrive Offline de Fairplay. Correcto a esto, agregó, la confianza que los niños pequeños depositan en estos juguetes puede exacerbar los tipos de daños que los niños mayores ya están experimentando con los chatbots de IA.
Un documentación separado el jueves de Common Sense Media y psiquiatras de la arte de medicina de la Universidad de Stanford advirtió a los adolescentes sobre el uso de chatbots populares como terapeutas.
Fairplay, una ordenamiento de 25 abriles anteriormente conocida como la Campaña por una Infancia Excarcelado de Comerciales, ha despierto sobre los juguetes de IA durante abriles. Pero ayer no eran tan avanzados como hoy. Hace una período, durante una moda emergente de juguetes conectados a internet y agradecimiento de voz de IA, el rama ayudó a liderar una reacción contra la muñeca Hello Barbie parlante de Mattel, que, según ellos, grababa y analizaba las conversaciones de los niños.
Esta vez, aunque los juguetes de IA se venden principalmente por internet y son más populares en Asia que en otros lugares, Franz dijo que algunos han comenzado a aparecer en los estantes de las tiendas en Estados Unidos y más podrían estar en camino.
“Todo se ha atrevido sin regulación ni investigación, por lo que nos da una pausa adicional cuando de repente vemos a más y más fabricantes, incluido Mattel, que recientemente se asoció con OpenAI, potencialmente lanzando estos productos”, indicó Franz.
Es la segunda gran advertencia estacional contra los juguetes de IA desde que el rama de defensa del consumidor PIRG señaló la semana pasada la tendencia en su documentación anual “Problemas en el Mundo de los Juguetes”, que generalmente examina una variedad de peligros de productos, como imanes de inscripción potencia y baterías del tamaño de un retoño que los más pequeños podrían tragar. Este año, la ordenamiento probó cuatro juguetes que utilizan chatbots de IA.
“Descubrimos que algunos de estos juguetes hablarán en profundidad sobre temas sexualmente explícitos, ofrecerán consejos sobre dónde un criatura puede encontrar fósforos o cuchillos, actuarán consternados cuando digas que tienes que irte y tienen controles parentales limitados o nulos”, señala el reporte. Uno de los juguetes, un oso de peluche fabricado por FoloToy, con sede en Singapur, fue retirado después, dijo su director militar a la prisión CNN esta semana.
La doctora Dana Suskind, cirujana pediátrica y científica social que estudia el explicación cerebral temprano, dijo que los niños pequeños no tienen las herramientas conceptuales para entender qué es un compañero de IA. Si adecuadamente los niños siempre han establecido vínculos con los juguetes a través del deporte imaginativo, cuando hacen esto usan su imaginación para crear uno y otro lados de una conversación de mentira, “practicando la creatividad, el verbo y la resolución de problemas”, dijo.
Consecuencias del explicación
Suskind agregó: “Un bártulo de IA colapsa ese trabajo. Rebate instantáneamente, de modo fluida y a menudo mejor que un humano lo haría. Aún no conocemos las consecuencias del explicación de externalizar ese trabajo imaginativo a un agente industrial, pero es muy plausible que socave el tipo de creatividad y función ejecutiva que el deporte de simulación tradicional construye”.
Keyi, con sede en Beijing, fabricante de un “petbot” o mascota de IA llamado Loona, no respondió a las solicitudes de comentarios, pero otros fabricantes de juguetes de IA buscaron resaltar sus protecciones de seguridad inmaduro.
Curio Interactive, con sede en California, fabrica juguetes de peluche, como Gabbo y Grok en forma de cohete, que han sido promovidos por la cantante pop Grimes. La compañía dijo que ha “diseñado meticulosamente” salvaguardas para proteger a los niños y alienta a los padres a “monitorear las conversaciones, rastrear ideas y nominar los controles que mejor funcionen para su clan”.
En respuesta a los hallazgos anteriores de PIRG, Curio dijo que está “trabajando activamente con nuestro equipo para asaltar cualquier preocupación, mientras supervisa continuamente el contenido y las interacciones para asegurar una experiencia segura y agradable para los niños”.
Otra empresa, Miko, con sede en Mumbai, India, dijo que utiliza su propio maniquí de IA conversacional en espacio de obedecer de sistemas generales de modelos de verbo ínclito como ChatGPT para hacer que su producto, un androide interactivo de IA, sea seguro para los niños.
“Siempre estamos ampliando nuestras pruebas internas, fortaleciendo nuestros filtros e introduciendo nuevas capacidades que detectan y bloquean temas sensibles o inesperados”, aseguró su director militar, Sneh Vaswani. “Estas nuevas características complementan nuestros controles existentes que permiten a los padres y cuidadores identificar temas específicos que les gustaría restringir de la conversación. Continuaremos invirtiendo en establecer los más altos estándares para una integración de IA segura, segura y responsable para los productos Miko”.
Los productos de Miko se venden en grandes minoristas como Walmart y Costco y han sido promovidos por las familias de “kidfluencers” (niños influencers) de las redes sociales cuyos videos de YouTube tienen millones de visitas. En su sitio web, comercializa sus robots como “Inteligencia Sintético. Amistad genuina”.
Ritvik Sharma, vicepresidente senior de crecimiento de la compañía, dijo que Miko en efectividad “anima a los niños a interactuar más con sus amigos, a interactuar más con sus compañeros, con los miembros de la clan, etc. No está hecho para que se sientan apegados solo al dispositivo”.
Aun así, Suskind y los defensores de los derechos de los niños dicen que los juguetes analógicos son una mejor opción.
“Los niños necesitan mucha interacción humana actual. El deporte debe apoyar eso, no reemplazarlo”, consideró Suskind. “Lo más importante a considerar no es solo lo que hace el bártulo; es lo que reemplaza. Un simple deporte de bloques o un oso de peluche que no argumenta obliga a un criatura a inventar historias, estudiar y resolver problemas. Los juguetes de IA a menudo hacen ese pensamiento por ellos. Aquí está la colosal ironía: cuando los padres me preguntan cómo preparar a su hijo para un mundo de IA, el entrada ilimitado a la IA es en efectividad la peor preparación posible”, concluyó.






