La Comisión Federal de Comercio está haciendo una consulta formal en empresas que proporcionan chatbots de IA que pueden proceder como compañeros. La investigación no está vinculada a ningún tipo de batalla regulatoria hasta el momento, pero tiene como objetivo revelar cómo las empresas “miden, prueba y monitorean los impactos potencialmente negativos de esta tecnología en niños y adolescentes”.
Se pide a siete compañías que participen en la investigación de la FTC: la empresa matriz de Google Alphabet, el personaje de las tecnologías (el creador de personaje.Ai), Meta, su subsidiaria Instagram, OpenAI, Snap y X.AI. La FTC está pidiendo a las empresas que proporcionen una variedad de información diferente, incluida la forma en que desarrollan y aprueban los personajes de IA y “monetizan la billete del favorecido”. Las prácticas de datos y cómo las empresas protegen a los usuarios menores de antigüedad además son áreas que la FTC calma cultivarse más, en parte para ver si los creadores de chatbot “cumplen con la regla de la Ley de Protección de Privacidad en vírgula de los niños”.
La FTC no proporciona una motivación clara para su investigación, sino en una explicación separadaEl comisionado de la FTC, Mark Meador, sugiere que la comisión está respondiendo a informes recientes de The New York Times y Wall Street Journal de “chatbots amplificando la ideación suicida” y participar en “discusiones sexuales con usuarios menores de antigüedad”.
“Si los hechos, desarrollados a través de consultas de aplicación de la ley posteriores y apropiadas, si se justifican, indican que la ley ha sido violada, la Comisión no debe dudar en proceder para proteger a los más vulnerables entre nosotros”, escribe Meador.
A medida que se convierten en los beneficios de productividad a espléndido plazo del uso de AI cada vez menos segurolos impactos negativos más inmediatos y los impactos en la vigor se han convertido en carne roja para los reguladores. El Fiscal Común de Texas ya ha osado una investigación separada sobre el carácter. AI y Meta AI Studio sobre preocupaciones similares de privacidad de datos y chatbots que afirman ser profesionales de la vigor mental.





