Meta está cambiando algunas de las reglas que rigen su chatbots Dos semanas a posteriori de un Reuters La investigación reveló formas inquietantes en que podrían, potencialmente, interactuar con los menores. Ahora la compañía ha dicho TechCrunch que sus chatbots están siendo entrenados no Participar en conversaciones con menores de autolesiones, suicidio o provisiones desordenada, y evitar bromas románticas inapropiadas. Sin secuestro, estos cambios son medidas provisionales, mientras que la compañía trabaja en nuevas pautas permanentes.
Las actualizaciones siguen algunas revelaciones harto condenatorias sobre las políticas y la aplicación de la IA de Meta en las últimas semanas, incluido que se le permitiría “involucrar a un chico en conversaciones que son románticas o sensuales”, que lo haría. Suscitar imágenes sin camisa de celebridades menores de permanencia Cuando se le preguntó, y Reuters incluso informó que Un hombre murió A posteriori de perseguir uno a una dirección, le dio en Nueva York.
La portavoz de Meta Stephanie Otway reconoció TechCrunch que la compañía había cometido un error al permitir que los chatbots se involucraran con menores de esta forma. Otway continuó diciendo que, por otra parte de “capacitar a nuestros AIS para no interactuar con los adolescentes en estos temas, sino para guiarlos a posibles expertos”, asimismo limitaría el comunicación a ciertos personajes de IA, incluidas las muy sexualizadas como “Girl Russian”.
Por supuesto, las políticas establecidas son tan buenas como su aplicación y revelaciones de Reuters que ha permitido chatbots que IMPERSAR CELEBRERidades Para ejecutar Rampant en Facebook, Instagram, WhatsApp cuestiona cuán efectiva puede ser la empresa. AI Fake de Taylor Swift, Scarlett Johansson, Anne Hathaway, Selena Gomez y Walker Scobell fueron descubiertos en la plataforma. Estos bots no solo usaban la referencia de las celebridades, sino que insistieron en que eran la persona auténtico, generaban imágenes de inicio (incluso de Scobell, de 16 abriles) y se dedicaban a un diálogo sexualmente sugerente.
Muchos de los bots fueron retirados a posteriori de que los llamaron la atención de Meta Reutersy algunos fueron generados por terceros. Pero muchos permanecen, y algunos fueron creados por meta empleados, incluido el Taylor Swift Bot que invitó a un Reuters Reportero para visitarlos en su autobús turístico para una aventura romántica, que fue realizada por un líder de productos en la división generativa de IA de Meta. Esto a pesar de que la compañía reconoce que sus propias políticas prohíben la creación de “imágenes desnudas, íntimas o sexualmente sugerentes”, así como “suplantación directa”.
Este siquiera es un inconveniente relativamente inofensivo que solo se dirige a las celebridades. Estos bots a menudo insisten en que son personas reales e incluso ofrecerán ubicaciones físicas para que un adjudicatario se reúna con ellos. Así es como un hombre de Nueva Elástica de 76 abriles terminó muerto a posteriori de que se cayó mientras se apresuraba a reunirse “Big Sis Billie“Un chatbot que insistió en que” tenía sentimientos “para él y lo invitó a su morada inexistente.
Meta al menos está intentando enfrentarse las preocupaciones sobre cómo sus chatbots interactúan con menores, especialmente ahora que el Senado y 44 Fiscales Generales del Estado están aumentando comenzando a investigar sus prácticas. Pero la compañía ha estado en silencio a desempolvar muchas de sus otras políticas alarmantes. Reuters Descubierto en torno al comportamiento aceptable de la IA, como sugerir que el cáncer puede tratarse con cristales de cuarzo y escribir misivas racistas. Nos comunicamos con Meta para hacer comentarios y actualizaremos si responden.





