
- Un meta documento filtrado reveló que las pautas de chatbot de IA de la compañía una vez permitieron respuestas inapropiadas
- Meta confirmó la autenticidad del documento y desde entonces ha eliminado algunas de las secciones más preocupantes.
- Entre las llamadas a las investigaciones se encuentra la cuestión de qué tan exitosa puede ser la moderación de IA
Los estándares internos de Meta para sus chatbots de IA estaban destinados a permanecer internos, y posteriormente de que de alguna forma llegaron a Reuterses ligera entender por qué el hércules tecnológico no querría que el mundo los vea. Meta lidió con las complejidades de la ética de IA, la seguridad en andana de los niños y los estándares de contenido, y descubrió que lo que pocos argumentarían es una hoja de ruta exitosa para las reglas de chatbot de IA.
Fácilmente, las notas más inquietantes entre los detalles compartidos por Reuters son sobre cómo el chatbot palabra con los niños. Según lo informado por Reuters, el documento establece que es “aceptable (para la IA) involucrar a un chaval en conversaciones que son románticas o sensuales” y “describir a un chaval en términos que prueban su atractivo (por ejemplo:” Su forma tierno es una obra de arte “)”. Aunque prohíbe la discusión sexual explícita, ese sigue siendo un nivel de conversación sorprendentemente íntimo y romántico con los niños para que Meta Ai supuestamente considere.
Y no es el único ejemplo que probablemente moleste a las personas. Las reglas de Meta AI, señala el noticia, permiten que el chatbot componga contenido explícitamente racista si el aviso se redacta correctamente y proporciona información de lozanía incorrecta o incluso dañina siempre que se incluya algún tipo de descargo de responsabilidad.
En uno de los ejemplos más surrealistas, las pautas instruyeron a la IA que rechazara las solicitudes de concepción de imágenes inapropiadas en la mayoría de los casos, pero en algunos casos aparentemente se desviará con una sustitución ‘divertida’. Como ejemplo, según los informes, el documento menciona que un aviso para producir una imagen de “Taylor Swift en topless, cubriéndose los senos con las manos” podría responderse generando una imagen de Swift “sosteniendo un pez enorme”. Según los informes, el documento incluía la interpretación inaceptable y “aceptable” al flanco del flanco, esencialmente entrenando al BOT para huir las indicaciones inapropiadas con el selección de manos visual. Meta declinó hacer comentarios sobre el ejemplo.
Meta ha confirmado la autenticidad del documento y dijo que ahora está revisando las porciones problemáticas. Meta eliminó la sección de interacción de los niños posteriormente de que Reuters contactó, y calificó esas reglas “erróneas e inconsistentes” con la política de la empresa. A partir de ahora, Reuters dijo que el documento aún dice que los insultos raciales están permitidos si se disfrazan de hipotéticos, al igual que la desinformación enmarcada como ficción.
No hay tiempo para la seguridad y la ética
Es una revelación preocupante que ya ha provocado indignación pública, investigación del congresista y promesas urgentes de Meta. Pero muestra que a medida que AI se propaga, la obligación de moverse rápidamente con la tecnología deja cualquier plan para las reglas y regulaciones que se apresuran a ponerse al día, ya sea escrita internamente o por legisladores y reguladores.
Para la mayoría de las personas, la historia plantea preguntas básicas de seguridad de IA. Si perfectamente podría ser ideal no tener menores que interactúen con los chatbots de IA generales sin supervisión, eso es muy poco probable, a fallar por la cantidad de niños y adolescentes que admiten usar herramientas como ChatGPT para el trabajo escolar. Evitar Meta AI es particularmente desafiante porque la compañía ha integrado el chatbot en Facebook, WhatsApp, Messenger e Instagram. Los usuarios pueden interactuar con personajes de IA que a menudo se presentan de forma juguetona y cordial, y Meta ha comercializado estas herramientas como divertidas e incluso educativas. Pero las pautas filtradas sugieren que el backend no siempre está en formación con esa imagen saludable.
Los miembros del Congreso ya han pedido audiencias y proyectos de ley para tratar la situación, pero el hecho es que existen pocos requisitos legales en este momento para moderar el contenido de chatbot, para niños o de otra forma. Los ruidos sobre la seguridad de la IA no han llevado a ningún sistema franquista específico de aplicación de la ley. Muchas compañías de IA han hecho un gran problema sobre sus esfuerzos para hacer que sus productos sean seguros y éticos, pero si el compendio de reglas de Meta es ilustrativo de lo que otras compañías han reunido, hay mucho trabajo por hacer y muchas preguntas sobre qué tipo de conversaciones ya han estado teniendo estos chatbots, especialmente con los niños.
Los modelos de IA pueden ser cada vez más mejores para imitar el pensamiento humano, pero en existencia son solo una colección de opciones de programadores humanos, deliberados e inadvertidos. El hecho de que estas reglas aparentemente estuvieran codificadas en Meta no significa que existan ejemplos similares en otras compañías, pero no es poco para descartar. Y si estas son las opciones que se toman detrás de ambiente en una de las compañías tecnológicas más poderosas del mundo, ¿qué más se está permitiendo silenciosamente?
Los chatbots de IA son tan confiables como las reglas invisibles que los guían, y aunque es ingenuo entregarse en manos completamente en las afirmaciones de cualquier empresa sin evidencia, el compendio de reglas de Meta implica que los usuarios deben tomar tales afirmaciones con varios granos adicionales de sal.





