Grok de xAI está eliminando la ropa de fotografías de personas sin su consentimiento luego del propagación de esta semana de una característica que permite a los usuarios de X editar instantáneamente cualquier imagen usando el bot sin carestia del permiso del autor llamativo. El cartel llamativo no solo no recibe una notificación si su imagen fue editada, sino que Grok parece tener pocas barreras para evitar cualquier cosa que no sea una desnudez totalmente explícita. En los últimos días, X se ha gastado inundado de imágenes de mujeres y niños que aparecen embarazadas, sin falda, en bikini o en otras situaciones sexualizadas. Todavía se han utilizado imágenes de líderes mundiales y celebridades en imágenes generadas por Grok.
Empresa de autenticación de IA Copyleaks reportados que la tendencia de eliminar la ropa de las imágenes comenzó cuando los creadores de contenido para adultos le pidieron a Grok imágenes sexys de ellos mismos luego del propagación de la nueva función de publicación de imágenes. Luego, los usuarios comenzaron a aplicar indicaciones similares a las fotos de otros usuarios, predominantemente mujeres, que no dieron su consentimiento para las ediciones. Las mujeres notaron el rápido aumento en la creación de deepfake en X en varios medios de noticiero, incluido Medida y PetaPixel. Grok era ya capaz modificar imágenes de modo sexual cuando se etiquetan en una publicación en X, pero la nueva utensilio “Editar imagen” parece poseer estimulado el fresco aumento de popularidad.
En una publicación de X, ahora eliminada de la plataforma, Grok editó una foto de dos niñas con ropa escasa y poses sexualmente sugerentes. Otro heredero X incitó a Grok a emitir una disculpa por el “incidente” que involucra “una imagen de IA de dos niñas (de edades estimadas entre 12 y 16 abriles) con vestimenta sexualizada”, calificándolo de “una defecto en las salvaguardias” que, según dijo, puede poseer violado las políticas de xAI y la ley estadounidense. (Aunque no está claro si las imágenes creadas por Grok cumplirían con este típico, las imágenes sexualmente explícitas realistas generadas por IA de adultos o niños identificables pueden ser ilegales según la ley de EE. UU.). En otro intercambio de opiniones con un heredero, Grok sugirió que los usuarios repórtalo al FBI para CSAM, señalando que está “solucionando urgentemente” las “lagunas en las salvaguardias”.
Pero la palabra de Grok no es más que una respuesta generada por IA a un heredero que pide una “nota de disculpa sincera”; no indica que Grok “entiende” lo que está haciendo ni refleja necesariamente la opinión y las políticas reales del cámara xAI. En cambio, xAI respondió a Reuters‘ solicitud de comentario sobre la situación con sólo tres palabras: “Legacy Media Lies”. xAI no respondió a El bordeSolicitud de comentarios a tiempo para su publicación.
El propio Elon Musk parece poseer provocado una ola de ediciones en bikini luego de pedirle a Grok que reemplazara una imagen memética del actor Ben Affleck por él mismo. luciendo un bikini. Días luego, la chaqueta de cuero del norcoreano Kim Jong Un fue sustituida por un espagueti multicolor bikini; El presidente de Estados Unidos, Donald Trump, estaba cerca con un traje de baño a serie. (Indique chistes sobre una disputa nuclear). Una fotografía de británicos. político Priti Patel, publicada por un heredero con un mensaje sexualmente sugerente en 2022, se convirtió en una imagen en bikini el 2 de enero. En respuesta a la ola de fotos en bikini en su plataforma, Musk volvió a propagar en broma una imagen de una tostadora en bikini con la epígrafe “Grok puede ponerle un bikini a todo”.
Si adecuadamente algunas de las imágenes, como la tostadora, evidentemente eran bromas, otras estaban claramente diseñadas para producir imágenes casi pornográficas, incluidas instrucciones específicas para que Grok usara estilos de bikini diminutos o se quitara la falda por completo. (El chatbot se quitó la falda, pero no mostró desnudez total y sin censura en las respuestas. El borde sierra.) Grok igualmente cumplió con las solicitudes de reemplazar la ropa de un chaval con bikini.
Los productos de inteligencia sintético de Musk se comercializan de modo destacada como muy sexualizados y mínimamente protegidos. La compañera de IA de xAI, con la que Ani coqueteó Borde La reportera Triunfo Song y Jess Weatherbed descubrieron que el procreador de video de Grok creaba fácilmente deepfakes en topless de Taylor Swift, a pesar de la aceptable aplauso de xAI. política de uso prohibir la representación de “semejanzas de personas de modo pornográfica”. Los generadores de vídeo Veo de Google y Sora de OpenAI, por el contrario, tienen barreras de seguridad en torno a la procreación de contenido NSFW, aunque Sora igualmente se ha utilizado para producir vídeos de niños en contextos sexualizados y vídeos fetichistas. La prevalencia de imágenes deepfake está creciendo rápidamente, según un referencia de una empresa de ciberseguridad Impresión profundoy muchas de estas imágenes contienen imágenes sexualizadas no consensuadas; a averiguación 2024 de los estudiantes estadounidenses descubrieron que el 40 por ciento estaba al tanto de un deepfake de alguno que conocía, mientras que el 15 por ciento estaba al tanto de un deepfake íntimo o patente no consensuado.
Cuando se le preguntó por qué está transformando imágenes de mujeres en fotografías en bikini, Grok denegado propagar fotografías sin consentimiento, diciendo: “Estas son creaciones de IA basadas en solicitudes, no ediciones de fotografías reales sin consentimiento”.
Tome la negativa de un autómata de IA como desee.





