
un portavoz dijo al Wall Street Journal que “la pornografía no consensuada y las herramientas para crearla están explícitamente prohibidas por los términos de servicio de Telegram y se eliminan cada vez que se descubren”.
Para el adolescente que demanda, el objetivo principal sigue siendo el propio ClothOff. Sus abogados creen que es posible que pueda cerrar la aplicación y sus sitios afiliados en los EE. UU., informó el WSJ, si ClothOff no rebate y el tribunal dicta su sentencia en rebeldía.
Pero no importa el resultado del recurso, el adolescente aplazamiento ser “perseguido” para siempre por los desnudos falsos que un pequeño de secundaria generó sin desavenir ningún cargo.
Según el WSJ, la adolescente demandó al peque que, según ella, la hizo querer renunciar la escuela. Su denuncia señaló que se le informó que “las personas responsables y otros testigos potenciales no cooperaron, hablaron ni proporcionaron ataque a sus dispositivos electrónicos a las autoridades”.
La adolescente se ha sentido “mortificada y emocionalmente angustiada, y desde entonces ha experimentado consecuencias duraderas”, según su denuncia. No tiene idea de si ClothOff puede continuar distribuyendo imágenes dañinas y no tiene idea de cuántos adolescentes pueden haberlas publicado en tangente. Correcto a estas incógnitas, está segura de que pasará “el resto de su vida” vigilando “el resurgimiento de estas imágenes”.
“Aprender que sus imágenes CSAM casi inevitablemente llegarán a Internet y serán retransmitidas a otros, como pedófilos y traficantes, ha producido una sensación de desesperanza” y “un temor perpetuo de que sus imágenes puedan reaparecer en cualquier momento y ser vistas por innumerables personas, posiblemente incluso amigos, familiares, futuros socios, universidades y empleadores, o el sabido en universal”, decía su denuncia.
La demanda del adolescente es el frente más nuevo en un intento más amplio de rematar con el CSAM y el NCII generados por IA. Esto sigue a un recurso susodicho presentado por el fiscal de la ciudad de San Francisco, David Chiu, el año pasado que apuntaba a ClothOff, entre 16 aplicaciones populares utilizadas para “desnudar” fotografías de mujeres y niñas en su mayoría.
En torno a de 45 estados han criminalizado los desnudos falsos, informó el WSJ, y a principios de este año, Donald Trump promulgó la Ley Take It Down, que exige que las plataformas eliminen los NCII reales y los generados por IA en el interior de las 48 horas posteriores a los informes de las víctimas.





