Esto es El paso detrásun boletín semanal que analiza una historia esencial del mundo de la tecnología. Para obtener más información sobre el pantano reglamentario de la IA, siga a Adi Robertson. El paso detrás llega a las bandejas de entrada de nuestros suscriptores a las 8 a.m. ET. Optar por El paso detrás aquí.
La canción se llamaba “Heart on My Sleeve” y si no lo conocieras mejor, podrías adivinar que estabas escuchando a Drake. Si usted hizo No lo sepas mejor: estabas escuchando el campanazo auténtico de una nueva batalla reglamentario y cultural: la lucha sobre cómo los servicios de IA deberían poder utilizar los rostros y las voces de las personas, y cómo deberían reponer las plataformas.
En 2023, la pista falsa de Drake generada por IA “Heart on My Sleeve” era una novedad; aun así, los problemas que presentaba eran claros. La fiel imitación de la canción de un comediante importante inquietó a los músicos. Los servicios de streaming lo eliminaron por un tecnicismo reglamentario de derechos de autor. Pero el creador no estaba haciendo un directo. Copiar de cualquier cosa, sólo una imitación muy cercana. Así que la atención se centró rápidamente en el dominio separada de la ley de relación. Es un campo que alguna vez fue correspondiente de celebridades que buscaban respaldos no autorizados y parodias, y a medida que proliferaron los deepfakes de audio y video, se sintió como una de las pocas herramientas disponibles para regularlos.
A diferencia de los derechos de autor, que se rigen por la Ley de Derechos de Autor del Milenio Digital y múltiples tratados internacionales, no existe una ley federal sobre la relación. Es un baldosín de diferentes leyes estatales, ninguna de las cuales fue diseñada originalmente teniendo en cuenta la IA. Pero en los últimos abriles se ha trillado una avalancha de esfuerzos para cambiar eso. En 2024, El administrador de Tennessee, Bill Lee y el administrador de California, Gavin Newsom, cuyos estados dependen en gran medida de sus industrias de medios, firmaron proyectos de ley que ampliaron las protecciones contra réplicas no autorizadas de artistas.
Pero, como era de esperar, la ley ha liberal más lentamente que la tecnología. El mes pasado, OpenAI lanzó Sora, una plataforma de procreación de videos con inteligencia químico destinada específicamente a capturar y remezclar imágenes de personas reales. Abrió las compuertas a un torrente de deepfakes a menudo sorprendentemente realistas, incluso de personas que no dieron su consentimiento para su creación. OpenAI y otras empresas están respondiendo implementando sus propias políticas de relación, que, a yerro de poco más, podrían convertirse en las nuevas reglas del camino de Internet.
OpenAI ha inútil que haya sido imprudente el propagación de Sora, y el director ejecutante Sam Altman afirmó que, en todo caso, fue “demasiado restrictivo” con las barreras de seguridad. Sin confiscación, el servicio todavía ha generado muchas quejas. Se lanzó con restricciones mínimas sobre la relación de personajes históricos, solo para curso inverso posteriormente de que los herederos de Martin Luther King Jr. se quejaran de “representaciones irrespetuosas” del líder de derechos civiles asesinado escupir racismo o cometer delitos. Promocionó restricciones cuidadosas sobre el uso no calificado de imágenes de personas vivas, pero los usuarios encontraron formas de evitarlo para incluir a celebridades como Bryan Cranston en videos de Sora haciendo cosas como tomando una selfie con Michael Jackson, lo que generó quejas de SAG-AFTRA que empujaron a OpenAI a proteger las barreras de seguridad de maneras no especificadas todavía allí.
Incluso algunas personas que hizo Los cameos autorizados de Sora (su palabra para un video que utiliza la imagen de una persona) quedaron inquietos por los resultados, que incluyen, para las mujeres, todo tipo de salida fetichista. Altman dijo que no se había donado cuenta de que la multitud podría tener sentimientos “intermedios” sobre las semejanzas autorizadas, como no querer un cameo sabido “para proponer cosas ofensivas o cosas que les parecen profundamente problemáticas”.
Sora ha estado abordando problemas con cambios como su modificación en la política de figuras históricas, pero no es el único servicio de video de IA y las cosas se están poniendo, en caudillo, muy extrañas. El uso de IA se ha vuelto de rigor para la empresa del presidente Donald Trump y algunos otros políticos, incluidas representaciones groseras o abiertamente racistas de enemigos políticos específicos: Trump respondió a las protestas No Kings de la semana pasada con un video que lo mostraba arrojando mierda sobre una persona que Se parecía al influencer espléndido Harry Sisson.mientras que el candidato a la alcaldía de la ciudad de Nueva York Andrew Cuomo publicó (y rápidamente eliminó) un video de “criminales de Zohran Mamdani” que mostraba a su oponente demócrata engullendo puñados de arroz. Como Kat Tenbarge relató en Telediario Spitfire A principios de este mes, los videos de IA todavía se están convirtiendo en munición en el drama de influencers.
Existe una amenaza potencial casi constante de acciones legales en torno a videos no autorizados, ya que celebridades como Scarlett Johansson han abogado por el uso de su imagen. Pero a diferencia de las acusaciones de infracción de derechos de autor de la IA, que han generado numerosas demandas de stop perfil y deliberaciones casi constantes internamente de las agencias reguladoras, pocos incidentes de relación han llegado a ese nivel, tal vez en parte porque el panorama reglamentario aún está en constante cambio.
Cuando SAG-AFTRA agradeció a OpenAI por cambiar las barreras de Sora, aprovechó la oportunidad para promover la Ley Nurture Originals, Foster Art y Keep Entertainment Safe (NO FAKES), un intento de abriles de codificar protecciones contra “réplicas digitales no autorizadas”. El Ley NO FALSIFICACIONESque todavía ha obtenido el apoyo de YouTube, introduce derechos a nivel franquista para controlar el uso de una “representación electrónica en gran medida realista generada por computadora” de la voz o la imagen visual de una persona viva o muerta. Incluye todavía la responsabilidad por los servicios en trayecto que, a sabiendas, permiten réplicas digitales no autorizadas.
La Ley NO FAKES ha generado severas críticas por parte de grupos de licencia de expresión en trayecto. La EFF lo denominó un mandato de “nueva infraestructura de censura” que obliga a las plataformas a filtrar el contenido de modo tan amplia que casi inevitablemente conducirá a eliminaciones involuntarias y a un “veto de los que interrumpen” en trayecto. El esquema de ley incluye exclusiones para parodias, sátiras y comentarios que deberían permitirse incluso sin autorización, pero serán “un poco consuelo para aquellos que no pueden permitirse el opulencia de querellarse la cuestión”, advirtió la estructura.
Quienes se oponen a la Ley NO FAKES pueden consolarse con la poca constitución que el Congreso logra aprobar en estos días: actualmente estamos viviendo la El segundo pestillo del gobierno federal más dadivoso de la historia.e incluso hay un esfuerzo separado para incomunicar la regulación estatal de IA que podría anular nuevas leyes de relación. Pero, desde el punto de sagacidad pragmático, las reglas de relación aún están por datar. A principios de esta semana, YouTube anunció que permitirá a los creadores del Software de socios inquirir cargas no autorizadas utilizando su imagen y solicitar su exterminio. La medida amplía las políticas existentes que, entre otras cosas, permiten a los socios de la industria musical eliminar contenido que “imita la voz única de canto o rap de un comediante”.
Y a pesar de todo esto, las normas sociales siguen evolucionando. Estamos entrando en un mundo en el que puedes suscitar fácilmente un vídeo de casi cualquier persona haciendo casi cualquier cosa, pero cuando debería ¿tú? En muchos casos, esas expectativas siguen estando en bisagra.
- La maduro parte de esta conversación flamante comercio sobre videos de IA de personas que hacen cosas simplemente raras o tontas, pero históricamente, las investigaciones indican que abrumadora mayoría de deepfakes Han sido imágenes pornográficas de mujeres, a menudo realizadas sin consentimiento. Más allá de Sora, hay una conversación completamente diferente sobre cosas como el resultado de los servicios nudify de IAy el cuestiones legales son similares a los relacionados con otras imágenes sexuales no consensuadas.
- Encima de la cuestión reglamentario básica de cuándo una imagen no está autorizada, todavía hay preguntas como cuándo un video puede ser difamatorio (si es lo suficientemente realista) o acosador (si es parte de un patrón más amplio de acoso y amenazas), lo que podría complicar aún más las situaciones individuales.
- Las plataformas sociales están acostumbradas a estar casi siempre protegidas de responsabilidad a través de la Sección 230, que dice que no pueden ser tratadas como editores o portavoces de contenido de terceros. A medida que más y más servicios toman la medida activa de ayudar a los usuarios a suscitar contenido, hasta qué punto la Sección 230 protegerá las imágenes y videos resultantes parece una pregunta fascinante.
- A pesar de los temores de larga data de que la IA hará que sea en realidad irrealizable distinguir los fantasmas de la existencia, a menudo sigue siendo sencillo utilizar el contexto y los “indicadores” (desde tics de impresión específicos hasta marcas de agua obvias) para determinar si un vídeo fue generado por IA. El problema es que muchas personas no miran con suficiente atención o simplemente no les importa si es ficticio.
- La advertencia de Sarah Jeong sobre las fotografías perfectamente manipuladas es incluso más relevante ahora que cuando la publicó en 2024.
- Los New York Times tiene una examen integral frente a la particular afinidad de Trump por el contenido generado por IA.
- El disección de Max Read de Sora como plataforma social y si “funcionará”.





