Chris Lehane es uno de los mejores en el negocio de hacer desaparecer las malas parte. Secretario de prensa de Al Gore durante los primaveras de Clinton, patriarca de gobierno de crisis de Airbnb durante todas las pesadillas regulatorias desde aquí hasta Bruselas: Lehane sabe cómo doblar. Ahora lleva dos primaveras en lo que podría ser su trabajo más impracticable hasta el momento: como vicepresidente de política mundial de OpenAI, su trabajo es convencer al mundo de que a OpenAI positivamente le importa un comino la democratización de la inteligencia sintético mientras la compañía se comporta cada vez más como, bueno, cualquier otro gigantesco tecnológico que alguna vez haya afirmado ser diferente.
Tuve 20 minutos con él en el tablado del Elevar conferencia en Toronto a principios de esta semana: 20 minutos para producirse de los puntos de conversación y profundizar en las contradicciones reales que corroen la imagen cuidadosamente construida de OpenAI. No fue claro ni completamente exitoso. Lehane es positivamente bueno en su trabajo. Es simpático. Suena legítimo. Admite incertidumbre. Incluso deje de despertarse a las 3 de la amanecer preocupado por si poco de esto positivamente beneficiará a la humanidad.
Pero las buenas intenciones no significan mucho cuando su empresa está citando a sus críticos, drenando el agua y la electricidad de ciudades económicamente deprimidas y resucitando a celebridades muertas para afirmar su dominio en el mercado.
El problema Sora de la empresa está positivamente en la raíz de todo lo demás. La aparejo de engendramiento de videos se lanzó la semana pasada con material protegido por derechos de autor aparentemente integrado. Fue una medida audaz para una empresa que ya estaba siendo demandada por el New York Times, el Toronto Star y la centro de la industria editorial. Desde el punto de clarividencia empresarial y de marketing, igualmente fue brillante. La aplicación solo por invitación se disparó a la cima de la App Store a medida que las personas creaban versiones digitales de sí mismas, dijo el director ejecutante de OpenAI, Sam Altman; personajes como Pikachu, Mario y Cartman de “South Park”; y celebridades muertas como Tupac Shakur.
Cuando se le preguntó qué impulsó la valor de OpenAI de difundir esta nueva interpretación de Sora con estos personajes, Lehane me dio el discurso normalizado: Sora es una “tecnología de propósito caudillo” como la electricidad o la imprenta, que democratiza la creatividad para personas sin talento ni bienes. Incluso él, que se describe a sí mismo como un cero creativo, puede hacer vídeos ahora, dijo en el tablado.
Lo que dio vueltas es que OpenAI inicialmente “permitió” que los titulares de derechos optaran por no utilizar su trabajo para entrenar a Sora, que no es como normalmente funciona el uso de los derechos de autor. Luego, posteriormente de que OpenAI notó que a la masa positivamente le gustaba usar imágenes con derechos de autor, “evolucionó” con destino a un maniquí de billete voluntaria. Eso no es positivamente una iteración. Eso es probar cuánto puedes salirte con la tuya. (Y por cierto, aunque la Motion Picture Association hizo poco de ruido la semana pasada sobre amenazas legales, OpenAI parece haberse aparecido con la suya en muchas cosas).
Lógicamente, la situación recuerda el malestar de los editores que acusan a OpenAI de entrenarse en su trabajo sin compartir el saqueo financiero. Cuando presioné a Lehane sobre la pega de los editores de la peculio, invocó el uso permitido, esa doctrina constitucional estadounidense que se supone equilibra los derechos de los creadores con el entrada conocido al conocimiento. Lo llamó el pertrechos secreta del dominio tecnológico estadounidense.
Evento tecnológico
san francisco
|
27-29 de octubre de 2025
Tal vez. Pero recientemente entrevisté a Al Gore, el antiguo patriarca de Lehane, y me di cuenta de que cualquiera podría simplemente preguntarle a ChatGPT al respecto en espacio de percibir mi artículo en TechCrunch. “Es ‘iterativo'”, dije, “pero igualmente es un reemplazo”.
Por primera vez, Lehane abandonó su perorata. “Todos vamos a faltar resolver esto”, dijo. “Es positivamente simplista y claro sentarse aquí en el tablado y proponer que necesitamos idear nuevos modelos de ingresos económicos. Pero creo que lo haremos”. (En extracto, lo vamos inventando sobre la marcha).
Luego está la pregunta sobre infraestructura que nadie quiere reponer honestamente. OpenAI ya está operando un campus de centro de datos en Abilene, Texas, y recientemente inició la construcción de un centro de datos masivo en Lordstown, Ohio, en asociación con Oracle y SoftBank. Lehane ha comparado la accesibilidad a la IA con la presentación de la electricidad – diciendo que aquellos que accedieron a ella en extremo espacio todavía están tratando de ponerse al día – sin secuestro, el tesina Stargate de OpenAI aparentemente está apuntando a algunos de esos mismos lugares con dificultades económicas como lugares para establecer instalaciones con su enorme apetito por agua y electricidad.
Cuando se le preguntó durante nuestra reunión si estas comunidades se beneficiarán o simplemente pagarán la extracto, Lehane se refirió a los gigavatios y la geopolítica. OpenAI necesita en torno a de un gigavatio de energía por semana, señaló. China incorporó 450 gigavatios el año pasado más 33 instalaciones nucleares. Si las democracias quieren una IA democrática, tienen que competir. “El jovial que hay en mí dice que esto modernizará nuestros sistemas energéticos”, había dicho, pintando un cuadro de Estados Unidos reindustrializado con redes eléctricas transformadas.
Fue inspirador. Pero no fue una respuesta sobre si la masa en Lordstown y Abilene verá cómo aumentan sus facturas de servicios públicos mientras OpenAI genera videos de John F. Kennedy y The Notorious BIG (la engendramiento de videos es la La IA que consume más energía por ahí.)
Lo que me llevó a mi ejemplo más incómodo. Zelda Williams pasó el día mencionado a nuestra entrevista suplicando a extraños en Instagram que dejaran de enviarle videos de su difunto padre, Robin Williams, generados por IA. “No estás haciendo arte”, escribió. “Estás haciendo hot dogs repugnantes y sobreprocesados a partir de la vida de los seres humanos”.
Cuando le pregunté cómo concilia la empresa este tipo de daño íntimo con su encomienda, Lehane respondió hablando de procesos, incluido el diseño responsable, los marcos de prueba y las asociaciones gubernamentales. “No existe un manual para estas cosas, ¿verdad?”
Lehane mostró vulnerabilidad en algunos momentos, diciendo que se despierta a las 3 de la mañana todas las noches, preocupado por la democratización, la geopolítica y la infraestructura. “Esto conlleva enormes responsabilidades”.
Independientemente de si esos momentos fueron diseñados para la audiencia o no, le creo. De hecho, salí de Toronto pensando que había manido una clase extraordinario sobre transporte política: Lehane enhebraba una manilla impracticable mientras esquivaba preguntas sobre decisiones de la empresa con las que, hasta donde yo sé, ni siquiera está de acuerdo. Entonces sucedió el viernes.
Nathan Calvin, un abogado que trabaja en políticas de IA en una ordenamiento de defensa sin fines de ganancia, Encode AI, reveló que mientras hablaba con Lehane en Toronto, OpenAI había enviado un ayudante del sheriff a su casa en Washington, DC, durante la cena para entregarle una citación. Querían sus mensajes privados con legisladores de California, estudiantes universitarios y ex empleados de OpenAI.
Calvin está acusando a OpenAI de tácticas de intimidación en torno a una nueva norma de IA, la SB 53 de California. Dice que la compañía utilizó su batalla constitucional con Elon Musk como un pertrechos como pretexto para atacar a los críticos, implicando que Encode fue financiado en secreto por Musk. De hecho, Calvin dice que luchó contra la concurso de OpenAI al SB 53 de California, un tesina de ley de seguridad de la IA, y que cuando vio a la compañía afirmar que “trabajó para mejorar el tesina de ley”, “textualmente se rió a carcajadas”. En una rollo de redes sociales, pasó a nombrar a Lehane específicamente el “experto de las artes oscuras políticas”.
En Washington, eso podría ser un cumplido. En una empresa como OpenAI, cuya encomienda es “construir una IA que beneficie a toda la humanidad”, suena como una recriminación.
Lo que importa mucho más es que incluso la propia masa de OpenAI está en conflicto sobre en qué se están convirtiendo.
Como informó mi colega Max la semana pasada, varios empleados actuales y anteriores recurrieron a las redes sociales posteriormente del divulgación de Sora 2, expresando sus dudas, incluido Boaz Barak, investigador de OpenAI y profesor de Harvard, que escribió sobre Sora 2 que es “técnicamente sorprendente, pero es prematuro felicitarnos por evitar los peligros de otras aplicaciones de redes sociales y deepfakes”.
El viernes, Josh Achiam, patriarca de alineamiento de misiones de OpenAI, tuiteó poco aún más importante sobre la recriminación de Calvin. Antiguamente de sus comentarios diciendo que eran “posiblemente un aventura para toda mi carrera”, Achiam continuó escribiendo sobre OpenAI: “No podemos hacer cosas que nos conviertan en una potencia aterradora en espacio de una virtuosa. Tenemos un deber y una encomienda para toda la humanidad. El tabla para cumplir con ese deber es notablemente stop”.
Eso es . . .poco. Un ejecutante de OpenAI que cuestiona públicamente si su empresa se está convirtiendo en “una potencia aterradora en espacio de virtuosa” no está a la par de un competidor que dispara o un periodista que hace preguntas. Se comercio de cierto que eligió trabajar en OpenAI, que cree en su encomienda y que ahora reconoce una crisis de conciencia a pesar del aventura profesional.
Es un momento cristalizador. Puedes ser el mejor cirujano político en tecnología, un experto en navegar situaciones imposibles, y aun así terminar trabajando para una empresa cuyas acciones entran cada vez más en conflicto con sus títulos declarados, contradicciones que sólo pueden intensificarse a medida que OpenAI avanza con destino a la inteligencia sintético caudillo.
Me hace pensar que la verdadera pregunta no es si Chris Lehane puede entregar la encomienda de OpenAI. Se comercio de si los demás (incluidas, de forma crítica, las demás personas que trabajan allí) todavía lo creen.






