En el centro de cada imperio hay una ideología, un sistema de creencias que impulsa el sistema con destino a delante y justifica la expansión, incluso si el costo de esa expansión desafía directamente la comisión establecida de la ideología.
Para los poderes coloniales europeos, era el cristianismo y la promesa de librar almas mientras extraían fortuna. Para el Imperio de IA de hoy, es inteligencia genérico fabricado “beneficiar a toda la humanidad”. Y Openai es su principal evangelista, que difunde el celo en toda la industria de una modo que ha reformulado cómo se construye la IA.
“Estaba entrevistando a personas cuyas voces temblaban del fervor de sus creencias en AGI”, Karen Hao, periodista y exitosa autora de “”Imperio de AI“, Dijo a TechCrunch en un episodio fresco de Equity.
En su volumen, Hao compara la industria de la IA en genérico, y OpenAi en particular, con un imperio.
“La única forma de comprender verdaderamente el calibre y la escalera del comportamiento de OpenAi … en efectividad es registrar que ya se han vuelto más poderosos que casi cualquier estado nación del mundo, y han consolidado una cantidad extraordinaria no solo de poder financiero, sino incluso de poder político”, dijo Hao. “Están terraformando la tierra. Están volviendo a cablear nuestra geopolítica, todas nuestras vidas. Por lo tanto, solo puedes describirla como un imperio”.
Operai ha descrito a AGI como “un sistema en extremo autónomo que supera a los humanos en la mayoría de los trabajos económicamente valiosos”, uno que de alguna modo “elevará a la humanidad al aumentar la copia, el turbocompresor de la capital y ayudando en el descubrimiento de un nuevo conocimiento estudiado que cambia los límites de la posibilidad”.
Estas promesas nebulosas han alimentado el crecimiento exponencial de la industria: sus demandas masivas de fortuna, océanos de datos raspados, redes de energía tensas y disposición para liberar sistemas no probados en el mundo. Todo en servicio de un futuro que, según muchos expertos, puede que nunca llegue.
Evento de TechCrunch
San Francisco
|
27-29 de octubre de 2025
Hao dice que este camino no era obligatorio, y esa subida no es la única forma de obtener más avances en la IA.
“Incluso puede desarrollar nuevas técnicas en algoritmos”, dijo. “Puede mejorar los algoritmos existentes para disminuir la cantidad de datos y calcular que necesitan usar”.
Pero esa táctica habría significado ofrendar la velocidad.
“Cuando define la búsqueda para desarrollar AGI filántropo como uno en el que el vencedor toma todo, que es lo que hizo OpenAi, entonces lo más importante es la velocidad sobre cualquier otra cosa”, dijo Hao. “Velocidad sobre la eficiencia, la velocidad sobre la seguridad, la velocidad sobre la investigación exploratoria”.

Para Operai, dijo, la mejor modo de avalar la velocidad era tomar las técnicas existentes y “simplemente hacer lo intelectualmente ganga, que es sacar más datos, más supercomputadoras, a esas técnicas existentes”.
Operai preparó el tablas y, en oportunidad de quedarse detrás, otras compañías tecnológicas decidieron caer en la culo.
“Y correcto a que la industria de la IA ha capturado con éxito a la mayoría de los principales investigadores de IA en el mundo, y esos investigadores ya no existen en la agrupación, entonces tienes una disciplina completa que ahora está siendo moldeada por la memorándum de estas compañías, en oportunidad de por una exploración científica vivo”, dijo Hao.
El compra ha sido y será desorbitado. La semana pasada, Operai dijo que calma quemarse $ 115 mil millones en efectivo Para 2029. Meta dijo en julio que gastaría hasta $ 72 mil millones en la construcción de la infraestructura de IA este año. Google calma arribar a $ 85 mil millones En gastos de haber para 2025, la mayoría de los cuales se gastarán en expandir la IA y la infraestructura en la cúmulo.
Mientras tanto, los postes de objetivos se siguen moviendo, y los “beneficios más altos para la humanidad” aún no se han materializado, incluso cuando los daños aumentan. Hartos como la pérdida de empleo, la concentración de riqueza y los chatbots de IA que alimentan los delusiones y la psicosis. En su volumen, HAO incluso documenta a los trabajadores en países en incremento como Kenia y Venezuela a quienes estuvieron expuestos a contenido inquietante, incluido el material de exageración sexual pueril, y se les pagó salarios muy bajos, cerca de de $ 1 a $ 2 por hora, en roles como moderación de contenido y etiquetado de datos.
Hao dijo que es una falsa compensación para malquistar el progreso de AI contra los daños actuales, especialmente cuando otras formas de IA ofrecen beneficios reales.
Señaló el Alfafold campeón del Premio Nobel de Google Deepmind, que está entrenado en datos de secuencia de aminoácidos y estructuras de plegamiento de proteínas complejas, y ahora puede predecir con precisión la estructura 3D de proteínas de sus aminoácidos, profundamente útil para el descubrimiento de fármacos y la comprensión de la enfermedad.
“Esos son los tipos de sistemas de IA que necesitamos”, dijo Hao. “Alfafold no crea crisis de lozanía mental en las personas. Alfafold no conduce a daños ambientales colosales … porque está capacitado en una infraestructura sustancialmente menos.
Adyacente con el compromiso cuasirreligioso con AGI ha sido una narración sobre la importancia de las carreras para vencer a China en la raza de IA, para que Silicon Valley pueda tener un emoción liberalizante en el mundo.
“Fielmente, lo contrario ha sucedido”, dijo Hao. “La brecha ha seguido cerrando entre Estados Unidos y China, y Silicon Valley ha tenido un emoción iliberalizante en el mundo … y el único actor que ha surgido indemne, se podría argumentar, es el mismo Valle de Silicon”.
Por supuesto, muchos argumentarán que Operai y otras compañías de IA han beneficiario a la humanidad al transmitir ChatGPT y otros modelos de idiomas grandes, que prometen grandes ganancias en la productividad al automatizar tareas como la codificación, la escritura, la investigación, la atención al cliente y otras tareas de trabajo de conocimiento.
Pero la forma en que Openai está estructurada, en parte sin fines de beneficio, parte con fines de beneficio, complica cómo define y mide su impacto en la humanidad. Y eso se complica aún más con la mensaje de esta semana que OpenAi llegó a un acuerdo con Microsoft que lo acerca a que eventualmente se haga notorio.
Dos ex investigadores de seguridad de Operai le dijeron a TechCrunch que temen que el laboratorio de IA haya comenzado a confundir sus misiones con fines de beneficio y sin fines de beneficio, que correcto a que las personas disfrutan usando ChatGPT y otros productos construidos en LLM, esto marca la casilla de beneficiar a la humanidad.
Hao se hizo eco de estas preocupaciones, describiendo los peligros de ser tan consumidos por la comisión de que la efectividad es ignorada.
“Incluso cuando la evidencia se acumula que lo que están construyendo verdaderamente está dañando cantidades significativas de personas, la comisión continúa avanzando todo eso”, dijo Hao. “Hay poco verdaderamente peligroso y sombrío en eso, de (ser) tan envuelto en un sistema de creencias que construyó que pierdes el contacto con la efectividad”.





