El nuevo cálculo de IA: el ecosistema de costo del 80% de Google contra el ecosistema de OpenAI


Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


El ritmo implacable de la innovación generativa de IA no muestra signos de desaceleración. En las últimas dos semanas, Openai lanzó sus poderosos modelos de razonamiento O3 y O4-Mini unido con la serie GPT-4.1, mientras que Google contrarrestó con Gemini 2.5 Flash, iterando rápidamente en su buque insignia Gemini 2.5 Pro osado poco antiguamente. Para los líderes técnicos empresariales que navegan por este vertiginoso paisaje, designar la plataforma AI correcta requiere mirar mucho más allá de los puntos de narración de modelos que cambian rápidamente

Mientras que los puntos de narración del maniquí versus-model adoptan los titulares, la osadía para los líderes técnicos es mucho más profunda. Designar una plataforma de IA es un compromiso con un ecosistema, que impacta todo, desde costos de enumeración y la táctica de mejora de agentes para modelar la confiabilidad y la integración empresarial.

Pero quizás el diferenciador más traumatizado, bronquear debajo de la superficie pero con profundas implicaciones a dilatado plazo, radica en la finanzas del hardware que alimenta a estos gigantes de IA. Google ejerce una superioridad de costo masiva gracias a su silicio personalizado, potencialmente ejecutando sus cargas de trabajo de IA a una fracción del costo OpenAI incurre en la dependencia de las GPU dominantes del mercado (y de detención ganancia) de NVIDIA.

Este disección profundiza más allá de los puntos de narración para comparar los ecosistemas de AI de Google y OpenAI/Microsoft en los factores críticos que las empresas deben considerar hoy: la disparidad significativa en la finanzas de cálculo de la calculadora, las estrategias divergentes para construir agentes de IA, las compensaciones cruciales en las capacidades y la confiabilidad del maniquí y las realidades y las realidades del ajuste de la empresa y la distribución. El disección se base en Una discusión en video en profundidad que explora estos cambios sistémicos Entre el desarrollador de IA y el desarrollador de IA Sam Witteveen a principios de esta semana.

1. Comput Economics: TPU “Armamento secreta” de Google vs. Impuesto a Nvidia de OpenAi

La superioridad más significativa, pero a menudo poco discutida, que Google tiene es su “armas secreta”: su inversión de una período en unidades de procesamiento de tensores personalizados (TPU). Openai y el mercado más amplio dependen en gran medida de las GPU poderosas pero caras de Nvidia (como la H100 y A100). Google, por otro costado, diseña e implementa sus propias TPU, como la gestación de Ironwood recientemente revelada, para sus cargas de trabajo principales de IA. Esto incluye capacitación y servir modelos de Géminis.

¿Por qué importa esto? Hace una gran diferencia de costos.

NVIDIA Comando GPUS asombrosos márgenes brutos, estimados por analistas para estar en el rango del 80% para chips centrales de datos como el H100 y las próximas GPU B100. Esto significa que Openai (a través de Microsoft Azure) paga una prima considerable, el “impuesto nvidia”, por su poder de cálculo. Google, mediante la fabricación de TPUS internas, evita efectivamente este traumatizado.

Si correctamente las GPU de fabricación pueden costar NVIDIA $ 3,000- $ 5,000, los hiperscalers como Microsoft (suministrando OpenAI) pagan $ 20,000- $ 35,000+ por mecanismo en cuerpo, de acuerdo a a informes. Las conversaciones y el disección de la industria sugieren que Google puede estar obteniendo su poder de cálculo de IA en aproximadamente el 20% del costo incurrido por quienes compran GPU NVIDIA de reincorporación viso. Si correctamente los números exactos son internos, la implicación es un 4x-6x rentabilidad Preeminencia por mecanismo de enumeración para Google a nivel de hardware.

Esta superioridad estructural se refleja en el precio de la API. Comparando los modelos insignia, O3 O3 es aproximadamente 8 veces más caro para tokens de entrada y 4 veces más caros para tokens de salida que el Gemini 2.5 Pro de Google (para longitudes de contexto unificado).

Este diferencial de costos no es universitario; Tiene profundas implicaciones estratégicas. Es probable que Google pueda nutrir precios más bajos y ofrecer una mejor “inteligencia por dólar”, dando a las empresas un costo total total de propiedad (TCO) a dilatado plazo (TCO), y eso es exactamente lo que está haciendo en este momento en la maña.

Mientras tanto, los costos de Openai están intrínsecamente vinculados al poder de fijación de precios de Nvidia y los términos de su acuerdo de Azure. De hecho, los costos de cálculo representan un 55-60% del total de gastos operativos de $ 9B de Openai en 2024, según algunos informes, y están proyectado a pasar el 80% en 2025 como thescalera EY. Mientras que el crecimiento de los ingresos proyectados de OpenAI es elevado, potencialmente llegó a $ 125 mil millones para 2029 Según los pronósticos internos reportados – Ordenar este pago de enumeración sigue siendo un desafío crítico, Conducir su búsqueda de silicio personalizado.

2. Agentes marcos: el enfoque del ecosistema despejado de Google contra uno integrado de OpenAI

Más allá del hardware, los dos gigantes buscan estrategias divergentes para construir e implementar los agentes de IA preparados para automatizar los flujos de trabajo empresariales.

Google está haciendo un claro impulso para la interoperabilidad y un ecosistema más despejado. En Cloud las próximas dos semanas, dio a conocer el protocolo de agente a agente (A2A), diseñado para permitir que los agentes construidos en diferentes plataformas se comuniquen, unido con su Kit de mejora de agentes (ADK) y el centro de Agentspace para descubrir y cuidar agentes. Mientras que la prohijamiento de A2A enfrenta obstáculos, los jugadores esencia como Anthrope no han firmado (VentureBeat contactó a Anthrope sobre esto, pero Anthrope declinó hacer comentarios), y algunos desarrolladores debaten su indigencia unido con el protocolo de contexto maniquí (MCP) existente de Anthrope. La intención de Google es clara: para fomentar un mercado de agentes múltiples de proveedores, potencialmente alojados en su rosaleda de agentes o a través de una tienda de aplicaciones de agentes rumoreados.

Operai, por el contrario, parece enfocado en crear agentes potentes y de uso de herramientas estrechamente integrados en el interior de su propia pila. El nuevo maniquí O3 ejemplifica esto, capaz de hacer cientos de llamadas de herramientas en el interior de una sola dependencia de razonamiento. Los desarrolladores aprovechan las respuestas API y agentes SDK, unido con herramientas como la nueva CLI Codex, para construir agentes sofisticados que operan en el interior del techo de confianza de OpenAI/Azure. Si correctamente marcos como el autógeno de Microsoft ofrecen cierta flexibilidad, la táctica central de OpenAI parece menos acerca de la comunicación multiplataforma y más de maximizar las capacidades de agente verticalmente en el interior de su entorno controlado.

  • La comida para arrostrar en la empresa: Las empresas priorizan la flexibilidad y la capacidad de mezclar y combinar agentes de varios proveedores (por ejemplo, que enchufan un agente de Salesforce a Vertex AI) puede encontrar atractivo el enfoque despejado de Google. Aquellos profundamente invertidos en el ecosistema de Azure/Microsoft o que prefieren una pila de agentes de detención rendimiento más ventilado verticalmente podría esconderse cerca de OpenAi.

3. Capacidades del maniquí: paridad, rendimiento y puntos débiles

El implacable ciclo de emancipación significa que el liderazgo maniquí es fugaz. Mientras que el O3 de OpenAI actualmente supera a Gemini 2.5 Pro en algunos puntos de narración de codificación como SWE Bench Verified and Aider, Gemini 2.5 Pro coincide o lidera en otros como GPQA y AIME. Gemini 2.5 Pro igualmente es el líder genérico en la tabla de clasificación de la arena del maniquí de idioma magnate (LLM). Sin incautación, para muchos casos de uso empresarial, los modelos han ajustado la paridad aproximada en las capacidades centrales.

El vivo La diferencia radica en sus distintas compensaciones:

  • Contexto vs. Profundidad de razonamiento: Gemini 2.5 Pro cuenta con una ventana de contexto masiva de 1 millón de token (con 2M planeado), ideal para procesar grandes bases de código o conjuntos de documentos. O3 O3 ofrece una ventana de 200k, pero enfatiza el razonamiento profundo y asistido por herramientas en el interior de un solo turno, facultado por su enfoque de educación de refuerzo.
  • Confiabilidad contra peligro: Esto está emergiendo como un diferenciador crítico. Mientras que O3 muestra un razonamiento impresionante, la polímero maniquí de OpenAi para 03 reveló que alucina significativamente más (2 veces la tasa de O1 en Personqa). Algunos disección sugieren que esto podría provenir de su Razonamiento difícil y mecanismos de uso de herramientas. Gemini 2.5 Pro, aunque tal vez a veces se percibe como menos progresista en su estructura de salida, a menudo es descrito por los usuarios como más confiables y predecibles para las tareas empresariales. Las empresas deben ponderar las capacidades de vanguardia de O3 contra este aumento documentado en el peligro de visión.
  • La comida para arrostrar en la empresa: El maniquí “mejor” depende de la tarea. Para analizar grandes cantidades de contexto o priorizar expectativas predecibles, Gemini 2.5 Pro tiene una superioridad. Para las tareas que exigen el razonamiento múltiple más profundo, donde el peligro de visión se puede cuidar cuidadosamente, O3 es un contendiente poderoso. Como Sam Witteveen señaló en nuestro Podcast en profundidad sobre estolas pruebas rigurosas en el interior de casos de uso empresarial específicos son esenciales.

4. Enterprise Fit & Distribution: Profundidad de integración contra trascendencia del mercado

En última instancia, la prohijamiento a menudo depende de la facilidad con la que una plataforma se encuentra en la infraestructura y los flujos de trabajo existentes de una empresa.

La fortaleza de Google se encuentra en una profunda integración para los clientes existentes de Google Cloud y Workspace. Los modelos Gemini, Vertex AI, Agentspace y herramientas como BigQuery están diseñados para trabajar perfectamente juntos, ofreciendo un plano de control unificado, gobernanza de datos y un tiempo de valía potencialmente más rápido para las empresas ya invertido en el ecosistema de Google. Google está cortejando activamente a grandes empresas, mostrando implementaciones con empresas como Wendy’s, Wayfair y Wells Fargo.

Openai, a través de Microsoft, cuenta con un trascendencia y accesibilidad de mercado incomparables. La enorme saco de usuarios de ChatGPT (~ 800m MAU) crea una amplia llaneza. Más importante aún, Microsoft está integrando agresivamente los modelos OpenAI (incluida la última serie O) en sus ubicuos servicios de copilotes y azules de Microsoft 365, lo que hace que las potentes capacidades de IA estén disponibles para potencialmente cientos de millones de usuarios empresariales, a menudo en el interior de las herramientas que ya usan diariamente. Para las organizaciones que ya están estandarizadas en Azure y Microsoft 365, la prohijamiento de OpenAI puede ser una extensión más natural. Por otra parte, el uso extenso de las API de OpenAI por parte de los desarrolladores significa que muchas indicaciones y flujos de trabajo empresariales ya están optimizados para los modelos OpenAI.

  • La osadía estratégica: La sufragio a menudo se reduce a las relaciones de proveedores existentes. Google ofrece una historia convincente e integrada para sus clientes actuales. OpenAI, alimentado por el motor de distribución de Microsoft, ofrece una accesibilidad amplia y una prohijamiento potencialmente más comprensible para la gran cantidad de empresas centradas en Microsoft.

Google vs Openai/Microsoft tiene compensaciones para empresas

La erradicación generativa de la plataforma de IA entre Google y OpenAI/Microsoft se ha movido mucho más allá de las simples comparaciones de modelos. Si correctamente entreambos ofrecen capacidades de vanguardia, representan diferentes apuestas estratégicas y presentan ventajas y compensaciones distintas para la empresa.

Las empresas deben ponderar los enfoques diferentes para los marcos de agentes, las compensaciones matizadas entre las capacidades del maniquí como la largo de contexto contra el razonamiento de vanguardia y los aspectos prácticos del trascendencia de la integración y distribución empresarial.

Sin incautación, avanzar sobre todos estos factores es la clara sinceridad del costo de cálculo, que surge como quizás el diferenciador a dilatado plazo más crítico y definitorio, especialmente si OpenAi no logra abordarlo rápidamente. La táctica de TPU integrada verticalmente de Google, lo que le permite evitar potencialmente el “impuesto NVIDIA” de ~ 80% integrado en los precios de GPU que las cargas abiertos, representa una superioridad económica fundamental, potencialmente una que cambia el placer.

Esto es más que una diferencia beocio de precios; Impacta todo, desde la asequibilidad de la API y la previsibilidad de TCO a dilatado plazo hasta la escalabilidad pura de las implementaciones de IA. A medida que las cargas de trabajo de IA crecen exponencialmente, la plataforma con el motor financiero más sostenible, impulsado por la costumbre del hardware, tiene una potente superioridad estratégica. Google está aprovechando esta superioridad y al mismo tiempo presiona una visión abierta para la interoperabilidad del agente.

OpenAI, respaldado por la escalera de Microsoft, contrarresta con modelos de uso de herramientas profundamente integrados y un trascendencia de mercado incomparable, aunque quedan preguntas sobre su estructura de costos y su confiabilidad del maniquí.

Para tomar la osadía correcta, los líderes técnicos empresariales deben mirar más allá de los puntos de narración y evaluar estos ecosistemas en función de sus implicaciones de TCO a dilatado plazo, su enfoque preferido para la táctica y la comprensión de los agentes, su tolerancia a los riesgos de confiabilidad del maniquí contra el poder de razonamiento crudo, su pila de tecnología existentes y sus deposición de aplicación específicas.

Mira el video donde Sam Witteveen y yo desglosamos:

https://www.youtube.com/watch?v=dzzdjnd-yfw


Related Posts

Revisión: Sonnet MacCuff Mini: un M4 Mini Mount (video) perfectamente diseñado (video)

Sonnet’s MacCuff Mini Es una excelente guisa de copular de forma segura su Mac Mini debajo de su escritorio, en una muro o detrás de un instructor, lo que le…

RTX 50-Series Goes (casi) completamente blanco, ya que ASUS anuncia nuevas variantes antiguamente de Computex 2025

Asus está trayendo un toque nevado a sus últimos GPU: la compañía solo desestimado White Editions en su segmento de tarjetas gráficas RTX 50-Series. Estos incluyen el Rog Astral premium,…

Leave a Reply

Your email address will not be published. Required fields are marked *

You Missed

Crecimiento sostenible en comunidades rurales de RD y otros de América

Crecimiento sostenible en comunidades rurales de RD y otros de América

Ni tanto huele la piropo de Omar Fernández (0PINION)  | AlMomento.net

Ni tanto huele la piropo de Omar Fernández (0PINION)  | AlMomento.net

Rasgos identitarios de la ultraderecha | AlMomento.net

Rasgos identitarios de la ultraderecha | AlMomento.net

Autoridades Irán dispuestas a firmar nuevo acuerdo nuclear | AlMomento.net

Autoridades Irán dispuestas a firmar nuevo acuerdo nuclear | AlMomento.net