Google acaba de dar un paso importante en la carrera armamentista de infraestructura de IA, elevando a Amin Vahdat a tecnólogo presidente de infraestructura de IA, un puesto recién creado que reporta directamente al CEO Sundar Pichai, según un memorando interno primero. reportado por Semafor. Es una señal de cuán crítico se ha vuelto este trabajo a medida que Google se pica a $93 mil millones en gastos de haber para fines de 2025, una monograma que la empresa matriz Alphabet dilación que sea mucho longevo el próximo año.
Vahdat no es nuevo en el diversión. El sabio informático, que tiene un doctorado de UC Berkeley y comenzó como pasante de investigación en Xerox PARC a principios de los primaveras 90, ha estado construyendo silenciosamente la columna vertebral de la IA de Google durante los últimos 15 primaveras. Antiguamente de unirse a Google en 2010 como ingeniero y vicepresidente, fue profesor asociado en la Universidad de Duke y luego profesor y presidente de SAIC en UC San Diego. Sus credenciales académicas son formidables, con lo que parece estar a su cerca de. 395 artículos publicados – y su investigación siempre se ha centrado en hacer que las computadoras funcionen de forma más valioso a escalera masiva.
Vahdat ya mantiene un suspensión perfil en Google. Hace tan pronto como ocho meses, en Google Cloud Next, presentó la TPU de séptima gestación de la compañía, citación Ironwood, en su papel de vicepresidente y director normal de educación necesario, sistemas e inteligencia industrial en la nubarrón. Las especificaciones que mencionó en el evento asimismo fueron asombrosas: más de 9.000 chips por módulo que entregaban 42,5 exaflops de enumeración, más de 24 veces la potencia de la supercomputadora número uno del mundo en ese momento, dijo. “La demanda de computación de IA se ha multiplicado por 100 millones en sólo ocho primaveras”, dijo a la audiencia.
Detrás de número, como señaló Semafor, Vahdat ha estado orquestando el trabajo poco glamoroso y esencial que mantiene competitivo a Google, incluidos esos chips TPU personalizados para entrenamiento e inferencia de IA que le dan a Google una superioridad sobre rivales como OpenAI, así como la red Júpiter, la red interna súper rápida que permite que todos sus servidores se comuniquen entre sí y muevan cantidades masivas de datos. (En un publicación de blog A fines del año pasado, Vahdat dijo que Júpiter ahora escalera a 13 petabits por segundo, explicando que es suficiente orondo de bandada para soportar teóricamente una videollamada para los 8 mil millones de personas en la Tierra simultáneamente). Es la tubería invisible que conecta todo, desde YouTube y la Búsqueda hasta las operaciones masivas de entrenamiento de IA de Google en cientos de estructuras de centros de datos en todo el mundo.
Vahdat asimismo ha estado profundamente involucrado en el exposición en curso del sistema de software Borg, el sistema de gobierno de clústeres de Google que actúa como el cerebro que coordina todo el trabajo que ocurre en sus centros de datos y cuyo trabajo es determinar qué servidores deben ejecutar qué tareas, cuándo y durante cuánto tiempo. Y ha dicho que supervisó el exposición de Axion, las primeras CPU de uso normal personalizadas basadas en Arm de Google diseñadas para centros de datos, que la empresa presentado el año pasado y sigue construyendo.
En prontuario, Vahdat es fundamental para la historia de la IA de Google.
De hecho, en un mercado donde los mejores talentos de IA exigen una compensación astronómica y un sustitución constante, la audacia de Google de elevar a Vahdat a la ingreso dirección asimismo puede tener que ver con la retención. Cuando has pasado 15 primaveras convirtiendo a cierto en un eje de tu táctica de IA, te aseguras de que se quede.
Evento tecnológico
san francisco
|
13-15 de octubre de 2026





