Así es como probablemente funcionará Siri con tecnología Gemini debajo del capó

A principios de esta semana, Bloomberg informó que Google y Apple están cerca de demorar a un acuerdo anual de mil millones de dólares para una lectura del maniquí Gemini que impulsará el renovado Siri el próximo año.

Pero quizás más interesante que el precio sea un delegado que verdaderamente afectará la experiencia de todos: su cimentación. He aquí un vistazo a cómo probablemente funcionará.

¿Son mucho 1,2 billones de parámetros?

De acuerdo a Bloomberg‘s documentaciónGoogle proporcionará a Apple un maniquí de parámetros de 1,2 billones, que residirá en los servidores Private Cloud Compute de Apple, impidiendo efectivamente que Google acceda a cualquiera de ellos. En cuanto a la privacidad, eso es ingenioso.

En cuanto al tamaño, un maniquí de 1,2 billones de parámetros no es nadie despreciable. Sin incautación, una comparación directa con los últimos y mejores modelos de la competencia es todo un desafío.

Esto se debe a que en los últimos abriles, los laboratorios de inteligencia industrial de frontera cerrada como OpenAI, Anthropic y Google han dejado de revelar los recuentos de parámetros de sus últimos modelos emblemáticos. Esto ha llevado a especulaciones muy diversas sobre el serio número de parámetros de ofertas como GPT-5, Gemini 2.5 Pro y Claude Sonnet 4.5. Algunos los sitúan por debajo del billón de parámetros, mientras que otros sugieren que alcancen unos pocos billones. En verdad, nadie lo sabe verdaderamente.

Por otro costado, una cosa que la mayoría de estos enormes últimos modelos tienen en global es una cimentación subyacente conocida como mezcla de expertos (MoE). De hecho, Apple ya emplea una lectura de MoE en su maniquí coetáneo basado en la estrato, que se rumorea que tiene 150 mil millones de parámetros.

El maniquí Gemini de Siri probablemente utilizará una mezcla de expertos

En pocas palabras, MoE es una técnica que estructura un maniquí con múltiples subredes especializadas llamadas “expertos”. Para cada entrada, solo se activan unos pocos expertos relevantes, lo que da como resultado un maniquí más rápido y más competente desde el punto de aspecto computacional.

En otras palabras, esto permite que los modelos MoE tengan recuentos de parámetros muy altos, manteniendo al mismo tiempo los costos de inferencia mucho más bajos que si el 100% de sus parámetros tuvieran que activarse para cada entrada.

Aquí hay otra cosa acerca de los modelos que adoptan el enfoque MoE: generalmente tienen una cantidad máxima de expertos activos y una cantidad máxima de parámetros activos para cada entrada, lo que resulta en poco como esto:

Un maniquí con 1,2 billones de parámetros totales podría utilizar 32 expertos, con sólo 2 a 4 expertos activos por token. Esto significa que solo entre 75 y 150 mil millones de parámetros verdaderamente están realizando cálculos en un momento legado, lo que le brinda la capacidad de un maniquí masivo y al mismo tiempo mantiene costos computacionales similares a los de ejecutar un maniquí mucho más pequeño.

Aquí hay un excelente video realizado por IBM que explica con más detalle cómo funciona MoE:

Para ser claros, no ha habido informes sobre la cimentación del maniquí que Google podría proporcionarle a Apple, en caso de que cierren el trato sobre su supuesta asociación. Pero con 1,2 billones de parámetros, es muy Es probable que requiera que el enfoque del Tarea de Educación funcione de modo competente, dadas las alternativas disponibles en la contemporaneidad.

Si ese tamaño será suficiente para suministrar a Siri con tecnología Gemini competitiva con los modelos que estarán disponibles cuando se incidente el próximo año, es una historia diferente.

Ofertas de accesorios en Amazon

Agregue 9to5Mac como fuente preferida en Google
Agregue 9to5Mac como fuente preferida en Google

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.

Related Posts

XAI de Elon Musk demandada por convertir fotos reales de tres niñas en AI CSAM

Su primer instinto fue contactar a las otras víctimas que conocía, luego “finalmente, se contactó a la policía específico y se abrió una investigación criminal”, dice la denuncia. Al investigar…

Google Calendar está solucionando una de las peculiaridades de la zona horaria más molestas

Edgar Cervantes / Autoridad Android TL;DR Google Calendar está eliminando la molesta restricción de tener que desplazarse por una larga serie de zonas horarias para nominar la correcta. Los usuarios…

You Missed

Compañía Franquista de Teatro inicia celebración 80 aniversario | AlMomento.net

Compañía Franquista de Teatro inicia celebración 80 aniversario | AlMomento.net

Estampación impresa 17 de marzo 2026

Estampación impresa 17 de marzo 2026

‘Niñas Rojo’, documental dominicano sobre el pérdida se estrena en el festival South By Southwest

‘Niñas Rojo’, documental dominicano sobre el pérdida se estrena en el festival South By Southwest

XAI de Elon Musk demandada por convertir fotos reales de tres niñas en AI CSAM

XAI de Elon Musk demandada por convertir fotos reales de tres niñas en AI CSAM

Fiscales demócratas piden al Tribunal Supremo de EE. UU. prolongar el TPS para más de 350,000 haitianos

Fiscales demócratas piden al Tribunal Supremo de EE. UU. prolongar el TPS para más de 350,000 haitianos

Centro Cultural BR anuncia concierto Patricia Pereyra | AlMomento.net

Centro Cultural BR anuncia concierto Patricia Pereyra | AlMomento.net