

Uno de los primeros anuncios en el WWDC de este año fue que, por primera vez, los desarrolladores de terceros podrán exprimir directamente la IA de uso de Apple con el nuevo entorno de modelos de pulvínulo. Pero, ¿cómo se comparan positivamente estos modelos con lo que ya está acondicionado?
Con el nuevo entorno de los modelos de fundaciones, los desarrolladores de terceros ahora pueden construir sobre la misma pila de IA en el dispositivo utilizada por las aplicaciones nativas de Apple.
En otras palabras, esto significa que los desarrolladores ahora podrán integrar características de IA como resumir documentos, extraer información esencia del texto del sucesor o incluso difundir contenido estructurado, completamente fuera de trayecto, con cero costo de API.
Pero, ¿qué tan buenos son los modelos de Apple, positivamente?
Competitivo donde cuenta
Basado en el propio de Apple Evaluaciones humanasLa respuesta es: sobrado sólida, especialmente cuando considera el contrapeso (que algunos podrían emplazar ‘compensación’) entre tamaño, velocidad y eficiencia.
En las pruebas de Apple, su maniquí de parámetro ~ 3B en el dispositivo superó a modelos similares de jerga de visión tenue similares como Internvl-2.5 y Qwen-2.5-VL-3B en tareas de imágenes, ganando más del 46% y 50% de las indicaciones, respectivamente.

Y en texto, se mantuvo firme contra modelos más grandes como Gemma-3-4B, incluso avanzando en algunos lugares internacionales en inglés y evaluaciones multilingües (portugués, francés, japonés, etc.).
En otras palabras, los nuevos modelos locales de Apple parecen ofrecer resultados consistentes para muchos usos del mundo vivo sin acudir a la abundancia o requerir que los datos abandonen el dispositivo.

Cuando se manejo del maniquí de servidor de Apple (que no se puede aceptar por desarrolladores de terceros como los modelos locales), se comparó favorablemente con LLAMA-4-Scout e incluso superó QWEN-2.5-VL-32B en la comprensión de la imagen. Dicho esto, GPT-4O todavía lidera cómodamente el paquete en militar.
La parte “rescatado y fuera de trayecto” positivamente importa
La verdadera historia aquí no es solo que los nuevos modelos de Apple son mejores. Es que están integrados. Con el entorno de los modelos de Foundation, los desarrolladores ya no necesitan agrupar modelos de jerga pesado en sus aplicaciones para el procesamiento fuera de trayecto. Eso significa tamaños de aplicaciones más delgados y no es necesario acudir a la abundancia para la mayoría de las tareas.
El resultado? Una experiencia más privada para los usuarios y los costos de API para los desarrolladores, ahorros que pueden beneficiar a todos.
Apple dice que los modelos están optimizados para horizontes estructuradas que utilizan un sistema de “concepción guiada” nativo de Swift, que permite a los desarrolladores delimitar las respuestas del maniquí directamente a la deducción de la aplicación. Para las aplicaciones en educación, productividad y comunicación, esto podría ser un cambio de selección, ofreciendo los beneficios de LLM sin las compensaciones de latencia, costo o privacidad.
En última instancia, los modelos de Apple no son los más poderosos del mundo, pero no necesitan serlo. Son buenos, son rápidos, y ahora están disponibles para todos los desarrolladores de forma gratuita, en dispositivo y fuera de trayecto.
Eso podría no aparecer en los mismos titulares que los modelos más poderosos, pero en la destreza, podría conducir a una ola de características de IA positivamente avíos en aplicaciones de iOS de terceros que no requieren la abundancia. Y para Apple, ese puede ser el punto.