Apple está desarrollando una nueva interpretación de Siri que se supone que es mejor que el siri existente en todos los sentidos. Será más inteligente y podrá hacer más, funcionando como ChatGPT o Claude en puesto de un asistente de teléfonos inteligentes de la era de 2012 casi nada competente.

La puesta al día Siri no ha estado sin hipo, y se ha retrasado una vez. Hemos reunido todo lo que sabemos sobre el trabajo de Apple en un siri más capaz que utiliza modelos de idiomas grandes.
Llm Siri
La interpretación de próxima vivientes de siri utilizará modelos avanzados de idiomas grandes, similares a ChatGPT, Claude, Gemini y otros chatbots de IA.
LLM SIRI podría sustentar conversaciones continuas y proporcionar respuestas de forma humana a las preguntas, encima el asistente sería capaz de completar tareas más complejas.
Retrasos de Apple Intelligence Siri
En lo que se convirtió en un movimiento infame, Apple fue todo en una interpretación más inteligente de Siri cuando mostró iOS 18 en la Conferencia de Desarrolladores Mundiales 2024.
Apple incluso destacó las características avanzadas de inteligencia de Apple cuando se lanzaron los modelos de iPhone 16, pero luego de meses de clientes que esperaban el nuevo conjunto de funciones, Apple dijo que no llegaría.
En marzo de 2025, Apple dijo que las características apple de inteligencia Siri que esperaba introducir en ios 18 no llegarían en iOS 18. Apple dijo que Siri no estaría presto hasta 2026.
Las características de Siri que fueron retrasadas
La funcionalidad Siri que se retrasó ni siquiera era la interpretación LLM de siri que se rumoreaba. Era un maniquí intermedio que era más inteligente, pero sin capacidades de chatbot completas. Esto es lo que estamos esperando:
Contexto personal
Con el contexto personal, Siri podrá realizar un seguimiento de los correos electrónicos, mensajes, archivos, fotos y más, ilustrarse más sobre usted para ayudarlo a completar tareas y realizar un seguimiento de lo que ha sido enviado.
- Muéstrame los archivos que Eric me envió la semana pasada.
- Encuentre el correo electrónico donde Eric mencionó el patinaje sobre hielo.
- Encuentra los libros que Eric me recomendó.
- ¿Dónde está la prescripción que me envió Eric?
- ¿Cuál es mi número de pasaporte?
Conciencia en la pantalla
La conciencia en la pantalla permitirá que siri vea lo que hay en su pantalla y las acciones completas que involucran lo que esté viendo. Si determinado le envía un mensaje de texto con una dirección, por ejemplo, puede decirle a siri que la agregue a su maleable de contacto. O si está mirando una foto y quiere enviarla a determinado, puede pedirle a siri que lo haga por usted.
Integración de aplicaciones más profunda
La integración de aplicaciones más profunda significa que sIri podrá hacer más en las aplicaciones, realizando acciones y completando tareas que simplemente no son posibles con el asistente personal en este momento. No tenemos una imagen completa de lo que será capaz siri, pero Apple ha proporcionado algunos ejemplos de qué esperar.
- Mover archivos de una aplicación a otra.
- Editar una foto y luego enviarla a determinado.
- Obtenga instrucciones a casa y comparta el ETA con Eric.
- Envíe el correo electrónico que redacté a Eric.
Rediseño de Siri
Obtuvimos más contexto sobre lo que salió mal con siri cuando Apple presentó a iOS 26 y los ejecutivos de Apple hicieron una serie de entrevistas para explicar la situación.
El principal de ingeniería de software de Apple, Craig Federighi, dijo que la edificación de primera vivientes que Apple estaba desarrollando para las características personalizadas de Siri terminó siendo demasiado limitada. Siri no pudo igualar los altos estándares de Apple, y para la primavera de 2025, Apple se dio cuenta de que necesitaba hacer la transición siri a la edificación de segunda vivientes (incluso conocida como la interpretación LLM de siri) que había estado planeando.
Con Apple abandonando la edificación Siri de primera vivientes en la que había estado trabajando, las nuevas características siri tuvieron que retrasarse hasta que la edificación de segunda vivientes estuviera índice.
En una reunión de todas las manos en agosto, Federighi dijo a los empleados que Apple había intentado fusionar dos sistemas separados, y no funcionó. Apple tenía un sistema para manejar los comandos actuales y otro basado en modelos de idiomas grandes. Federighi dijo que Apple se dio cuenta de que el enfoque híbrido no iba a funcionar.
Federighi dijo que Apple ha renovado con éxito siri, y que será una puesta al día más holgado de lo esperado. “El trabajo que hemos realizado en esta renovación de extremo a extremo de siri nos ha cubo los resultados que necesitamos”, dijo Federighi a los empleados. “Esto nos ha puesto en condiciones de no solo entregar lo que anunciamos, sino para ofrecer una puesta al día mucho anciano que la que imaginamos”.
Reestructuración interna
El paso en apócrifo con el presentación de Siri y el fracaso de la edificación híbrida llevaron a Apple a reestructurar todo su equipo de IA. El principal de AI de Apple, John Giannandrea, fue eliminado del equipo de liderazgo Siri, con el principal profesional de Vision, Mike Rockwell, asumiendo el cargo.
El CEO de Apple, Tim Cook, ya no confiaba en la capacidad de Giannandrea para supervisar el avance de productos. Rockwell informa a Federighi, y Federighi les dijo a los empleados que el nuevo liderazgo ha “sobrealimentado” el avance de Siri.
Apple incluso ha tenido problemas para retener a los empleados de IA en medio del problema y estrategias de sustitución de compañías como Meta. Metaescializó a varios ingenieros esencia de IA de Apple, ofreciendo paquetes de suscripción de hasta $ 200 millones. En la reunión de todas las manos de Apple, Cook y Federighi pretendían apoyar a los empleados que la IA es de suma importancia para la compañía. “No hay ningún esquema que la familia se tome más en serio”, dijo Federighi sobre siri.
Cook dijo que Apple “hará la inversión” para ser un líder en IA.
¿Apple’s LLM o una asociación?
Parte de la razón por la que Apple está viendo una víctima íntegro entre sus empleados de IA son los rumores de que un maniquí de jerga holgado diseñado por Apple que está en avance podría estar marginado.
Se rumorea que Apple está considerando una asociación con el creador de chatgpt OpenAi o el creador de Claude Anthrope para surtir la interpretación más inteligente de siri. Según los informes, ambas compañías están capacitando versiones de sus modelos que funcionarían con los servidores privados de la nubarrón de Apple, y Apple está ejecutando pruebas con sus propios modelos y modelos de compañías externas. No se ha tomado la intrepidez final sobre siri hasta el momento.
Asociarse con una empresa como Anthrope o OpenAI permitiría a Apple entregar el conjunto de características Siri exacto a la que apunta, al tiempo que le da tiempo para continuar trabajando por su propia LLM detrás de número.
Momento de tiro
Los ejecutivos de Apple han confirmado que la nueva interpretación de siri se lanzará en 2026, y los rumores sugieren que se producirá tan pronto como la primavera de 2026. Si de hecho se planea para la primavera, Apple podría implementar las características en iOS 26.4, porque las actualizaciones de software .4 a menudo están reservadas para mejoras de funciones significativas.






