Apple recurre a Google Gemini para obtener inteligencia de Apple
Manzana ha confirmado que las próximas funciones de Apple Intelligence en el iPhone estarán impulsadas en parte por GoogleModelos de IA Gemini de. El cambio se produce tras retrasos en la propia hoja de ruta de IA de Apple y marca un cambio significativo en cómo evolucionarán Siri y la inteligencia a nivel de sistema durante el próximo año.
Si correctamente Apple no ha publicado una serie completa de funciones, varios informes describen las capacidades respaldadas por Gemini que se dilación que lleguen en las próximas versiones de iOS.
Se dilación que las funciones de Siri utilicen modelos Gemini
Más respuestas conversacionales y conscientes del contexto
Se dilación que una interpretación renovada de Siri ofrezca respuestas más naturales al estilo de un chatbot. En emplazamiento de respuestas transaccionales breves, Siri podrá proporcionar respuestas conversacionales más largas similares a ChatGPT y Géminis. Esto incluye un mejor manejo de preguntas ambiguas y mensajes de seguimiento cuando las solicitudes no son claras.
Manejo de tareas ampliado
Se dilación que Siri con tecnología Gemini realice acciones más complejas, que incluyen:
- Crear documentos directamente en aplicaciones como Apple Notes
- Reservar viajes y diligenciar solicitudes de varios pasos
- Tomar medidas en el interior de las aplicaciones en emplazamiento de redirigir a los usuarios
Estos cambios se basan en el objetivo previamente anunciado de Apple de hacer que Siri sea más útil en todo el sistema en emplazamiento de ejecutar como una utensilio de acercamiento directo sólo de voz.
Respuestas emocionales y narrativas
Los informes además sugieren que Siri será capaz de crear historias y ofrecer respuestas de apoyo cuando los usuarios expresen estados emocionales. Apple no ha aclarado cómo se presentarán o controlarán estas funciones, pero son parte de una puesta al día conversacional más amplia.
Funciones de inteligencia de Apple revividas con soporte Gemini
Contexto personal y conciencia en pantalla
Varias funciones de Apple Intelligence que se mostraron por primera vez en la WWDC 2023 se retrasaron y ahora se dilación que se envíen con modelos Gemini. Estos incluyen:
- Conocimiento del contexto personal para demarcar mensajes, correos electrónicos o archivos almacenados en el dispositivo
- Conciencia en pantalla que permite a Siri interactuar con contenido visible
- Acciones en el interior de la aplicación que permiten a los usuarios emitir comandos específicos para aplicaciones activas
Estas capacidades dependen de un acercamiento al sistema más profundo que el que suelen acoger las aplicaciones de IA de terceros.
Funciones previstas para futuras versiones de iOS
Memoria y sugerencias proactivas
De cara al futuro, las funciones de Siri que se dilación que debuten en futuras versiones de iOS incluyen la capacidad de recapacitar conversaciones pasadas y proporcionar sugerencias proactivas. Los ejemplos incluyen exhortar cuándo salir para una cita en función del tráfico o recapacitar a los usuarios sobre los próximos planes sin que se les solicite.
Se dilación que Apple comparta más detalles en WWDCtradicionalmente celebrado en junio.
Cuándo se dilación que lleguen estas funciones
Según se informa, las primeras funciones impulsadas por Gemini están en camino de conseguir en una próxima interpretación puntual de iOS, con actualizaciones más amplias de Siri en versiones posteriores. Apple no ha confirmado los plazos exactos, pero se dilación que las pruebas beta comiencen pronto.
Si se entrega como se describe, la integración de Gemini representaría la veterano puesta al día eficaz de Siri en abriles, acercándolo a un asistente de conversación completo mientras permanece profundamente integrado en el ecosistema de Apple.





