
El evento Google I/O 2025 de este año ocurre el 20 de mayo, y probablemente se centrará tanto en las nuevas funciones de Gemini AI que Google tiene la intención de introducir en el futuro cercano que la compañía no tendrá tiempo para carencia más. Android, una vez la suerte obvia del software, está obteniendo un “show de Android” distinto el 13 de mayo, que será transmitido en bisectriz. Esa es una pista clara de que I/O 2025 se manejo de IA.
Pero Google ni siquiera podía esperar a que E/S 2025 lanzara una gran puesta al día de su final maniquí de IA, Gemini 2.5 Pro. La interpretación de E/S Edition ha estado probando tan adecuadamente con los usuarios que Google lo puso a disposición de cualquier persona para usar.
No es sorprendente ver que las empresas de IA publiquen nuevos productos cada vez que estén listos. Sucede todo el tiempo, y estamos acostumbrados a ver anuncios de IA saliendo de la carencia. Lo estoy diciendo porque Google dio a conocer la primera interpretación de Gemini 2.5 Pro hace solo unas semanas, lo que la puso a disposición de los usuarios de Gemini en los niveles pagados y gratuitos.
Ese ya es un emanación masivo de IA. Gemini 2.5 Pro trae poderes de razonamiento a Géminis, una larga ventana de contexto (1 millón de tokens), mejores habilidades de codificación y puntajes de remisión altos. No necesariamente esperaría una puesta al día tan pronto, pero Google todavía nos dio una.
“Íbamos a editar esta puesta al día en Google E/S en un par de semanas, pero según el abrumador entusiasmo por este maniquí, queríamos ponerla en sus manos antaño para que la muchedumbre pueda comenzar a construir”, dijo Google. En una publicación de blog.
Google lo apasionamiento “acercamiento temprano”, y el nombre del maniquí es la instinto previa de Gemini 2.5 Pro (estampado de E/S). Sí, los nombres de IA de Google no son mucho mejores que los de Operai.
El enfoque de esta puesta al día es la codificación. Google dice que la interpretación actualizada de 2.5 Pro “ha mejorado significativamente las capacidades para la codificación, especialmente la creación de aplicaciones web interactivas convincentes”, que ya “se plinto en la feedback abrumadoramente positiva a las capacidades de codificación y razonamiento multimodal de Gemini 2.5 Pro”.
Google asimismo tiene un blog sobre su Desarrolladores Sitio web que explica las nuevas habilidades de codificación de Gemini 2.5 Pro.
Encima, Google tiene nuevos puntajes de remisión para demostrar que la nueva interpretación Gemini 2.5 Pro es mejor que las alternativas. Gemini 2.5 Pro Preview (Tirada de E/S) encabeza la tabla de clasificación de Webdev Arena, que mide “preferencia humana por la capacidad de un maniquí para construir aplicaciones web funcionales y estéticamente agradables”. Google dice que el nuevo maniquí tiene un “rendimiento de última vivientes en la comprensión de video, con una puntuación del 84.8% en el punto de remisión de VideoMme”.
Hablando de video, Google dice que el nuevo maniquí Gemini 2.5 Pro puede crear aplicaciones interactivas aún mejores basadas en un solo video de YouTube. El posterior video muestra a Gemini creando un cuestionario completamente utilitario posteriormente de “ver” un video (ver clip en lo alto).
Los desarrolladores que confían en los modelos de IA más recientes para aplicaciones de código de vibra probablemente apreciarán el nuevo emanación de Gemini 2.5 Pro más. Pero los usuarios regulares de Géminis con acercamiento a los modelos de IA deberían beneficiarse de las mejoras. Independientemente del enfoque de Google en la codificación, Gemini 2.5 Pro es el mejor maniquí de IA que puede obtener de Google.
Si adecuadamente Gemini 2.5 Pro está habitable de forma gratuita para los usuarios de Gemini, obtendrá limitaciones en el camino, como los límites de velocidad y una ventana de contexto más corta. Si está suscrito a Gemini Advanced, debe tener acercamiento a todos los últimos modelos AI de Google, incluida la instinto previa de Gemini 2.5 Pro (estampado de E/S).
Los desarrolladores que buscan constatar con el nuevo maniquí pueden usarlo en Google AI Studio y Vertex AI. Querrán ver el blog más detallado de Google en este enlace.