Por qué la nueva API de Interacciones de Google es tan importante para los desarrolladores de IA

Por qué la nueva API de Interacciones de Google es tan importante para los desarrolladores de IA

Durante los últimos dos abriles, la pelotón fundamental del avance de la IA generativa ha sido la "terminación."

Usted envía un mensaje de texto a un maniquí, éste devuelve el texto y la transacción finaliza. Si desea continuar la conversación, debe cursar nuevamente el historial completo al maniquí. Este "apátrida" obra: encarnada por el nuncio de Google generateContent endpoint: era consumado para chatbots simples. Pero a medida que los desarrolladores avanzan con destino a agentes autónomos que utilizan herramientas, mantienen estados complejos y "pensar" A prolongado plazo, ese maniquí apátrida se ha convertido en un claro cuello de botella.

La semana pasada, Google DeepMind finalmente abordó esta brecha de infraestructura con el extensión beta manifiesto de la API de interacciones (/interactions).

Si adecuadamente OpenAI comenzó este cambio en marzo de 2025 con su API Responses, la entrada de Google indica sus propios esfuerzos para avanzar en lo postrero en tecnología. La API de Interactions no es sólo una aparejo de encargo del estado; es una interfaz unificada diseñada para tratar a los LLM menos como generadores de texto y más como sistemas operativos remotos.

El maniquí de ‘computación remota’

La principal innovación de la API de Interactions es la presentación del estado del costado del servidor como comportamiento predeterminado.

Anteriormente, un desarrollador que creaba un agente engorroso tenía que ordenar manualmente una repertorio JSON cada vez maduro de cada "legatario" y "maniquí" a su vez, enviando megabytes de historial de un costado a otro con cada solicitud. Con la nueva API, los desarrolladores simplemente pasan un previous_interaction_id. La infraestructura de Google conserva el historial de conversaciones, los resultados de las herramientas y "pensamiento" procesos por su parte.

"Los modelos se están convirtiendo en sistemas y, con el tiempo, podrían incluso convertirse en agentes ellos mismos." escribieron Ali Çevik y Philipp Schmid de DeepMind, en una empresa oficial publicación de blog sobre el nuevo pauta. "Intentar forzar estas capacidades a generateContent habría resultado en una API demasiado compleja y frágil."

Este cambio permite la ejecución en segundo plano, una característica fundamental para la era agente. Los flujos de trabajo complejos, como navegar por la web durante una hora para sintetizar un referencia, a menudo desencadenan tiempos de calma de HTTP en las API tipificado. La API de Interacciones permite a los desarrolladores activar un agente con background=true, desconéctese y consulte el resultado más tarde. De hecho, convierte la API en una culo de trabajos para inteligencia.

Nativo "Investigación profunda" y soporte de MCP

Google está utilizando esta nueva infraestructura para ofrecer su primer agente integrado: Gemini Deep Research.

Accesible a través del mismo /interactions punto final, este agente es capaz de ejecutar "tareas de investigación a prolongado plazo." A diferencia de un maniquí tipificado que predice el subsiguiente token según su solicitud, el agente de Deep Research ejecuta un ciclo de búsquedas, lecturas y síntesis.

Fundamentalmente, Google igualmente está adoptando el ecosistema franco al amplificar soporte nativo para el Protocolo de contexto maniquí (MCP). Esto permite a los modelos Gemini acentuar directamente a herramientas externas alojadas en servidores remotos, como un servicio meteorológico o una colchoneta de datos, sin que el desarrollador tenga que escribir un código adhesivo personalizado para analizar las llamadas a las herramientas.

El panorama: Google se une a OpenAI en la era ‘con estado’

Podría decirse que Google está tratando de ponerse al día, pero con un vuelta filosófico dispar. OpenAI se alejó de la apatridia hace nueve meses con el extensión de la API Responses en marzo de 2025.

Si adecuadamente entreambos gigantes están resolviendo el problema del contexto excesivo, sus soluciones divergen en cuanto a la transparencia:

OpenAI (el enfoque de compresión): La API de respuestas de OpenAI introdujo la compactación, una característica que reduce el historial de conversaciones al reemplazar los resultados de las herramientas y las cadenas de razonamiento con opciones opacas. "utensilios de compactación cifrados." Esto prioriza la eficiencia del token pero crea un "caja negra" donde el razonamiento pasado del maniquí está oculto al desarrollador.

Google (el enfoque alojado): La API de Interacciones de Google mantiene el historial completo arreglado y componible. El maniquí de datos permite a los desarrolladores "depurar, manipular, transmitir y razonar mensajes entrelazados." Prioriza la inspeccionabilidad sobre la compresión.

Modelos compatibles y disponibilidad

La API de Interacciones se encuentra actualmente en Beta Pública (documentación aquí) y está arreglado inmediatamente a través de Google AI Studio. Es compatible con todo el espectro de modelos de última engendramiento de Google, lo que garantiza que los desarrolladores puedan hacer coincidir el tamaño de maniquí adecuado para su tarea de agencia específica:

  • Géminis 3.0: Panorámica previa de Géminis 3 Pro.

  • Géminis 2.5: Flash, Flash-lite y Pro.

  • Agentes: Panorámica previa de la investigación profunda (deep-research-pro-preview-12-2025).

Comercialmente, la API se integra en la estructura de precios existente de Google: usted paga tarifas tipificado por los tokens de entrada y salida según el maniquí que seleccione. Sin incautación, la propuesta de valencia cambia con las nuevas políticas de retención de datos. Adecuado a que esta API tiene estado, Google debe juntar su historial de interacciones para habilitar funciones como el almacenamiento en personalidad implícito y la recuperación de contexto.

El golpe a este almacenamiento está determinado por su nivel. Los desarrolladores de la capa gratuita están limitados a una política de retención de 1 día, adecuada para pruebas efímeras pero insuficiente para la memoria del agente a prolongado plazo.

Los desarrolladores del nivel cuota desbloquean una política de retención de 55 días. Esta retención extendida no es sólo para auditoría; Reduce efectivamente el costo total de propiedad al maximizar los accesos al personalidad. Manteniendo la historia "caliente" en el servidor durante casi dos meses, evita satisfacer para reprocesar ventanas de contexto masivas para usuarios recurrentes, lo que hace que el nivel cuota sea significativamente más apto para los agentes de nivel de producción.

Nota: Como se manejo de una lectura Beta, Google ha informado que las funciones y esquemas están sujetos a cambios importantes.

‘Estás interactuando con un sistema’

Sam Witteveen, desarrollador de Google versado en enseñanza inconsciente y director ejecutante de Red Dragon AI, ve este extensión como una transformación necesaria de la pila de desarrolladores.

"Si retrocedemos en la historia… la idea era simple entrada y salida de texto," Witteveen señaló en un desglose técnico del extensión en YouTube. "Pero ahora… estás interactuando con un sistema. Un sistema que puede usar múltiples modelos, realizar múltiples bucles de llamadas, usar herramientas y ejecutar código en el backend."

Witteveen destacó el beneficio crematístico inmediato de esta obra: el almacenamiento en personalidad implícito. Adecuado a que el historial de conversaciones se encuentra en los servidores de Google, los desarrolladores no pagan por retornar a cargar el mismo contexto repetidamente. "No tienes que satisfacer tanto por los tokens que llamas," explicó.

Sin incautación, la huida no está exenta de fricciones. Witteveen criticó la implementación flagrante del sistema de citas del agente de Deep Research. Si adecuadamente el agente proporciona fuentes, las URL devueltas a menudo están incluidas en enlaces de redirección internos de Google/Vertex AI en extensión de URL sin formato y utilizables.

"Mi maduro queja es que… estas URL, si las guardo e intento usarlas en una sesión diferente, no funcionarán." Witteveen advirtió. "Si quiero hacer un referencia para alguno con citas, quiero que pueda hacer clic en las URL de un archivo PDF… Tener poco como medium.com como cita (sin el enlace directo) no es muy bueno."

Lo que esto significa para su equipo

Para los ingenieros líderes de IA centrados en la implementación rápida y el ajuste de modelos, esta lectura ofrece una posibilidad arquitectónica directa a la persistente "se acabó el tiempo" problema: Ejecución en segundo plano.

En extensión de crear controladores asincrónicos complejos o ordenar colas de trabajos separadas para tareas de razonamiento de larga duración, ahora puede descargar esta complejidad directamente a Google. Sin incautación, esta conveniencia introduce una compensación estratégica.

Si adecuadamente el nuevo agente Deep Research permite el rápido despliegue de capacidades de investigación sofisticadas, opera como un "caja negra" en comparación con los flujos LangChain o LangGraph personalizados. Los ingenieros deben crear un prototipo de "pensamiento paulatino" característica usando el background=true parámetro para evaluar si la velocidad de implementación compensa la pérdida de control detallado sobre el ciclo de investigación.

Los ingenieros superiores que gestionan la orquestación y el presupuesto de la IA descubrirán que el cambio al estado del costado del servidor a través de previous_interaction_id desbloquea el almacenamiento en personalidad implícito, una gran delantera tanto para las métricas de costo como de latencia.

Al hacer remisión al historial almacenado en los servidores de Google, automáticamente evita los costos simbólicos asociados con la recarga de ventanas de contexto masivas, abordando directamente las restricciones presupuestarias y manteniendo un detención rendimiento.

El desafío aquí radica en la cautiverio de suministro; La incorporación de MCP remoto (Protocolo de contexto maniquí) significa que sus agentes se conectan directamente a herramientas externas, lo que requiere que usted valide rigurosamente que estos servicios remotos sean seguros y estén autenticados. Es hora de auditar su consumición flagrante de tokens en el reenvío del historial de conversaciones; si es detención, priorizar una migración a la API de Interacciones con estado podría difundir ahorros significativos.

Para los ingenieros de datos sénior, la API de Interactions ofrece un maniquí de datos más sólido que los registros de texto sin formato. El esquema estructurado permite depurar y razonar historiales complejos, lo que mejoría la integridad universal de los datos en todas sus canalizaciones. Sin incautación, hay que permanecer atento a la calidad de los datos, concretamente a la cuestión planteada por el versado Sam Witteveen respecto a las citas.

El agente de Deep Research regresa actualmente. "envuelto" URL que pueden caducar o romperse, en extensión de enlaces de origen sin formato. Si sus canalizaciones dependen de la extirpación o el archivado de estas fuentes, es posible que deba crear un paso de fregado para extraer las URL utilizables. Todavía debe probar las capacidades de salida estructurada (response_format) para ver si pueden reemplazar el frágil disección de expresiones regulares en sus canalizaciones ETL actuales.

Finalmente, para los directores de seguridad de TI, trasladar el estado a los servidores centralizados de Google ofrece una paradoja. Puede mejorar la seguridad manteniendo las claves API y el historial de conversaciones fuera de los dispositivos cliente, pero introduce un nuevo peligro de residencia de datos. La demostración fundamental aquí son las Políticas de retención de datos de Google: mientras que la capa gratuita retiene los datos solo por un día, la capa paga retiene el historial de interacciones durante 55 días.

Esto contrasta con el de OpenAI. "Retención de datos cero" (ZDR) opciones empresariales. Debe comprobar de que el almacenamiento del historial de conversaciones confidenciales durante casi dos meses cumpla con su encargo interna. Si esto viola su política, debe configurar las llamadas con store=falseaunque al hacerlo se desactivarán las funciones de estado (y los beneficios de costos) que hacen que esta nueva API sea valiosa.

Related Posts

Revisión del Samsung Galaxy S26 Extremista: privado y eficaz

Los recadero de encendido y comba están en el borde derecho, al igual que el teléfono del año pasado. Los dos recadero además son resistentes y táctiles. Samsung se las…

A posteriori del Galaxy S26, estoy efectivamente preocupado por el Galaxy Z Flip 8

Joe Maring / Autoridad de Android Según se informa, Samsung Electronics, incluida su división móvil, ha entrado en gobierno de emergencia. Esta medida aparentemente está impulsada por el aumento vertiginoso…

You Missed

Equivocación de vuelos directos limita turismo chino a República Dominicana

Equivocación de vuelos directos limita turismo chino a República Dominicana

Gobernadora Xiomara Cortés destaca ejecución de 86 obras en la provincia Duarte durante administración del presidente Abinader

Gobernadora Xiomara Cortés destaca ejecución de 86 obras en la provincia Duarte durante administración del presidente Abinader

Juntas de vecinos de La Rusa denuncian amenazas y solicitan intervención del presidente delante posible desalojo

Juntas de vecinos de La Rusa denuncian amenazas y solicitan intervención del presidente delante posible desalojo

Todo Tchaikovsky: Concierto en Santo Domingo con Philippe Quint

Todo Tchaikovsky: Concierto en Santo Domingo con Philippe Quint

Revisión del Samsung Galaxy S26 Extremista: privado y eficaz

Revisión del Samsung Galaxy S26 Extremista: privado y eficaz

Actor dominicano Raidher Díaz se abre paso en serie de Netflix

Actor dominicano Raidher Díaz se abre paso en serie de Netflix