
El desafío presente de la IA tiene que ver con la coordinación, el contexto y la colaboración de los agentes. ¿Cómo les permites pensar en realidad juntos, con toda la comprensión contextual, la negociación y el propósito compartido que eso implica? Es el venidero paso fundamental en torno a un nuevo tipo de inteligencia distribuida que mantenga a los humanos firmemente informados.
En la última parada de la AI Impact Series de VentureBeat, Vijoy Pandey, vicepresidente senior y jefe militar de Outshift de Cisco, y Noah Goodman, profesor de Stanford y cofundador de Humans&, se sentaron para departir sobre cómo ir más allá de los agentes que simplemente se conectan a agentes que están impregnados de inteligencia colectiva.
La aprieto de inteligencia colectiva, no de acciones coordinadas
El desafío central, dijo Pandey, es que "Los agentes de hoy pueden conectarse entre sí, pero en existencia no pueden pensar juntos."
Si acertadamente protocolos como MCP y A2A han resuelto la conectividad básica, y AGNTCY aborda los problemas de descubrimiento, dirección de identidades, comunicación entre agentes y observabilidad, solo han abordado el equivalente a realizar una indicación telefónica entre dos personas que no hablan el mismo idioma. Pero el equipo de Pandey ha identificado poco más profundo que la fontanería técnica: la aprieto de que los agentes logren inteligencia colectiva, no sólo acciones coordinadas.
Cómo la intención compartida y el conocimiento compartido permiten la innovación colectiva
Para comprender en torno a dónde debe ganar la IA multiagente, uno y otro oradores señalaron la historia de la inteligencia humana. Mientras que los humanos se volvieron individualmente inteligentes hace aproximadamente 300.000 primaveras, la verdadera inteligencia colectiva no surgió hasta hace unos 70.000 primaveras con la aparición del idioma sofisticado.
Este avance permitió tres capacidades críticas: intención compartida, conocimiento compartido e innovación colectiva.
"Una vez que tienes una intención compartida, un objetivo compartido, tienes un conjunto de conocimientos que puedes modificar, transformarse, desarrollar y luego avanzar en torno a la innovación colectiva." dijo Pandey.
Goodman, cuyo trabajo une la informática y la psicología, explicó que el idioma es mucho más que simplemente codificar y decodificar información.
"El idioma es este tipo de codificación que requiere comprender el contexto, la intención del hablante, el mundo, cómo eso afecta lo que la muchedumbre dirá para poder descubrir lo que la muchedumbre quiere sostener." dijo.
Esta comprensión sofisticada es lo que sustenta la colaboración humana y la proceso cultural acumulativa, y es lo que actualmente equivocación en la interacción entre agentes.
Topar las brechas con Internet de la cognición
"Tenemos que imitar la proceso humana”, explicó Pandey. “Por otra parte de que los agentes se vuelvan cada vez más inteligentes, al igual que los humanos individuales, necesitamos construir una infraestructura que permita la innovación colectiva, lo que implica compartir la intención, la coordinación y luego compartir el conocimiento o el contexto y hacer transformarse ese contexto”.
Pandey lo pira Internet de la Cognición: una edificio de tres capas diseñada para permitir el pensamiento colectivo entre agentes heterogéneos:
Capa de protocolo: Más allá de la conectividad básica, estos protocolos permiten la comprensión, el manejo del intercambio de intenciones, la coordinación, la negociación y el descubrimiento entre agentes de diferentes proveedores y organizaciones.
Capa de tela: Un sistema de memoria compartida que permite a los agentes construir y transformarse un contexto colectivo, con propiedades emergentes que surgen de sus interacciones.
Capa del motor cognitivo: Aceleradores y barreras de seguridad que ayudan a los agentes a pensar más rápido mientras operan interiormente de las limitaciones necesarias en materia de cumplimiento, seguridad y costos.
La dificultad es que las organizaciones necesitan construir inteligencia colectiva más allá de las fronteras organizacionales.
"Pensar en la memoria compartida de forma heterogénea," dijo Pandey. "Tenemos agentes de diferentes partidos que se unen. Entonces, ¿cómo se desarrolla esa memoria y se obtienen propiedades emergentes?"
Nuevos protocolos de capacitación básicos para avanzar en la conexión de los agentes
En Humans&, en zona de acatar nada más de protocolos adicionales, el equipo de Goodman está cambiando fundamentalmente la forma en que se entrenan los modelos básicos no solo entre un humano y un agente, sino igualmente entre un humano y múltiples agentes, y especialmente entre un agente y múltiples humanos.
"Al cambiar la capacitación que brindamos a los modelos básicos y centrar la capacitación en interacciones con horizontes extremadamente largos, llegarán a comprender cómo deben proceder las interacciones para ganar los resultados correctos a espacioso plazo." dijo.
Y, añade, es una diferencia deliberada con respecto al camino de anciano autonomía seguido por muchos laboratorios grandes.
"Nuestro objetivo no es una autonomía cada vez más larga. Es una colaboración cada vez mejor," dijo. "Humans& está creando agentes con un profundo conocimiento social: entidades que saben quién sabe qué, pueden fomentar la colaboración y poner en contacto a los especialistas adecuados en el momento adecuado."
Establecer barreras de seguridad que apoyen la cognición
Las barreras de seguridad siguen siendo un desafío central en la implementación de agentes multifuncionales que tocan cada parte del sistema de una estructura. La cuestión es cómo imponer límites sin sofocar la innovación. Las organizaciones necesitan barreras de seguridad estrictas, parecidas a reglas, pero los humanos en existencia no trabajan de esa modo. En cambio, las personas operan según el principio de daño imperceptible, o piensan en las consecuencias y hacen juicios contextuales.
"¿Cómo podemos proporcionar barreras de seguridad de una modo que sea similar a una regla, pero que igualmente respalde la cognición basada en resultados cuando los modelos se vuelven lo suficientemente inteligentes para eso?" —Preguntó Goodman.
Pandey extendió este pensamiento a la existencia de los equipos de innovación que necesitan aplicar las reglas con criterio, no simplemente seguirlas mecánicamente. Vigilar qué está hendido a la interpretación es una “tarea muy colaborativa”, dijo. “Y eso no se descubre a través de un conjunto de predicados. No se descubre a través de un documento. Se descubre a través del entendimiento, la almohadilla, el descubrimiento y la negociación comunes”."
Inteligencia distribuida: el camino en torno a la superinteligencia
La verdadera superinteligencia no vendrá de modelos individuales cada vez más poderosos, sino de sistemas distribuidos.
"Mientras construimos modelos cada vez mejores y agentes cada vez mejores, eventualmente sentimos que la verdadera superinteligencia se producirá a través de sistemas distribuidos." Pandey dijo
La inteligencia escalará a lo espacioso de dos ejes, uno enhiesto, o mejor agentes individuales, y otro horizontal, o redes más colaborativas, de una modo muy similar a la computación distribuida tradicional.
Sin retención, dijo Goodman, "No podemos avanzar en torno a un futuro en el que las IA funcionen por sí solas. Tenemos que avanzar en torno a un futuro en el que exista un ecosistema integrado, un ecosistema distribuido que fusione perfectamente a los humanos y la IA."






