
Cuando Derek Waldron y su equipo técnico en JPMorgan Chase lanzaron por primera vez una suite LLM con asistentes personales hace dos abriles y medio, no estaban seguros de qué esperar. Eso no fue mucho a posteriori del surgimiento revolucionario de ChatGPT, pero en el ámbito empresarial, el desconfianza aún era suspensión.
Sorprendentemente, los empleados optaron por la plataforma interna de forma orgánica y rápida. En cuestión de meses, el uso saltó de cero a 250.000 empleados. Ahora, más del 60 % de los empleados de los departamentos de ventas, finanzas, tecnología, operaciones y otros departamentos utilizan la suite en constante progreso y conectada.
“Nos sorprendió lo vírico que fue”, dijo Waldron, director de examen de JPMorgan, explica en un nuevo podcast de VB Beyond the Pilot. Los empleados no solo diseñaban indicaciones, sino que creaban y personalizaban asistentes con personas, instrucciones y roles específicos y compartían sus aprendizajes en plataformas internas.
El coloso financiero ha acabado lo que la mayoría de las empresas aún luchan por obtener: la prohijamiento voluntaria de IA a gran escalera por parte de los empleados. No fue el resultado de mandatos; más adecuadamente, los primeros usuarios compartieron casos de uso tangibles y los trabajadores comenzaron a alimentarse del entusiasmo de los demás. Este uso empinado ha resultado en última instancia en un volante de innovación.
“Es esta población innovadora profundamente arraigada”, dice Waldron. “Si podemos seguir equipándolos con capacidades potentes y positivamente fáciles de usar, podrán acelerar la próxima progreso de este delirio”.
Conectividad ubicua conectada a sistemas de registro en gran medida sofisticados
JPMorgan ha adoptivo un enfoque poco global y con visión de futuro para su edificio técnica. La compañía manejo la IA como una infraestructura central en punto de una novedad, y opera desde la postura contraria original de que los modelos en sí se convertirían en una mercancía. En cambio, identificaron la conectividad aproximadamente del sistema como el cierto desafío y el foso defendible.
El coloso financiero invirtió tempranamente en reproducción aumentada con recuperación multimodal (RAG), ahora en su cuarta reproducción e incorporando multimodalidad. Su suite de IA está alojada en el centro de una plataforma para toda la empresa equipada con conectores y herramientas que respaldan el examen y la preparación.
Los empleados pueden conectarse a un ecosistema en expansión de datos comerciales críticos e interactuar con documentos, conocimientos y almacenes de datos estructurados “muy sofisticados”, así como sistemas de CRM, capital humanos, comercio, finanzas y riesgos. Waldron dice que su equipo continúa agregando más conexiones mes a mes.
“Construimos la plataforma en torno a este tipo de conectividad ubicua”, explica. En última instancia, la IA es una gran tecnología de propósito caudillo que sólo se volverá más poderosa, pero si las personas no tienen llegada significativo y casos de uso críticos, “estás desperdiciando la oportunidad”.
Como dice Waldron, las capacidades de la IA continúan creciendo de guisa impresionante, pero simplemente siguen siendo objetos brillantes para mostrar si no pueden demostrar su uso en el mundo actual.
“Incluso si la superinteligencia apareciera mañana, no hay valencia que pueda extraerse de guisa óptima si esa superinteligencia no puede conectarse a los sistemas, los datos, las herramientas, el conocimiento y los procesos que existen adentro de la empresa”, sostiene.
Escuche el episodio completo para escuchar sobre:
-
La logística personal de Waldron de hacer una pausa ayer de preguntarle a un colega humano y, en cambio, evaluar cómo su asistente de inteligencia fabricado podría objetar esa pregunta y resolver el problema.
-
A "una plataforma, muchos trabajos" acercarse: No hay dos roles iguales, por lo que la logística debe centrarse en bloques de construcción reutilizables (RAG, inteligencia de documentos, consulta de datos estructurados) que los empleados puedan ensamblar en herramientas específicas para cada rol.
-
Por qué es importante la juicio de RAG: JPMorgan evolucionó a través de múltiples generaciones de recuperación, desde la búsqueda vectorial básica hasta canales de conocimiento jerárquicos, autorizados y multimodales.





