
La IA no tropieza conveniente a malos algoritmos. Es un tropiezo porque la clan no confía en él.
En este momento en que las empresas están apostando robusto por la IA para impulsar el crecimiento, la confianza en la tecnología se está erosionando. Nuestra investigación muestra que el 71% de las organizaciones todavía dudan en tener fe en agentes autónomos en entornos empresariales.
Para una utensilio aclamada como la próxima motor de productividad, eso es una crisis de confianza oculta a plena perspectiva.
El artículo continúa a continuación.
Vicepresidente de Descomposición e IA en Capgemini Invent.
La brecha de confianza en primera carrera
Para que la IA ofrezca un retorno de la inversión positivo y escalable, no puede quedarse sola en un laboratorio de innovación. Debe integrarse en las decisiones y flujos de trabajo cotidianos que mantienen una negocio próspero. Pero, irónicamente, las personas que realizan ese trabajo diario son algunas de las menos convencidas.
Harvard Business Review descubrió recientemente que el uso de herramientas proporcionadas por los empleadores por parte de los empleados se redujo en un 15% entre febrero y julio de este año. Cuando la IA parece opaca o no probada, los trabajadores tienden a evitarla. Peor aún, recurren a sus propias herramientas de IA “en la sombra”
La investigación de Capgemini muestra que el 63% de los profesionales del software que actualmente utilizan IA generativa lo hacen con herramientas no autorizadas o de guisa no gobernada. Esto introduce amenazas a la seguridad, brechas de cumplimiento y resultados inconsistentes y, en última instancia, ralentiza la apadrinamiento exitosa.
Cuando la confianza se erosiona en la primera carrera, las organizaciones no pueden acaecer de la grado positivo, sin importar cuán avanzados puedan ser sus modelos.
Exceso de confianza sin salvaguardas
El problema de la confianza es bidireccional. Incluso hay demasiada confianza, o mejor dicho, confianza en los lugares equivocados. IDC informa que rodeando de un tercio de las empresas del Reino Unido dicen que “confían completamente” en la IA.
Sin retención, muchas de esas mismas organizaciones no han establecido las barreras básicas: gobernanza, controles de datos, marcos de peligro o supervisión ética. En otras palabras, confían más en la tecnología que en la propia. infraestructura.
Es un desequilibrio riesgoso. Las organizaciones que sobreestiman su sensatez en IA avanzan con experimentación sin mitigación de sesgos ni planificación de cumplimiento. Y en un clima regulatorio moldeado por marcos como la Ley de IA de la UE, el costo de un error de cálculo puede ser severo: hasta el 7% de los ingresos globales por un uso indebido de detención peligro.
Solucionar el problema de confianza desde su origen
La IA tradicional siempre ha requerido gobernanza. Pero la IA generativa, con su creatividad, imprevisibilidad y peligro de alucinaciones, exige un enfoque más intencional que nunca. Difundir confianza requiere un enfoque holístico que combine gobernanza, civilización, capacitación e IA humana intencional. colaboración.
La gobernanza no puede tratarse como una idea de posterior momento, incorporada una vez que se completa la implementación. Debería dar forma al diseño desde el primer día. Las organizaciones deben establecer marcos claros para la gobierno del ciclo de vida de los modelos, la procedencia de los datos, la evaluación de riesgos, la explicabilidad, la supervisión humana y el seguimiento y control de calidad continuos.
Si correctamente la inventario puede parecer larga, una gobernanza sólida debe encontrarse como una delantera competitiva, no como un obstáculo. Aceptablemente hecho, acelera la innovación al hacer que el escalamiento sea seguro, predecible y confiable.
Construya una IA que refleje los títulos humanos
No podemos esperar que la clan confíe en lo que no entienden, y siquiera deberían tener que hacerlo.
La confianza proviene de la claridad. crece cuando Los empleados entienden cómo funciona la IA, por qué recomienda ciertos resultados y cómo se alinea con los títulos de la estructura. Por eso la gobernanza debe ir más allá de las consideraciones técnicas. La ética humana debe integrarse en la pila de IA tan estrechamente como las métricas de desempeño.
Cuando las personas reconocen sus propios principios (como la equidad y la transparencia) reflejados en el comportamiento de la IA, la apadrinamiento se convierte en un paso natural en puesto de un acto de fe.
Empoderar a los empleados con habilidades y confianza
La IA es más eficaz cuando la clan sabe cómo utilizarla. La capacitación integral, las nuevas definiciones de roles (como supervisores de inteligencia sintético y especialistas humanos en el circuito) y un enfoque basado en habilidades ayudan a los empleados a sentirse empoderados en puesto de desplazados.
Para alcanzar esto, la colaboración entre humanos y IA debe diseñarse intencionalmente. Estructuras de toma de decisiones, rutas de ascensión, traspasos de tareas; Todas estas son complejidades que necesitan ser mapeadas.
Si correctamente los agentes autónomos pueden impulsar los procesos de un extremo a otro, los humanos siguen siendo responsables de proporcionar dirección, sustentar las barreras de seguridad y respaldar resultados exitosos.
De los pilotos al retorno de la inversión empresarial
El camino en torno a el retorno de la inversión en IA pasa por la escalera, y la escalera solo ocurre cuando las bases son sólidas.
Hoy en día, esos cimientos suelen eludir. Muchas organizaciones están atrapadas en modo piloto, ejecutando experimentos aislados sin la bloque de datos, gobernanza o gobierno de cambios necesarios para medrar.
Una investigación nuevo de Microsoft destaca que los líderes en IA que logran un retorno de la inversión (ROI) 3 veces maduro que los “rezagados” se distinguen por su logística coherente en toda la estructura.
Los líderes deben aceptar que elaborar una logística de este tipo lleva tiempo. La confianza no se construye de la oscuridad a la mañana. Una hoja de ruta continuo alineada con los títulos de su clan siempre será mejor que apresurarse a implementar cualquier maniquí que sea el más nuevo este mes.
Un futuro construido sobre la confianza
La IA no alcanzará su potencial empresarial solamente a través de la innovación técnica. Necesita transformación cultural, innovación en la gobernanza y un compromiso renovado para construir sistemas con los que la clan en realidad quiera trabajar.
La confianza es la pulvínulo de un retorno de la inversión escalable. Ignóralo y tu logística de IA se convertirá en una proyectil de tiempo. Pero cuando las organizaciones invierten en las salvaguardias, habilidades y títulos adecuados, la IA se convierte en lo que siempre debió ser: un socio confiable en la construcción del futuro.
Hemos presentado el mejor software de automatización de TI.
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde presentamos las mejores y más brillantes mentes de la industria tecnológica flagrante. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarPro o Future plc. Si estás interesado en contribuir, descubre más aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro





