
Siga ZDNET: Agréganos como fuente preferida en Google.
Conclusiones esencia de ZDNET
- Los equipos de TI, ingeniería, datos e IA ahora lideran esfuerzos responsables de IA.
- PwC recomienda un maniquí de “defensa” de tres niveles.
- Incorpore, no agregue, una IA responsable en todo.
La “IA responsable” es un tema muy candente e importante en estos días, y la responsabilidad recae en los gerentes y profesionales de tecnología para asegurar que el trabajo de inteligencia industrial que están realizando genere confianza y al mismo tiempo se alinee con los objetivos comerciales.
El cincuenta y seis por ciento de los 310 ejecutivos participan en una nueva PwC pesquisa dicen que sus equipos de primera tilde (TI, ingeniería, datos e IA) ahora lideran sus esfuerzos de IA responsable. “Ese cambio acerca la responsabilidad a los equipos que crean IA y ve que la gobernanza ocurre donde se toman las decisiones, reenfocando la IA responsable de una conversación de cumplimiento a una de facultad de calidad”, según los autores de PwC.
Adicionalmente: Es más probable que los consumidores paguen por herramientas de inteligencia industrial “responsables”, según una pesquisa de Deloitte
Según la pesquisa de PwC, la IA responsable, asociada con la aniquilación de prejuicios y asegurar la equidad, la transparencia, la responsabilidad, la privacidad y la seguridad, incluso es relevante para la viabilidad y el éxito empresarial. “La IA responsable se está convirtiendo en un impulsor del valía empresarial, impulsando el retorno de la inversión, la eficiencia y la innovación, al tiempo que fortalece la confianza”.
“La IA responsable es un deporte de equipo”, explican los autores del mensaje. “Ahora es esencial tener roles claros y traspasos estrictos para subir con seguridad y confianza a medida que se acelera la apadrinamiento de la IA”. Para beneficiarse las ventajas de una IA responsable, PwC recomienda implementar aplicaciones de IA en el interior de una estructura operativa con tres “líneas de defensa”.
- Primera tilde: Construye y opera responsablemente.
- Segunda tilde: Revisa y rige.
- Tercera tilde: Aseguramientos y auditorías.
El desafío para conquistar una IA responsable, citado por la fracción de los encuestados, es convertir los principios de la IA responsable “en procesos escalables y repetibles”, descubrió PwC.
Aproximadamente seis de cada diez encuestados (61%) en la pesquisa de PwC dicen que la IA responsable está integrada activamente en las operaciones centrales y la toma de decisiones. Aproximadamente uno de cada cinco (21%) informa estar en la etapa de capacitación, centrada en el exposición de la capacitación de los empleados, estructuras de gobierno y orientación ejercicio. El 18% restante dice que todavía se encuentran en las primeras etapas, trabajando para construir políticas y marcos fundamentales.
Adicionalmente: Hasta luego, SaaS: por qué la IA significa el fin de las licencias de software por puesto y qué viene posteriormente
En toda la industria, existe un debate sobre cuán estrictas deben ser las riendas de la IA para asegurar aplicaciones responsables. “Definitivamente hay situaciones en las que la IA puede proporcionar un gran valía, pero rara vez en el interior de la tolerancia al peligro de las empresas”, afirmó Jake Williams, ex hacker de la Agencia de Seguridad Doméstico de EE. UU. y miembro del cuerpo docente de IANS Research. “Los LLM que sustentan a la mayoría de los agentes y las soluciones de IA de reproducción no crean resultados consistentes, lo que genera riesgos impredecibles. Las empresas valoran la repetibilidad, sin retención, la mayoría de las aplicaciones habilitadas para LLM están, en el mejor de los casos, cerca de ser correctas la anciano parte del tiempo”.
Como resultado de esta incertidumbre, “estamos viendo que más organizaciones dan marcha antes en la apadrinamiento de iniciativas de IA al darse cuenta de que no pueden mitigar eficazmente los riesgos, en particular aquellos que introducen exposición regulatoria”, continuó Williams. “En algunos casos, esto resultará en una redefinición del ámbito de las aplicaciones y casos de uso para contrarrestar ese peligro regulatorio. En otros casos, resultará en el descuido de proyectos completos”.
Ocho directrices de expertos para una IA responsable
Los expertos de la industria ofrecen las siguientes pautas para crear y dirigir una IA responsable:
1. Integre una IA responsable de principio a fin: Haga que la IA responsable forme parte del diseño y la implementación del sistema, no una ocurrencia tardía.
“Para los líderes y gerentes de tecnología, cerciorarse de que la IA sea responsable comienza con cómo se construye”, dijo a ZDNET Rohan Sen, director de riesgos cibernéticos, de datos y tecnológicos de PwC US y coautor del mensaje de la pesquisa.
“Para originar confianza y subir la IA de forma segura, concéntrese en incorporar una IA responsable en cada etapa del ciclo de vida de exposición de la IA e involucrar funciones esencia como cibernética, gobernanza de datos, privacidad y cumplimiento normativo”, dijo el senador. “Incorpore la gobernanza de forma temprana y continua”.
Adicionalmente: 6 reglas esenciales para activar la IA en su proceso de exposición de software y el peligro número uno
2. Darle a la IA un propósito, no solo implementarla por el simple hecho de hacerlo: “Con demasiada frecuencia, los líderes y sus equipos tecnológicos tratan la IA como una útil para la experimentación, generando innumerables bytes de datos simplemente porque pueden”, dijo Danielle An, arquitecta senior de software de Meta.
“Utilice la tecnología con sabor, disciplina y propósito. Utilice la IA para apretar la intuición humana: para probar ideas, identificar puntos débiles y acelerar decisiones informadas. Diseñar sistemas que mejoren el razón humano, no que lo reemplacen”.
3. Subrayar desde el principio la importancia de una IA responsable: Según Joseph Logan, director de información de iManage, las iniciativas responsables de IA “deberían comenzar con políticas claras que definan el uso aceptable de la IA y aclaren lo que está prohibido”.
“Comience con una confesión de títulos sobre el uso ético”, dijo Logan. “A partir de aquí, priorice las auditorías periódicas y considere un comité directivo que abarque privacidad, seguridad, asuntos legales, TI y adquisiciones. La transparencia continua y la comunicación abierta son primordiales para que los usuarios sepan qué está consentido, qué está irresoluto y qué está prohibido. Adicionalmente, modificar en capacitación puede ayudar a reanimar el cumplimiento y el uso ético”.
4. Hacer de la IA responsable una parte esencia de los puestos de trabajo: Las prácticas responsables de la IA y la supervisión deben ser una prioridad tan suscripción como la seguridad y el cumplimiento, dijo Mike Blandina, director de información de Snowflake. “Asegúrese de que los modelos sean transparentes, explicables y libres de sesgos dañinos”.
Incluso son claves para tal esfuerzo los marcos de gobernanza que cumplan con los requisitos de los reguladores, las juntas directivas y los clientes. “Estos marcos deben ceñir todo el ciclo de vida de la IA, desde el despensa de datos hasta el entrenamiento de modelos, la implementación y el monitoreo”.
Adicionalmente: Los mejores cursos y certificados gratuitos de IA para mejorar tus habilidades, y los he probado todos
5. Mantenga a los humanos informados en todas las etapas: Haga que sea una prioridad “discutir continuamente cómo utilizar responsablemente la IA para aumentar el valía para los clientes y al mismo tiempo asegurar que se aborden tanto la seguridad de los datos como las preocupaciones de propiedad intelectual”, dijo Tony Morgan, ingeniero senior de Priority Designs.
“Nuestro equipo de TI revisa y examina cada plataforma de IA que aprobamos para asegurarnos de que cumpla con nuestros estándares para protegernos a nosotros y a nuestros clientes. Para respetar la propiedad intelectual nueva y existente, nos aseguramos de que nuestro equipo esté capacitado sobre los últimos modelos y métodos, para que puedan aplicarlos de forma responsable”.
6. Evite el peligro de rapidez: Muchos equipos de tecnología tienen “la privación de poner en producción la IA generativa antaño de que el equipo tenga una respuesta a la pregunta X o al peligro Y”, dijo Andy Zenkevich, fundador y director ejecutor de Epiic.
“Una nueva capacidad de IA será tan emocionante que los proyectos se adelantarán para usarla en producción. El resultado suele ser una demostración espectacular. Luego, las cosas se rompen cuando los usuarios reales comienzan a entregarse en manos en ella. Tal vez haya un tipo incorrecto de brecha de transparencia. Tal vez no esté claro quién es responsable si devuelve poco ilegal. Tómese más tiempo para un atlas de riesgos o verifique la explicabilidad del maniquí. La pérdida comercial por no cumplir con el plazo auténtico no es mínimo comparada con corregir una implementación fallida”.
Adicionalmente: todo el mundo piensa que la IA transformará su negocio, pero sólo el 13 % lo está haciendo verdad.
7. Documento, documento, documento: Lo ideal sería que “cada audacia tomada por la IA debería registrarse, ser tratable de explicar, auditable y tener un rastrillo claro que los humanos puedan seguir”, dijo McGehee. “Cualquier gobernanza eficaz y sostenible de la IA incluirá un ciclo de revisión cada 30 a 90 días para comprobar adecuadamente las suposiciones y realizar los ajustes necesarios”.
8. Examina tus datos: “La forma en que las organizaciones obtienen datos de capacitación puede tener importantes implicaciones éticas, de seguridad y de privacidad”, dijo Fredrik Nilsson, vicepresidente para América de Axis Communications.
“Si un maniquí de IA muestra constantemente signos de sesgo o ha sido entrenado con material protegido por derechos de autor, es probable que los clientes lo piensen dos veces antaño de usar ese maniquí. Las empresas deben usar sus propios conjuntos de datos cuidadosamente examinados al entrenar modelos de IA, en motivo de fuentes externas, para evitar la infiltración y exfiltración de información y datos confidenciales. Cuanto más control tenga sobre los datos que utilizan sus modelos, más tratable será aliviar las preocupaciones éticas”.
Reciba las noticiero más importantes de la mañana en su bandeja de entrada todos los días con nuestro Boletín informativo Tech Today.





