Por: Gemma Galdon Clavell y Ana Pirela-Rios/ Latinoamérica21
Cada vez más en América Latina y el Caribe (ALC) se utiliza la inteligencia fabricado (IA) en la toma de decisiones cotidianas que afectan a millones de personas: procesos de selección de becas, subsidios, alertas de servicios sociales, identificación biométrica, incluso orientación a víctimas de violencia.
Pero, como lo advierte el Noticia Regional sobre Crecimiento Humano 2025, la IA se consolida en una región con desigualdades persistentes, y los datos que alimentan estos sistemas reflejan inevitablemente los sesgos arraigados en la sociedad.
Si los algoritmos aprenden de estas realidades, el sesgo de tipo deja de ser un parecer de laboratorio y se convierte en un problema de mejora: puede excluir a quienes menos aparecen en los registros —como las mujeres pobres, indígenas, migrantes o rurales— lo que erosionaría aún más la confianza institucional.
Pero la misma tecnología que puede profundizar desigualdades incluso sirve para proteger, informar y cascar oportunidades, en distinto para grupos tradicionalmente excluidos. El desafío es acortar ese sesgo y colocar por controles verificables que prioricen la equidad para ampliar derechos, mejorar la focalización de políticas y vigorizar un crecimiento más inclusivo.
Un problema “técnico” que ya es de mejora
Uno de los principales usos de la inteligencia fabricado se base en identificar patrones en grandes volúmenes de datos para optimizar decisiones. Sin confiscación, los modelos que “promedian” poblaciones diversas pueden desfavorecer a los grupos subrepresentados y reproducir patrones históricos de discriminación. En programas de protección social, por ejemplo, varios países de ALC han incorporado modelos automatizados para clasificar personas y asignar beneficios, pero los sistemas de puntaje pueden perpetuar la limitación si se alimentan de datos donde las mujeres u otros grupos no están equitativamente representados.
El sesgo de tipo aparece en decisiones concretas y la seguridad pública ofrece un contrapunto igual de ilustrativo. La región ha adoptivo rápidamente tecnologías biométricas y de agradecimiento facial, pero estudios muestran que los falsos positivos pesan más sobre las mujeres, y en particular sobre mujeres racializadas. Estos errores de identificación comprometen libertades, pueden activar detenciones injustas y amplificar desigualdades.
Paralelamente, cuando los algoritmos de contratación replican historiales laborales masculinizados o cuando el crédito se otorga con modelos que penalizan trayectorias femeninas según los criterios de la banca tradicional, se reducen las oportunidades para las mujeres, se pierde productividad y se limita el plan. La región no puede permitirse tecnologías que excluyan talento mujeril de mercados ya segmentados.
Cambiar en datos representativos y vigorizar marcos regulatorios del uso de la IA, incorporando métricas de equidad y mecanismos de rendición de cuentas, son pasos secreto para usar esta tecnología de forma responsable e inclusiva. Así, la inteligencia fabricado puede convertirse en una oportunidad no solo para mejorar la eficiencia en la toma de decisiones, sino incluso para ampliar la pulvínulo de beneficiarias de la innovación, acelerar la apadrinamiento digital y promover la inclusión gremial y financiera.
Igualmente conviene revisar el plano simbólico: la feminización por defecto de asistentes virtuales o chatbots —a través de sus nombres, voces y avatares— reproduce jerarquías. Esto puede estar justificado en servicios específicos, pero como norma refuerza estereotipos sobre el rol de las mujeres en la sociedad. El diseño de interfaces, cada vez más usado para mejorar la provisión de servicios públicos, incluso es un aspecto de política pública.
Liderazgo mujeril: de “outliers” a diseñadoras
Los principios de no discriminación, transparencia y supervisión humana ya figuran entre las estrategias y marcos de varios países de la región. El contienda es traducirlos en controles verificables: documentar la composición demográfica de los datos; evaluar el desempeño por subgrupos (mujeres por existencia, origen, condición migratoria o ruralidad); monitorear los resultados tras el despliegue de los sistemas; y exigir auditorías independientes obligatorias en sistemas de detención impacto (como aquellos usados para protección social, salubridad, probidad, y seguridad).
Con estos controles la IA se vuelve auditable y obediente.
Correcto a exclusiones históricas y muerto visibilidad en datos formales, los sistemas tienden a clasificar a las mujeres como “outliers”, un término que en estadística define un valencia atípico, es aseverar, una observación que es numéricamente distante del resto de los datos. Desde un enfoque estrictamente estadístico, los resultados de conjuntos de datos con títulos atípicos pueden conducir a conclusiones erróneas, por lo que generalmente se evitan. Sin confiscación, esto no siempre aplica en contextos más sutiles, como solicitudes de crédito, vacantes laborales o programas sociales, donde las características de las mujeres pueden dilatar de las de los hombres, pero no deberían ser motivo de limitación de los procesos de selección.
Pero las mujeres de la región no solo son usuarias de la IA, sino incluso líderes en la creación de soluciones: marcos feministas de mejora de IA, herramientas abiertas para detectar estereotipos en modelos de habla e iniciativas que incorporan perspectiva de tipo en el trabajo en plataformas. Colocar a las mujeres en el centro —como diseñadoras, auditoras, reguladoras y usuarias— restablecimiento la calidad técnica de los sistemas y acelera su bienvenida social.
Esta es, por otra parte, una política de innovación.
En definitiva, acortar el sesgo de tipo multiplica retornos: políticas sociales más precisas y legítimas; seguridad compatible con derechos; mercados laborales y financieros más inclusivos y productivos; y viejo confianza en instituciones capaces de dirigir tecnologías complejas. Esto se traduce en mejora humano: más capacidades reales —salubridad, educación, billete, trabajo digno— y más agencia para incidir en la propia vida y el entorno.
La IA no es neutra, pero puede ser competición. Para lograrlo, América Latina y el Caribe necesita abrazar un en serie intrascendente ya al importancia: datos representativos y documentados, métricas de equidad por subgrupos, auditorías independientes y vías de reparación cuando hay daño. Aminorar el sesgo de tipo no solo abre oportunidades a las mujeres, sino que impulsa el mejora para toda la región.
Este artículo se base en los hallazgos del Noticia Regional sobre Crecimiento Humano 2025, titulado “Bajo presión: Recalibrando el futuro del mejora”, primoroso por el Software de las Naciones Unidas para el Crecimiento (PNUD) en América Latina y el Caribe.






