Por Elvis Minaya.- Un estudio realizado en Italia encendió una nueva alerta sobre las limitaciones de seguridad de los sistemas de inteligencia fabricado más usados en el mundo. Investigadores del Laboratorio de Ícaro comprobaron que modelos como ChatGPT, Géminis o Claude pueden objetar a solicitudes que normalmente bloquearían, cuando esas mismas peticiones se presentan en forma de poema, incluso si tratan temas peligrosos, dañinos o prohibidos.
La investigación, difundida por Deutsche Welle (DW)contó con la billete de Federico Pierucciquien explicó que las pruebas no fueron elaboradas por poetas profesionales, sino por el propio equipo. Señaló que el simple hecho de cambiar el formato, de prosa a poesía, bastó para que las barreras de seguridad no se activaran en varios casos.
Los investigadores escribieron preguntas sobre temas que las IA suelen recusar y luego las reformularon en forma poética. Al introducirlas en los chats, observaron que los sistemas sí respondíanpasando por suspensión sus propias restricciones. Según el estudio, los filtros de seguridad están diseñados para detectar patrones del idioma popular, pero pueden pifiar cuando enfrentan bienes literarios como metáforas o rimas.
Te puede interesar: El dilema ético de la inteligencia fabricado en la lectoescritura: advertencia de Roberto Cassá
El maduro provocación de la IA en estos casos
Pierucci planteó que el provocación no solo es corregir esta error, sino entender por qué ocurre y si podría repetirse con otros formatos creativos, como cuentos o diferentes estilos de escritura.
El estudio igualmente destaca un problema más amplio: la enorme disparidad del idioma humano. Esto representa un desafío en un contexto en el que la inteligencia fabricado se usa cada vez más en áreas sensibles como educación, vigor, seguridad o decisiones empresariales. Si la IA no interpreta admisiblemente la intención de un mensaje, podría ofrecer respuestas inadecuadas o peligrosas.
Los sistemas de IA defectuosos pueden sesgar las oportunidades
Encima, la investigación aparece en un momento de musculoso expansión de la IA, especialmente en América Latina y el Caribe, donde persisten desigualdades de golpe y mejora tecnológico. Informes del PNUD y Naciones Unidas advierten que sistemas entrenados con datos incompletos o sesgados pueden alentar desigualdades en empleo, crédito, políticas públicas y seguridad.
De acuerdo con el PNUD, aunque la IA puede impulsar el crecimiento financiero, sus beneficios suelen concentrarse en países con maduro infraestructura digital, capacidades tecnológicas y formación especializada, lo que podría ampliar aún más las brechas existentes.








