Redacción Internacional.- La tasa a la que las plataformas de inteligencia sintético (IA) se hacen eco de informaciones falsas en sus respuestas casi se ha duplicado en un año, informó este jueves la web de investigación NewsGuard, según la cual el porcentaje ha pasado del 18 % en agosto de 2024 al 35 % este pasado agosto.
Su mensaje, que evalúa las diez principales herramientas de IA, evidencia que los modelos de lengua tratan fuentes poco fiables como si fueran creíbles y ahora obtienen información de un ecosistema en ringlera contaminado, «a veces sembrado deliberadamente por vastas redes de actores malintencionados, incluidas operaciones de desinformación rusas».
Difusión de propaganda
NewsGuard destaca que el impulso por hacer que los chatbots sean más receptivos ha provocado de forma inintencionada que sean más propensos a difundir propaganda. Según sus conclusiones, el sistema más popular, ChatGPT, proporciona datos falsos el 40 % del tiempo, el mismo porcentaje que Meta.
Los modelos con beocio cuota de redifusión de información falsa son Claude (10 %) y Gemini (16,67 %), mientras que en el otro extremo se sitúan Inflection (56,67 %) y Perplexity (46,67 %). En un rango intermedio están Grok y You.com, uno y otro en el 33,33 %, así como Mistral y Copilot, con un 36,67 %.
NewsGuard apuntó que los principales chatbots repiten asiduamente narrativas promovidas por redes de propaganda afiliadas a Estados y disfrazadas de medios locales legítimos.
Campañas rusas de desinformación
En julio de 2024, esta web de investigación detectó que, en el 32 % de los casos, los 10 modelos más destacados difundieron narrativas de propaganda extranjera vinculadas a la campaña rusa de desinformación Storm-1516.
Su mensaje recalcó que aunque las principales compañías de IA se han comprometido a mejorar sus sistemas y asociaciones, con alianzas que incluyen a agencias estatales de telediario, los modelos siguen fallando a la hora de proporcionar datos precisos sobre eventos actuales.
«Los actores maliciosos parecen suceder obligado esta afición y la están explotando al inundar el ecosistema informativo con falsedades», sostuvo la ordenamiento, que comenzó a efectuar este tipo de investigación en julio de 2024.
Información verificada
La mejoría más importante en un año es el cambio en las tasas de no respuesta, que pasaron del 31 % en agosto de 2024 al 0 % en todos los sistemas un año luego. El número de respuestas en las que se decía no tener información verificada había llegado al 86,67 % en plataformas como Gemini y al 70 % en Claude.
«Sin requisa, la mejoría ha tenido un precio. Con el camino en tiempo efectivo a la web, los chatbots se volvieron más propensos a amplificar falsedades durante eventos de última hora, evidentemente cuando los usuarios —ya sean ciudadanos curiosos, lectores confundidos o actores maliciosos— son más propensos a acogerse a los sistemas de IA», añadió NewsGuard.
«Ecosistema informativo contaminado»
La web advirtió de que si no se corrige esta dinámica se corre el aventura de «arreglar un ecosistema informativo contaminado, donde la propaganda extranjera y otras afirmaciones falsas son validadas por las mismas herramientas en las que la gentío confía para obtener telediario e información».






