
Cuando la mayoría de la parentela piensa en la IA, lo primero que probablemente viene a la mente no es la superinteligencia o la promesa de los agentes para aumentar la productividad, sino las estafas.
Siempre ha habido estafadores entre nosotros, ese pequeño porcentaje de la población que utilizará cualquier medio habitable para estafar a otros de su billete. La proliferación de herramientas de IA generativas avanzadas y fácilmente accesibles en los últimos primaveras ha facilitado la actividad nefasta exponencialmente.
Todavía: Conozca el Agente de Chatgpt, un nuevo asistente de IA despierto para admitir a sitio tareas complejas para usted, pruébelo ahora
En un incidente renombrado de principios del año pasado, un empleado de finanzas en una empresa con sede en Hong Kong conectó $ 25 millones a los estafadores a posteriori de percibir instrucciones de hacerlo en una videollamada con lo que creía que eran ejecutivos de la compañía, pero de hecho eran defectos generados por IA. Y a principios de este mes, una parte desconocida usó AI para imitar la voz del secretario de Estado de los Estados Unidos Ámbito Rubio en las llamadas que salieron a un puñado de funcionarios del gobierno, incluido un miembro del Congreso.
Y, sin requisa, contraintuitivamente, la IA todavía está siendo implementada por compañías de servicios financieros para evitar fraude.
En una indagación fresco realizada por MasterCard y Financial Times Longitude (una agencia de marketing y una subsidiaria de Financial Times Group), el 42% de los emisores y el 26% de los adquirentes dijeron que las herramientas de IA les han ayudado a librarse más de $ 5 millones de intentos de fraude en los últimos dos primaveras.
En el sector financiero, un emisor es una empresa que proporciona tarjetas de débito o crédito (piense en persecución u otro lado importante), mientras que los adquirentes son aquellos que aceptan pagos (piense en Stripe y Square).
Todavía: Claude de Anthrope se sumerge en el prospección financiero. Esto es lo nuevo
Muchas de estas organizaciones han comenzado a usar herramientas de IA para mejorar su seguridad digital adyacente con métodos más tradicionales, como la autenticación de dos factores y el criptográfico de extremo a extremo, según un crónica de los resultados de la indagación publicados el mes pasado.
Los encuestados informaron que utilizaron una variedad de técnicas con IA para aumentar su ciberseguridad y proteger contra el fraude. La técnica más comúnmente citada fue la detección de anomalías, es opinar, una rebato automatizada que marca las solicitudes inusuales. Otros casos de uso incluyeron escanear para vulnerabilidades en los sistemas de ciberseguridad, modelado de amenazas predictivas, “piratería ética” (otra forma de búsqueda de vulnerabilidades del sistema) y la prosperidad de los empleados.
La gran mayoría de los encuestados (83%) todavía dijo “que la IA ha estrecho significativamente el tiempo necesario para la investigación y resolución de fraude”, al tiempo que reduce la rotación de clientes. Aún más (90%) acordó que, a menos que su uso de IA para la prevención de fraude aumente en los próximos primaveras, sus “pérdidas financieras probablemente aumentarán”.
Todavía: Investigadores de OpenAi, Anthrope, Meta y Google Problem Assect AI Safety Advertir, aquí están por qué
Sin requisa, varias barreras están evitando que las compañías de servicios financieros encuestados a adoptar herramientas de IA que prevían fraude a escalera. El principal de ellos son las complejidades técnicas de integrar nuevos sistemas de IA con software y datos existentes que ya está implementado adentro de una estructura. Eso es seguido de cerca por las preocupaciones sobre el ritmo rápido al que están evolucionando las tácticas de fraude en sí mismas, lo que muchos temen superará rápidamente cualquier intento de usar la prevención de fraude con AI.
¿Quieres más historias sobre AI? Regístrese para la innovaciónnuestro boletín semanal.





