La presentación de software de inteligencia industrial, como ChatGPT, ha destapado la puerta a nuevas formas para que los estafadores engañen a las personas. Los estafadores pueden utilizar chatbots de IA como TerifAI, que admite la clonación de voz para atacar a víctimas desprevenidas. Se harán ocurrir por seres queridos en caso de emergencia, superiores que solicitan transacciones financieras o celebridades conocidas que respaldan inversiones específicas. El objetivo es convencer a la víctima de que actúe, y las aplicaciones de clonación de voz con IA son fáciles de encontrar y utilizar. Solo necesitan unos segundos de audio para clonar la voz de algún, y es posible que algunos de ellos no tengan suficientes barreras de seguridad para evitar abusos. Debería preocuparse por las amenazas de clonación de voz y adivinar cualquier señal de voz sospechosa en el futuro.
A Investigación de informes del consumidor de marzo de 2025 destacó los riesgos asociados con las aplicaciones de clonación de voz. La estructura sin fines de provecho examinó seis aplicaciones que utilizan inteligencia industrial para ofrecer capacidades de clonación de voz y descubrió que cuatro de ellas no hacen lo suficiente para respaldar que la persona que realiza la clonación tenga el consentimiento del hablante. El mensaje nombra a ElevenLabs, Speechify, PlayAI y Lovo como las cuatro aplicaciones que no tenían ningún mecanismo técnico para confirmar el consentimiento del hablante, hasta marzo pasado. Descript y Resemble AI son las dos aplicaciones que dificultaron el extralimitación, pero Consumer Reports aún encontró formas de eludir la protección.
Para probar estas aplicaciones, Consumer Reports intentó crear clones de voz a partir de audio apto públicamente, un marco que podría invertir un estafador. Un individuo malintencionado puede apañarse muestras de voz en las redes sociales cuando se dirige a un individuo. El audio se puede utilizar con servicios de clonación de voz para crear las panorama deseadas. Algunas de las empresas estudiadas por Consumer Reports dijeron que cuentan con protecciones, como grabaciones con marcas de agua o el uso de una saco de datos de deepfakes, pero esas protecciones pueden ser insuficientes.
¿Cómo utilizan los estafadores las herramientas de clonación de voz?
Consumer Reports detalló algunos ataques específicos que involucran clonación de voz. Por ejemplo, la “estafa de los abuelos” se dirige a las personas mayores. Un estafador usaría una aparejo de clonación de voz para designar a una persona anciano y hacerse ocurrir por un ser querido. Dirán que necesitan efectivo para una emergencia e instarán a la persona anciano a que les dé efectivo de inmediato, mediante un cuota en efectivo, una transferencia bancaria o la adquisición de tarjetas de regalo. La segunda estafa consiste en clonar las voces de celebridades para suscitar contenido que respalde un tipo particular de inversión. Otros impostores pueden apelar a estafas financieras, dirigidas a empleados de grandes corporaciones. En 2024, un trabajador de una empresa de Hong Kong envió 25 millones de dólares a imitadores que utilizaron una aparejo de clonación de voz para hacerse ocurrir por el director financiero de la empresa.
Si adecuadamente este tipo de ataques tienen el mismo motivo (obtener efectivo de la víctima), los estafadores pueden tener otras razones nefastas en mente. Consumer Reports cita informes sobre esquemas de deepfake dirigidos a las elecciones presidenciales de Taiwán en 2023. De modo similar, una señal cibernética en New Hampshire que utilizó un clon de voz del expresidente Joe Biden instó a la masa a no sufragar en 2024.
No se alcahuetería solo de que Consumer Reports advierta contra las herramientas de clonación de voz de IA. El director ejecutor de OpenAI, Sam Altman, abordó el fraude y la IA en una entrevista en la Reserva Federal en julio pasado. En concreto, mencionó el uso de la voz para autenticarse en algunas aplicaciones. “Lo que me aterroriza es que aparentemente todavía hay algunas instituciones financieras que aceptan una huella de voz como autenticación para mover una gran cantidad de efectivo o hacer otra cosa”, dijo, añadiendo que “la IA ha derrotado completamente eso. (…) Estoy muy nervioso de que tengamos una importante crisis de fraude inminente conveniente a esto”.
Qué puedes hacer para protegerte
Una forma secreto de defenderse contra las estafas es estar informado sobre lo que es posible con las herramientas de voz de IA y lo que hacen los atacantes en el mundo vivo. Armado con ese conocimiento, sabrá que debe efectuar a la persona que vehemencia. Si algún dice que es su hijo y necesita efectivo, puede colgar y llamarlo a su número vivo para efectuar la información. Si un superior solicita una transferencia bancaria urgente, puede retrasar la entusiasmo hasta que haya podido comprobar que la señal fue genuina. En cuanto a las celebridades que le piden que invierta en una empresa o criptomoneda, o los políticos que le instan a no sufragar, puede apañarse en la web para obtener información adicional. Lo que no puedes hacer es intentar detectar voces clonadas. Consumer Reports citó un estudio de Berkeley que demostró que las personas eran capaces de detectar voces falsas sólo el 60% de las veces, pero el software de inteligencia industrial progreso continuamente y los ataques se vuelven más sofisticados.
ChatGPT de OpenAI admite chats de voz, pero la compañía no ofrece software de inteligencia industrial para clonación de voz a los usuarios, poco que Consumer Reports destaca. Altman asimismo citó algunas de las estafas que mencionó la estructura sin fines de provecho, incluidos los ataques de rescate “donde las personas tienen la voz de su hijo o de su padre y hacen una señal urgente”. Altman predijo que, en el futuro, algunos estafadores podrían ocurrir a llamadas FaceTime convincentes generadas por IA que pueden ser “indistinguibles de la sinceridad”.
A Tiempo El mensaje de julio pasado mencionó una advertencia del FBI sobre campañas de “vishing”, diciendo que “los actores maliciosos están explotando con anciano frecuencia el audio generado por IA para hacerse ocurrir por figuras públicas conocidas o relaciones personales para aumentar la credibilidad de sus planes”. Consumer Reports asimismo señaló que los ataques se están volviendo cada vez más multimodales, involucrando correo electrónico, texto e imágenes/videos por otra parte de clonar la voz de algún.





