
En un mundo cada vez más digital, donde la inteligencia artificial (IA) se convierte en una herramienta de uso común, surgen nuevas amenazas que podrían parecer extraídas de una novela de ciencia ficción. Una de estas es la estafa de clonación de voz, una técnica fraudulenta que se aprovecha de la tecnología para engañar a las personas y robarles dinero.
Imagínese lo siguiente: la pantalla de su teléfono móvil se ilumina con la llamada entrante de un número desconocido. Al otro lado de la línea, una voz irritada le da indicaciones urgentes desde un teléfono corporativo que desconoce para que la empresa realice una transferencia de dinero urgente que compense el retraso en los pagos a su proveedor. La voz no es desconocida: pertenece a su jefe. Y, para colmo, no está contento, porque la empresa se encuentra en serios apuros. Pero todo es mentira.
La tensión de la situación, la urgencia de la voz y el hecho de que se encuentre en medio de una labor totalmente irrelevante ante un incidente tan grave le empujan a actuar a toda velocidad. Sin pensarlo dos veces, da orden de transferencia inmediata de una suma considerable de dinero. Pero el dinero no acaba en la cuenta bancaria de su proveedor, ni soluciona ningún incidente vital para la compañía, porque no es una situación real: ha sido víctima de una estafa de clonación de voz.
Según Alberto Redondo, comandante de la Guardia Civil y jefe del Grupo de Ciberinteligencia Criminal de la Unidad Técnica de Policía Judicial, en España, esta situación todavía se da con poca frecuencia «porque todavía la tecnología no está madura». Sin embargo, todo apunta a que estas estafas irán en aumento, paralelas al desarrollo de las nuevas herramientas de inteligencia artificial.
Antonio Villalón, director de seguridad de S2 Grupo, explica que «si tenemos una grabación de una persona hablando durante 15 minutos, a partir de ahí, con la inteligencia artificial, lo que puede hacer un atacante es modular esa voz para que diga lo que él quiere». Los delincuentes obtienen toda la información necesaria para «la modulación de esa voz, de esa imagen» a través de redes sociales, donde la gente comparte su imagen y su voz.
Hervé Lambert, gerente de operaciones de consumo global de la empresa especializada en seguridad informática Panda Security, explica cómo los modelos de inteligencia artificial pueden ser entrenados con audios robados para crear una réplica idéntica de nuestra voz. La similitud es tan exacta que la clonación es capaz de adaptarse a pausas, patrones de respiración o fonemas característicos de la persona.
Cualquiera puede ser víctima de un posible ataque, aunque hay un especial interés en aquellas personas con cargos de poder o influencia en las estrategias de la empresa. «El objetivo es ser lo suficientemente creíble para poder contarte una historia, que tú entres en la historia y que termines o dando tus credenciales, tus datos financieros, o haciendo directamente una transferencia a la cuenta del ciberdelincuente», explica Lambert.
Para prevenir este tipo de situaciones, los expertos recomiendan la «desconfianza racional», y la verificación por medio de segundas vías. Villalón sugiere hacer una llamada a otro número de teléfono para asegurarse de que es realmente su jefe quien le está pidiendo esa transacción. Por otro lado, Lambert recomienda crear concienciación y educar en la empresa sobre este peligro cada vez más frecuente.
Desde la empresa proveedora de servicios informáticos NordVPN, Adrianus Warmenhoven, experto en ciberseguridad, recomienda tener cuidado con lo que se publica en redes sociales, dado que considera a estas el principal banco de recursos de los ciberdelincuentes. Además, sugiere colgar la llamada en cuanto la identifiquemos como estafa, para no dar tiempo a recabar material de audio y, como los otros expertos, verificar que esta situación es real a través de otras vías, como un número de teléfono alternativo (y familiar).
Si se percata de que es víctima de un fraude telefónico, los pasos a seguir son ponerse en contacto con la entidad bancaria correspondiente para detener la transferencia de forma inmediata; y posteriormente acudir al cuartel de la Guardia Civil más cercano para denunciar la situación, aportando todas las pruebas relacionadas, como el número de teléfono desde el que se realizó la llamada, o el clip de voz utilizado.
Estas estafas se están volviendo cada vez más comunes y sofisticadas y representan realmente una amenaza significativa en el mundo digital. «La clonación de voz es una preocupación creciente en el ámbito de la seguridad cibernética. No es un cuento, no es ciencia ficción, está pasando ahora», insiste Lambert.