Las estafas virtuales están a la orden del día y los delincuentes se las ingenian cada vez más para engañar a sus víctimas. Afilan su mentira y su estrategia de manera tal que resulta muy difícil detectar un engaño.
Generalmente, los ladrones contactan a sus víctimas por teléfono o redes sociales previamente robados y se comunican con los contactos de esa persona pidiendo dinero. Otra forma de engaños es llamar por teléfono y hacerse pasar por un familiar o allegado a la víctima, decirle que está en una urgencia económica y pedir una transferencia bancaria.
Pese a los reiterados avisos de esta modalidad de robo, los ladrones se las ingenian para seguir logrando que la gente caiga en sus mentiras.
Ahora, con el uso de la Inteligencia Artificial, detectar que se trata de una mentira es mucho más difícil. Es que con esta herramienta logran clonar las voces, por lo que darse cuenta que quien en realidad está hablando no es un conocido, sino una simulación de su voz creada por la IA es prácticamente imposible.
Según informa Noticias Argentinas, en todo el país se están registrando casos con esta metodología.
El abogado Rodrigo Bionda, especialista en la prevención de ciberdelitos, dijo: "Debemos empezar a descreer de todo lo que vemos y escuchamos".
"Si la grabación ronda el medio minuto ya sería imposible darse cuenta si es real o no", dijo y contó que él hizo una prueba de videollamada con una versión paga de inteligencia artificial y "es imposible darse cuenta si estamos frente a la persona original", explicó el abogado.
Este tipo de estafa es llamado como vishing.
El término deriva de la unión de dos palabras: 'voice' y 'phishing' y se refiere al tipo de amenaza que combina una llamada telefónica fraudulenta con información previamente obtenida desde internet.
Las estafas con voces clonadas por inteligencia artificial (IA) representan un tipo de ciberataque que utiliza esta tecnología para clonar voces, suplantando la identidad de familiares o amigos para engañar a sus víctimas.