La IA se utiliza para crear identidades falsas que son difíciles de distinguir de las reales. Esto se puede utilizar para robar dinero, obtener acceso a información confidencial o cometer fraudes.
El principal blanco de estos ataques son los centros de atención telefónica exclusivos para tarjetas de crédito. Aunque solo un puñado de estos engaños sean generados con IA, el experto explicó que representan un peligro porque algunos operadores carecen de la preparación necesaria para identificar una llamada de este tipo. Si bien la voz puede sonar robótica, los datos que los estafadores poseen, muchas veces información confidencial, que llegan a generan dudas en las víctimas.
Balasubramaniyan ha identificado que VALL-E se ha convertido en una de las herramientas más factibles y asequibles a la cuales un hacker puede llegar. Lo más alarmante de esta IA es que necesita una muestra de audio de tres segundos para replicar una voz.
A esta lista se une Parrot, otra herramienta con la capacidad de clonar la voz de una persona que hable inglés.
Ya existe software de detección de voces generadas con IA, y el campo seguirá evolucionando. Por ahora, se recomienda que ante una ciberextorsión se desconfíe de las comunicaciones de esos supuestos secuestradores o ejecutivos de instituciones bancarias, que lanzan amenazas o dan instrucciones a seguir. El siguiente paso es contactar a la supuesta víctima o al bancos, llamando directamente.