- Bogota D.C - Calle 67 N° 7-94 Oficina 604
- 3138834959 - 601 7953297 Ext. 120
La clonación de voz con inteligencia artificial es solo una de las muchas herramientas de IA que han cobrado importancia en el 2023 y vuelve a ocupar portadas en 2024.
Sin ir más lejos, la gigante tecnológica china, ByteDance, la empresa que se esconde detrás de TikTok, hace unos días fue noticia por el lanzamiento de StreamVoice, una herramienta, impulsada por inteligencia artificial, que permite a los usuarios transformar sus voces, en directo y con una enorme calidad para imitar a otras personas. Por así decirlo, el caldo de cultivo perfecto para los delincuentes.
¿Por qué? Pues resulta sencillo. Imagina recibir una llamada de un amigo o incluso un familiar pidiéndote información confidencial o diciéndote que necesitan que hagas una transferencia bancaria. Todo parece real, sobre todo porque reconoces su voz. Pero ¿y si no son ellos?
Si bien es cierto que para que esto realmente se lleve a cabo los estafadores necesitan tener muestras de audio real de esas personas, la velocidad con la que esta tecnología está evolucionando, si además se tiene en cuenta el fácil acceso a estas herramientas, preocupa.
«Se estima que en los próximos años este tipo de delitos vaya en aumento, pudiendo llegar a suponer un gran riesgo para los individuos debido a la complejidad de identificación del fraude, que con el tiempo también resulta probable que experimente múltiples mejoras», explicaron en una anterior entrevista Raquel Puebla e Itxaso Reboleiro, analistas de ciberinteligencia en Innotec Security Part of Accenture.
Al final, un fragmento de la voz de alguien de una conversación es suficiente para que un delincuente lo utilice para generar conversaciones muy realistas que, en última instancia, son falsas. Si alguien conoce tu parentesco con otra persona y la graba para utilizarlo en tu contra, estás perdido casi con un 100% de probabilidad.
«Es evidente que necesitamos no solo una mejor regulación al respecto, sino, también, dotar a los Cuerpos y Fuerzas de Seguridad de herramientas suficientes para enfrentarse al ciberdelito en general y, en concreto, a las nuevas actividades delictivas que estamos ya viendo y que seguirán evolucionando en torno a la IA», explica en una entrevista para Computer Hoy Miguel López, Director General de Barracuda Networks.
En cuanto a cómo se podría revolver este gran problema que solo va a ir a más, es posible que existan varias formas de acabar con ello.
Bien es cierto, y teniendo en cuenta que al tratarse ya de herramientas que transforman las voces ya en directo, resulta muy complejo comprobar si se trata de tu familiar o no, a no ser que comiences a desconfiar de todo el mundo y te dediques a hacer preguntas clave que solo la persona real conoce.
Sin embargo, hay cosas todavía por hacer. Por ejemplo, empresas tecnológicas, como Google o Microsoft, podrían desarrollar algoritmos de detección de deepfakes para proteger sus propios productos y servicios.
Los gobiernos, por su parte, de la misma forma podrían implantar herramientas similares, para proteger a sus ciudadanos de la desinformación y el fraude. Lo mismo ocurre con las compañías de telecomunicación.
El problema llega cuando las llamadas, en lugar de producirse con una empresa, un hotel o con, por ejemplo, el banco, ocurre, como antes se comentaba, entre familiares o amigos. ¿Cuál es entonces la solución?
Tal y como explica el experto entrevistado, «deberíamos aplicar mayores dosis de sentido común a la hora de no compartir excesiva información sobre nosotros mismos y/o nuestras organizaciones en cualquier tipo de red social. También dotarnos de formación en ciberseguridad para poder identificar posibles ataques y saber reaccionar a ellos. Y, por supuesto, de medios técnicos y herramientas de ciberseguridad que eviten o, al menos, limiten los daños de un ciberataque de este tipo».
FUENTE: Valenzuela González, Carolina. »Así funcionan las nuevas estafas telefónicas 3.0: inteligencia artificial al servicio de los ciberdelincuentes» Computerhoy.com. 04/02/2024. (https://computerhoy.com/ciberseguridad/funcionan-nuevas-estafas-telefonicas-30-inteligencia-artificial-1360650).
Inscríbete ahora y sé el primero en recibir todas las novedades y actualizaciones exclusivas de nuestra página
Recibe información gratuita y personalizada
Protegemos el activo más importante de tu compañía: ¡Los Datos!