Expertos en ciberseguridad creen que los 'deepfakes' serán la próxima frontera del fraude empresarial a partir de 2020

Presentación del informe de predicciones para 2020 de Trend Micro
Presentación del informe de predicciones para 2020 de Trend Micro - EUROPA PRESS
Publicado: jueves, 28 noviembre 2019 17:21

   MADRID, 28 Nov. (Portaltic/EP) -

   Los 'deepfakes', esos montajes audiovisuales hiperrealistas que cambian la cara y la voz del protagonista utilizando herramientas de 'deep learning', se han multiplicado en los últimos meses y los expertos en ciberseguridad alertan de que 2020 podría ser la fecha en la que esta tecnología sea utilizada de forma masiva para cometer fraude empresarial.

   Así lo pone de manifiesto la empresa de ciberseguridad Trend Micro en su informe de predicciones para 2020, en el que también se afirma que las organizaciones se enfrentan a un "riesgo creciente" proveniente desde la nube y de la cadena de suministro, tal y como ha explicado su director general en Iberia, José Battat, en un encuentro con la prensa.

   "Las amenazas persistentes y variadas requieren una seguridad multicapa que pueda proporcionar detección y protección en tiempo real. Además de aumentar la concienciación de los empleados sobre las técnicas de ingeniería social, las organizaciones también deberían realizar auditorías periódicas de seguridad", añade la compañía.

   Una de las técnicas más novedosa es el 'deepfake', que hasta ahora se usa de forma mayoritaria en la industria pornográfica (en el 96 por ciento de los casos) y para realizar chantajes a nivel particular. Sin embargo, desde Trend Micro advierten de que estas prácticas podrían aumentar significativamente el próximo año y poner el foco en las empresas, tratando de manipularlas en sus transacciones financieras y decisiones críticas.

   En este sentido, David Sancho, experto en amenazas web y tecnologías emergentes de Trend Micro, indica que la suplantación de la voz a través de este tipo de herramientas "es relativamente fácil y convincente". Así, explica que puede ser muy efectiva si se utiliza contra una persona con responsabilidad en el área de Administración de una organización, cuando la voz que se ha copiado es la del jefe y se usan canales de comunicación de confianza como el WhatsApp.

   Otro caso al que se ha referido Sancho es el de los montajes 'deepfake' de directivos, que pueden llegar a viralizarse en Internet y afectar a la reputación de la compañía, causando un importante daño económico, al incidir -por ejemplo- en su cotización en Bolsa.

   Esta amenaza ha llevado incluso a Twitter a anunciar recientemente que modificará las políticas de la plataforma contra los contenidos manipulados a través de técnicas de 'deepfake', enfocándose especialmente en aquellos contenidos que puedan dañar a los usuarios.

Leer más acerca de: