Los deepfakes son máscaras virtuales utilizadas para suplantar la identidad de las personas. Cada vez están más extendidos en internet, y hay que decir que su creación es cada vez más fácil con el avance de las tecnologías de Deep Learning e Inteligencia Artificial. ¿Cuáles son los riesgos? ¿Cuál es su futuro? En este artículo examinaremos estas cuestiones en detalle.
¿Qué es un deepfake?
El término deepfake se refiere no sólo a los contenidos creados, sino también a las tecnologías utilizadas. Es una contracción de «Deep Learning» (aprendizaje profundo) y «Fake» (falso), que puede traducirse como «profundidad falsa», refiriéndose a contenidos falsos que se hacen profundamente creíbles. Generalmente adopta la forma de una grabación de vídeo o audio creada o modificada mediante inteligencia artificial. En 2014, el investigador Ian Goodfellow inventó una técnica que está en la raíz de los deepfakes, GAN (Generative Adversarial Networks). Esta tecnología utiliza dos algoritmos que se entrenan mutuamente: uno intenta que las falsificaciones sean lo más fiables posible, mientras que el otro intenta detectar las falsificaciones. De este modo, los dos algoritmos mejoran juntos con el tiempo a través de sus respectivos entrenamientos.
Desde el otoño de 2017, los deepfakes están cada vez más extendidos. En 2019, los investigadores de Deeptrace identificaron alrededor de 15.000 vídeos deepfake en línea, en comparación con menos de 8.000 un año antes. Los deepfakes de audio siguen siendo relativamente infrecuentes, ya que su creación requiere importantes recursos de hardware.
¿Cuáles son los riesgos asociados a las máscaras virtuales?
Los deepfakes pueden utilizarse con fines maliciosos como la manipulación, la desinformación, la humillación, la difamación y el chantaje. Por ejemplo, un deepfake puede utilizarse para crear un vídeo en el que una persona parece decir o hacer algo que nunca ha dicho o hecho. Los deepfakes también pueden utilizarse para engañar a los sistemas de reconocimiento facial y hacerse pasar por otra persona. Esto puede ocurrir, por ejemplo, durante los procedimientos de incorporación de clientes a distancia, en los que un ciberdelincuente intenta usurpar la identidad de una persona.
Las máscaras que antes eran físicas y trataban de reproducir el rostro de otras personas se están convirtiendo en virtuales: más sencillas, más rápidas de fabricar y menos detectables. La amenaza es real, y el realismo debería mejorar con el tiempo y los avances tecnológicos. Esto podría causar un daño significativo a la imagen pública y a la intimidad de los afectados.
Detectar y prevenir las falsificaciones profundas es, por tanto, un importante reto de ciberseguridad para las organizaciones y las autoridades públicas.
¿Qué le depara el futuro a la ciberseguridad?
Los deepfakes son un problema creciente, sobre todo en las redes sociales, donde están expuestos al mayor número de personas y pueden propagarse con rapidez y facilidad. Para contrarrestar esta amenaza, algunas soluciones son capaces de aplicar un filtro a los vídeos para evitar que sean explotados por software capaz de generar deepfakes. El laboratorio FAIR de Facebook está trabajando en este proyecto de «desidentificación».
En el ámbito del onboarding de los clientes, la ANSSI (Agencia Nacional de Seguridad de los Sistemas de Información) ha desplegado las siguientes medidas para luchar contra esta amenaza el PVID (Proveedor de Verificación Remota de Identidad), que permite garantizar las identidades incluso a distancia. Los requisitos de la norma permiten contrarrestar los ataques por presentación (vídeos pregrabados, fotos) y deepfakes. De hecho, las vías para entablar una relación deben incluir un «desafío» aleatorio único. Se pide al usuario que realice una acción específica que no puede preverse de antemano, lo que hace que la ruta sea «no reproducible» y se eviten así estas amenazas.