Deepfakes sunt măști virtuale folosite pentru a se da drept persoane. Acestea sunt din ce în ce mai răspândite pe internet și trebuie spus că crearea lor devine din ce în ce mai ușoară odată cu avansul tehnologiilor Deep Learning și de inteligență artificială. Care sunt riscurile? Care este viitorul lor? În acest articol, vom examina aceste aspecte în detaliu.
Ce este un deepfake?
Termenul deepfake se referă nu numai la conținutul creat, ci și la tehnologiile utilizate. Este o contracție a cuvintelor „Deep Learning” și „Fake”, care poate fi tradus ca „adâncime falsă”, referindu-se la conținutul fals care este făcut profund credibil. În general, aceasta ia forma unei înregistrări video sau audio create sau modificate cu ajutorul inteligenței artificiale. În 2014, cercetătorul Ian Goodfellow a inventat o tehnică care stă la baza deepfakes, GAN (Generative Adversarial Networks). Această tehnologie utilizează doi algoritmi care se antrenează reciproc: unul încearcă să facă contrafaceri cât mai fiabile, în timp ce celălalt încearcă să detecteze falsurile. În acest fel, cei doi algoritmi se îmbunătățesc împreună în timp, prin intermediul antrenamentelor lor.
Din toamna anului 2017, deepfakes au devenit din ce în ce mai răspândite. În 2019, cercetătorii de la Deeptrace au identificat aproximativ 15.000 de videoclipuri deepfake online, comparativ cu mai puțin de 8.000 cu un an înainte. Falsificările audio sunt încă relativ rare, deoarece pentru a le crea este nevoie de resurse hardware semnificative.
Care sunt riscurile asociate cu măștile virtuale?
Deepfakes pot fi utilizate în scopuri rău intenționate, cum ar fi manipularea, dezinformarea, umilirea, defăimarea și șantajul. De exemplu, un deepfake poate fi folosit pentru a crea un videoclip în care o persoană pare să spună sau să facă ceva ce nu a spus sau făcut niciodată. Deepfakes pot fi, de asemenea, folosite pentru a păcăli sistemele de recunoaștere facială și pentru a se da drept altcineva. Acest lucru se poate întâmpla, de exemplu, în timpul procedurilor de îmbarcare a clienților la distanță, când un infractor cibernetic încearcă să uzurpe identitatea unei persoane.
Odată fizice, măștile care încercau să reproducă chipurile altor persoane devin acum virtuale: mai simple, mai rapid de realizat și mai puțin detectabile. Amenințarea este reală, iar realismul ar trebui să se îmbunătățească odată cu trecerea timpului și cu progresele tehnologice. Acest lucru ar putea cauza daune semnificative imaginii publice și vieții private a persoanelor vizate.
Prin urmare, detectarea și prevenirea deepfakes reprezintă o provocare majoră în materie de securitate cibernetică pentru organizații și autorități publice.
Ce ne rezervă viitorul în materie de securitate cibernetică?
Falsurile sunt o problemă din ce în ce mai mare, în special pe rețelele de socializare, unde sunt expuse la cel mai mare număr de persoane și se pot răspândi rapid și ușor. Pentru a contracara această amenințare, unele soluții sunt capabile să aplice un filtru videoclipurilor pentru a preveni exploatarea acestora de către un software care poate genera deepfakes. Laboratorul FAIR al Facebook lucrează la acest proiect de „de-identificare”.
În ceea ce privește primirea clienților, ANSSI (Agenția Națională pentru Securitatea Sistemelor Informatice din Franța) a implementat următoarele măsuri pentru a combate această amenințare
PVID
(Remote Identity Verification Provider), care permite garantarea identităților chiar și de la distanță. Cerințele standardului fac posibilă contracararea atacurilor prin prezentare (videoclipuri preînregistrate, fotografii) și deepfakes. De fapt, căile de intrare într-o relație trebuie să includă o „provocare” aleatorie unică. Utilizatorului i se cere să efectueze o acțiune specifică, care nu poate fi prevăzută în prealabil, ceea ce face ca traseul să nu poată fi reluat, evitându-se astfel aceste amenințări.