Napredki na področju umetne inteligence in globokega učenja so nedavno omogočili samodejno manipulacijo slikovnih podatkov in videoposnetkov
s prepričljivimi rezultati, ki jih na pogled ni mogoče prepoznati kot umetno generirane. Omenjeni napredki so pripomogli k bistvenemu zmanjšanju
nivoja znanja, ki je potreben za proizvajanje prepričljivih lažnih posnetkov oziroma slik. Nedavni pojav tehnologij za generiranje take imenovanih
globokih ponaredkov (angl. deepfakes) predstavija konkretno posledico razvoja teh tehnologij in danes tudi osebam brez posebnega tehničnega znanja omogoča masovno generiranje prepriéčjivih in foto-realističnih lažnih posnetkov.
Čeprav obstajajo legalni in etični primeri uporabe tehnologij globokih ponaredkov (npr. za varovanje zasebnosti v vizualnih podatkih), pa je precej bolj zaskrbljujoča njena uporaba za legalno in etično vprašljive cilje, kot so izsiljevanje, lažne novice ter ponarejena pornografija. Že sama količina lažnih
posnetkov, ki jo je mogoče proizvesti z avtomatskimi metodami, bi lahko kmalu preplavila človeške pregledovalce. Večje platforme za deljenje
videoposnetkov, kot je YouTube, se že pri obstoječem nivoju prometa za filtriranje nelegalnih in neželenih vsebin namreč v glavnem zanašajo na
samodejne računalniške algoritme. Pojav globokih ponaredkov pa je problematičen tudi na drugih področjih. Ker se tako finančni kot tudi javni
sektor vse pogosteje zanašata na avtentikacijo uporabnikov preko video-klicev, lahko (realno-časovni) globoki ponaredki omogočajo tudi krajo
identitete, kar lahko ima resne finančne posledice za ljudi in uporabnike takšnih storitev.
Za preprečevanje širjenja lažnih posnetkov in kriminalnih dejanj, ki jih omogočajo globoki ponaredki, so ključnega pomena samodejne in zanesljive
metode za njihovo zaznavanje. V okviru predlaganega temeljnega raziskovalnega projekta Zaznavanje globokih ponaredkov z metodami zaznave anomalij (DeepFake DAD) bomo naslovili to potrebo in razvili nove tehnologije za odkrivanje globokih ponaredkov, ki za razliko od obstoječih rešitev zagotavijajo robustno in učinkovito delovanje, ne glede na vrsto tehnologije, ki je bila uporabljena v ozadju. Obstoječi detektorji danes temeljijo na preprostih karakteristikah slik, ki se izkažejo za učinkovite le pri prepoznavanju nekaj znanih načinov generiranja slik. Vendar pa takšni pristopi pogosto odpovejo pri zaznavanju globokih ponaredkov, ki so generirani z neznanimi ali novimi metodami. Projekta DeepFake DAD se bo zato osredotočil na razvoj novih metod za zaznavo globokih ponaredkov, ki jih je možno naučiti v delno nadzorovanem oz. nenadzorovanem načinu in brez uporabe učnih primerov javno objavijenih metod za generiranje globokih ponaredkov.
Glavni rezultat predlaganega raziskovalnega projekta bodo nove in robustne metode za zaznavanje globokih ponaredkov, ki bodo platformam in končnim uporabnikom omogočale avtomatsko preverjanje pristnosti video posnetkov ter s tem preprečile neželene osebne, družbene, gospodarske in politične posledice, ki jih lahko povzrocijo lažni in ponarejeni posnetki.