Žiūrite, ir netikite savo akimis. Vaizdo siužete Amerikos garsenybė staiga užtraukia rusišką dainelę. Tik po kurio laiko suprantate, kad vaizdas yra pakeistas ir suklastotas pasitelkus šiuolaikines technologijas. Tokios sintetinės vaizdo klastotės angliškai yra vadinamos „deepfake“.
Kol kas ši „deepfake“ technologija dažniausiai naudojama pramoginiais tikslais, tačiau kibernetinio saugumo ekspertai įspėja, kad sintetinės vaizdo klastotės gali būti panaudojamos ir piktais kėslais – siekiant apgauti, suklaidinti ir net supriešinti visuomenę. Vaizdo klastotei sukurti pakanka poros šimtų konkretaus asmens nuotraukų.
Suklastoja ne tik veidą
Kalbėdamas apie vaizdo klastotes programuotojas ir dizaineris Jonas Lekevičius neretai vartoja „skaitmeninės kaukės“ terminą. Anot jo, Lietuvoje ir pasaulyje tai yra gana naujas reiškinys.
„Pasitelkus skaitmenines technologijas judantis žmogaus veidas pakeičiamas taip, kad šių pokyčių būtų neįmanoma pastebėti. Trumpai tariant, ši technologija skirta transformuoti vieno asmens veidą naudojant kito asmens veidą, neprarandant emocijų ir išraiškų“, – aiškina J. Lekevičius.
Pašnekovas prognozuoja, kad ilgainiui sintetinės vaizdo klastotės bus naudojamos vis dažniau, nes technologija yra aktyviai vystoma ir nuolat progresuoja.
„Jau yra sukurtos panašios technologijos programėlės, naudojamos tik pramoginiais tikslais. Be to, prieš kelis mėnesius atsirado galimybė keisti ne tik veidą, bet ir visą galvą. Programėlės atnaujinimas leidžia kur kas tikroviškiau pradėti vaizduoti plaukus. Taigi dabar net paprasti žmonės, nebūdami technologijų ekspertai, gali kurti įtikinamas vaizdo klastotes“, – atskleidžia programuotojas.
Taikoma pramogų pasaulyje
J. Lekevičiaus nuomone, kad per 3–4 metus sintetinių klastočių garso įrašai gali tapti labai realistiški, tačiau tai priklausys nuo dirbtinio intelekto progreso, kitaip tariant, kaip bus „treniruojama“ technologija.
Anot dizainerio, sintetinių vaizdo klastočių technologija pasaulyje kol kas yra pasiekusios eksperimentinį lygį. „Kol kas būtų sunku rasti pavyzdžių, kad šios klastotės būtų panaudotos siekiant labai tikslingo poveikio. Plačiau jos naudojamos kine, pavyzdžiui, kai kaskadininkui uždedama neva triuką atliekančio aktoriaus skaitmeninė kaukė“, – dalijasi J. Lekevičius.
Gali būti pasitelkta dezinformacijos tikslams
Ar galėtų šia technologija pasinaudoti sukčiai? Juk Lietuvoje daugybė žmonių yra nukentėję nuo telefoninių sukčių, kurie apsimeta draugais ir artimaisiais, taip pat teisėsaugos pareigūnais ir iš piliečių išvilioja pinigus!
„Sukčiai savo piktiems kėslams kol kas šios technologijos nepasitelkia. Kibernetiniams nusikaltėliams yra kur kas paprastesnių ir pigesnių būdų veikti“, – sako J. Lekevičius.
Kai kurie kibernetinio saugumo ekspertai atkreipia dėmesį, jog ateityje „deepfake“ gali būti pasitelkta kaip dezinformacijos įrankis, pavyzdžiui, siekiant sugriauti visuomenės lyderio reputaciją, sutrypti gerą vardą ar visuomenėje paskleisti nepasitikėjimą.
Politologai jau kurį laiką pastebi, kad didelį poveikį rinkėjams ir piliečiams gali padaryti socialiniuose tinkluose paskleisti gandai, melaginga informacija.
Vaizdas yra kur kas paveikesnis ir įtaigesnis už žodį, tad melagienas iliustruojant vaizdo klastotėmis auditoriją būtų galima paveikti dar smarkiau. Taigi ši technologija gali būti pasitelkta kaip vienas iš informacinio karo ginklų, siekiant, pavyzdžiui, sukiršinti visuomenės grupes ar nuteikti piliečius prieš demokratiškai išrinktus tautos atstovus, kad žmonės imtų abejoti demokratijos principais ir savo valstybe.
Šiuo metu atpažinti sintetines vaizdo klastotes geriausiai padeda originalūs įrašai, kurie atskleidžia klastą. Anot J. Lekevičiaus, originalūs įrašai yra tarsi pirminiai informacijos šaltiniai, kurie padeda patikrinti, ar reginys atitinka tikrovę. „Tiek ateityje, tiek dabar yra labai svarbu sugebėti patikrinti ir atrinkti informacijos šaltinius, palyginti juose pateikiamą medžiagą su kitų šaltinių“, – teigia pašnekovas.
Užs. Nr.1494