Tā saucamā „deepfake“ (dziļviltošana) pašlaik sasniegusi savu kulmināciju, un jau pēc pāris gadiem visas bildes un teksti (iespējams) būs sintētiski. Jēdziens nāk no vārdu savienojuma un nozīmē radošu darbu ar mākslīgā intelekta (artificial intelligence) palīdzību. Šajā procesā tiek izmantoti vairāki algoritmu slāņi, lai atlasītu jaunus paralēlos datus daudz augstākā, uzlabotā līmenī nekā līdz šim bija iespējams. Praksē šo izmanto, lai manipulētu ar seju vai balsi, radot jaunu sintētisku video. Kā fotogrāfiju, video vai skaņu.
Šajā rakstā apskatīsim tikai vienu šīs tehnoloģijas īpatnību – iespēju nolasīt, saglabāt un izmantot cilvēka seju kā „datus“ tiražēšanai. Proti – dators tiek trenēts iepazīties ar kādas populāras personas seju un ķermeni, lai vēlāk šo reālo personu varētu izmantot citā kontekstā vai libretā. Lai izveidotu šādu „kopiju“, nepieciešams daudz fotogrāfiju dažādos rakursos, kuros attiecīgais cilvēks redzams pozās un situācijās. Ja izveidosiet šādu kāda pazīstama Holivudas aktiera kopiju, tad varēsiet izveidot filmu, kurā spēlēsiet kopā ar šo slavenību. Pašai zvaigznei to nemaz nezinot. Šādā veidā Krievija nesen izveidoja filmu sēriju ПМЖЕЙСОН par it kā Džeisona Steitema pārcelšanos uz dzīvi Krievijā. Parodiju filmu veidojusi Agenda Media Group un neuzskata, ka būtu pārkāpusi kādu likumu vai noteikumu. Tātad ņemu ko gribu un izrīkojos kā man vajadzīgs. Galvenais, lai jautri un smieklīgi. Cits jautājums, kā šī tehnoloģija mainīs mūsu dzīvi nākotnē.
Deepfake tehnoloģija
Cilvēks tic savām acīm. Ja reiz redzēju, tad tā arī ir. Šādi spriež daudzi. Taču redzētais var arī nebūt patiesība. Pirms pāris mēnešiem (16. martā) kādā videoierakstā nācās noskatīties, kā Ukrainas prezidents Volodimirs Zelenskis it kā aicina ukraiņus atteikties no krievu okupētajām teritorijām un padoties. „Situācija ir bezcerīga,“ saka ekrānā prezidents Zelenskis, „tad jau labāk nolikt ieročus un iet uz mājām. Es arī tā rīkošos.“
Paviršam skatītājam, iespējams, tas šķita loģiski un ticami. Tā sakot – noguruši un atkāpjas pārspēka priekšā. Taču rūpīgs Ukrainas kara notikumu sekotājs brīnījās par šādu viedokļu pavērsienu. Vēl uzmanīgāks noteikti neticētu tam, ko dzird, un pamanītu, ka prezidenta galva kadrā neveikli „pielīmēta“ ķermenim un ekrānā izskatās savādi. Arī balss neskan autentiski. Šis bija sliktas kvalitātes „deepfake“, kuru krievi uzmeistarojuši, lai pazemotu savu pretinieku vadoni. Pēc pāris stundām Kijiva informēja, ka šī nav Zelenska runa un videoieraksts ir mākslīgi izveidots.
Šādas kopijas izveidošana video veidolā ir jauns informatīvā kara ierocis. Lai arī šo „Zelenska video“ varēja ātri atmaskot kā melus, ir pietiekami daudz video sižetu, kas izskatās pieņemami, un liela daļa skatītāju tiem notic. Kā lai vērtējam šo jauno tehnoloģiju? Kā distopiju, blēdīšanos vai kā progresīvu pieeju video vēstījumam?
Līdz šim sintētisko varoni plaši izmanto servisa industrijā, medicīnā, matemātikā, izglītībā un mākslā. Taču to pašu tehnoloģiju var likt lietā arī informatīvajā karā. Kā ieroci. Lai ietekmētu cilvēkus, pārliecinātu tos par nepatiesībām.
„Kā tas notiek? To paskaidrot var līdzībās,“ stāsta Lundas universitātes profesors Karls Ostroms. „Tas nozīmē nomainīt savu seju (spogulī) ar kādas citas personas seju. Tātad – šis būs apzināts viltojums. To var izdarīt ar foto apstrādes programmām datorā, un daudzi šādi arī rīkojas. Tieši tāpat darbojas deepfake, kas izveidojās, pateicoties jaunās paaudzes datoru spējai analizēt un sintezēt attēlus. Ja vēlos tavu seju piemontēt savam ķermenim datorā, tad man vajadzīgas tavas fotogrāfijas, un dators tās iemācīsies, kopēs un sāks lietot citā kontekstā.“ Datoriķi to sauc par „treniņu“, kad mašīnai liek iemācīties viena un tā paša cilvēka dažādos fotoattēlus, taču reāli tā ir optimizēšana.
Attēlu manipulēšana
Šī kaislība nav nekas jauns. Visi zina Photoshop un tā iespējas. Instagramun Snapchat piedāvā līdzīgas manipulācijas. Taču „ņemšanās pa bildēm“ ir veca kaislība jau sen.
Piemēram, Josifs Staļins esot PSRS laikā bijis slavens ar to, ka visus fotoattēlus mēģinājis izmainīt. Cilvēki, kas viņam nepatika, pazuda no grupu attēliem. Toreiz bija smagi jāstrādā, lai „dabūtu projām“ (izdzēstu) Ļevu Trocki no revolucionāru mītiņiem un sapulcēm, kas bija dokumentētas kā fotomateriāli. Tagad dators to paveic zibenīgi. Vienā mirklī.
Ekspertiem, kas zinātniski pēta tehnoloģiju ietekmi uz sabiedrības attīstības procesiem, šķiet, ka deepfake būtiski manīs mūsu izpratni par apkārtējo vidi un apgrūtinās orientēšanos telpā. “Pašlaik stāvam uz jauna laika sliekšņa. Šo revolūciju nodrošina mākslīgais intelekts. Tas ne tikai pārvērtīs cilvēku komunikāciju, bet arī apgrūtinās izpratni par to, kas ir īsts un kas sintētisks“ (Nina Šika). Pēc viņas domām, nākamajā desmitgadē jau 90% vizuālā materiāla būs sintētiska rakstura.
Šī pati tehnoloģija līdz šim ir palīdzējusi atrast fotomateriālu internetā un atpazīt to. Jau esam pieraduši, ka sarunās ar iestādēm mūs uzrunā kustīgas lelles, kas cenšas atbildēt uz jautājumiem ierēdņu vietā. Princese Leja Organa un admirālis Tarkins turpina piedalīties jaunajās Zvaigžņu karu filmās, lai gan paši aktieri Kerija Fišere un Pīters Kišings (šo lomu atveidotāji) jau sen viņā saulē. Tas nozīmē, ka virtuālā pasaule kļūs aizvien reālāka un skatāmāka, pateicoties sintētiskajiem medijiem un mākslīgajam intelektam.
Lai gan jēdziens „deepfake“ jeb dziļviltošana mūsu izpratnē galvenokārt saistās ar tehnikas izmantošanu melīgu mērķu vārdā. „Esam iesoļojuši laikā, kad vairs nevar saprast, vai tas, ko mums stāsta un rāda, ir vai nav patiesība. Vai var vai nedrīkst ticēt. Tas nozīmē, ka aizvien svarīgāka kļūs informācijas avotu loma,“ uzskata Karls Ostroms. Taču vai ar to pietiks?
Patiesība vai nepatiesība
Vissmagākā problēma būs spēja atšķirt patiesību no ilūzijas. Esam pieraduši ticēt tam, ko redzam. Tagad tā vairs nebūs. Esam raduši, ka var ticēt slaveniem un ietekmīgiem cilvēkiem, taču patiesībā arī viņi melo. Esam pārliecināti, ka notikumus, cilvēkus kustībā, balsis un attēlus viltot nevar. Taču tagad izrādās, ka var gan.
Var izrādīties, ka uzticamība būs pats galvenais konkurences līdzeklis nākotnes mediju biznesā. Jau tagad varam novērot, kā politiskie spēki cenšas manipulēt ar dokumentāriem attēliem, lai panāktu savas pārliecības uztiepšanu apkārtējiem. Piedzīvojām pandēmijas laiku un redzējām, kādus efektus var panākt svešas valsts propagandas buldozers lētticīgu un naivu līdzcilvēku apziņā. Padarot tos par kaislīgiem antivakseriem.
Ir zinātniski pierādīts, ka sabiedrības apzinīguma līmenis lielā mērā atkarīgs no izglītības standarta pieaugušajiem un autoritātēm sabiedrībā. Ja ienaidniekam izdodas izsist no ierindas autoritātes ar viltus apmelojumu palīdzību, tad sabiedrība kļūs labila un viegli ievainojama (ātri sagraujama). To uzskatāmi novērojām pandēmijas apstākļos, kad zinātniekus un ekspertus izdevās nomelnot un viņu vietu ieņēma šarlatāni un zīlnieki. Šie procesi tika apzināti izveidoti. Proti, ģenerēti no malas.
Vai pratīsim atšķirt deepfake no patiesības? Vai visi dziļviltojumi ir bīstami mums un sabiedrībai? Nē, tā tas nav. Piemērs šajā virzienā ir Dienvidkorejas TV kanāla MNB darbs ziņu pārraidē. Kādā septembra dienā diktore bija kadrā un ziņoja par aktuālajiem notikumiem, taču faktiski ekrānā bija redzama viņas „deepfake“ versija, nevis fiziskais ķermenis un seja. Iecienītā raidījumu vadītāja nevarēja tobrīd būt studijā, un darbu paveica viņas digitālā kopija. Kā to iespējams pamanīt? Parasti cilvēka „viltojums“ ekrānā maz kustas un mati pieguļ kā cepure. Datoram grūti ģenerēt sīkas kustības un nepieglaudīgu matu sakārtojumu. Balss tembrs reti atbilst oriģinālam.
Jā, ir bijuši arī citi šādi mēģinājumi. Somijas Yle apzināti mēģināja izveidot Somijas prezidenta Sauli Ninisto deepfake variantu. Vairāki režisori mēģinājuši to pašu ar Baraku Obamu, lai pierādītu, cik bīstams var būt šādas tehnoloģijas izmantojums politikā. Pēdējais ir samērā labi izveidots no video viedokļa, bet to „atmasko“ bijušā prezidenta savādā retorika. Pašlaik populārs ir kāds Tiktok konts, kurā uzstājas it kā Toms Krūzs. Lai gan faktiski tas ir labi uztaisīts deepfake šovs.
Vai ir kompass melu mežā?
Pašlaik tiek veidotas programmas, kas atpazīst deepfake produktus. Tātad meklē un arī atrod sintētiskus medijus. Pēc profesora Ostroma domām, pavisam drīz mēs iegūsim šos „kompasus“. Ja tie ieradīsies, tad sabiedrībā mazināsies bailes un nemiers par to, ka nevienam un nekam vairs nedrīkst ticēt.
Taču pastāv arī izklaides dimensija, kurai jaunās tehnoloģijas lieti noder. Tās ļāva producēt karalienes Elizabetes pēdējo Ziemassvētku runu. Kas veidota kā satīra un ir diezgan izklaidējoša. Jautrs ir arī Toma Krūza viltus konts Tiktok lentē. Lai gan nedz karaliene, nedz aktieris pats nekur reāli nepiedalījās un turpina nepiedalīties. Vai šādu deepfake var izveidot arī katrs no mums? Jā, to var. Eksistē sarežģītākas programmas Holivudas vajadzībām un iesējams iegādāties arī vienkāršākas aplikācijas mobiltelefonā. Daudzi tās lieto. Diemžēl „nolaupītās“ sejas par šādiem joku sižetiem nav sajūsmā. Tiesas šiem anonīmajiem jokotājiem pagaidām netiek klāt, un ākstīšanās ar slavenībām pikantās situācijās tikmēr turpinās. Tādējādi “liar’s dividend” jeb melotāja peļņa paliek spēkā. Cilvēki noskatās dziļviltojuma filmiņas, „laiko tās“ un smejas līdzi. Turpat līdzās ir reālas filmas, un tās daudzi vairs neatpazīst kā patiesību un tāpēc nespēj aizstāvēt vajātos vai nosodīt varmākas.
Uzskatu, ka par šo tēmu ir plašāk jārunā un jāizglīto sabiedrība demokrātiskai diskusijai. Ja saprotam, kā meli spēj sagraut demokrātiju, tad no tā loģiski izriet, ka ir jādara viss, lai publika spētu atpazīt melu vēstījumus un prastu nodalīt tos no patiesības. Nevienam nav ieteicams dzīvot uz robežas starp meliem un patiesību. Kaut vai tāpēc, ka visļaunākais ir nevis melu uzvara, bet gan taisnības un patiesības nespēja sevi aizstāvēt kritiskās situācijās.
Tagad tas ir jādara.