Sociālajā tīklā "Instagram" jūnijā izplatījās video, kurā "Facebook" dibinātājs Marks Zakerbergs lielās ar savu varu, ko viņam dod pieeja miljardiem lietotāju datiem. Taču video bija tā dēvētais "deepfake" jeb mākslīgā intelekta radīts video, kas neatspoguļo patiesību.

"Deepfake" video ar mākslīgā intelekta tehnoloģiju palīdzību manipulē cilvēku - parasti slavenību - vizuālo tēlu un balsi. Tādā veidā iespējams radīt videoklipus, kas izskatās īsti, bet patiesībā tajos atspoguļotais nekad nav noticis. Domājams, ka tehnoloģija kļūs par ieroci nākotnes propagandas karos.

"Brīdi iztēlojieties - viens cilvēks, kurš pilnībā kontrolē miljardiem cilvēku zagtos datus: visus viņu noslēpumus, viņu dzīvi, viņu nākotni," simulētajā video saka Zakerberga digitālais atveids.

"Vice" ziņoja, ka video izveidojuši reklāmas kompānijas "Canny" mākslinieki Bils Posterss un Daniels Hovs. Viltus Zakerbergs video piemin vārdu "Spectre" - tā sauc abu mākslinieku darbu, kas apspēlē deepfake tehnoloģiju un slavenību dzīvi.

"Facebook", kas 2012. gadā nopirka "Instagram", paziņojis, ka video nepārkāpjot sociālu tīklu platformas lietošanas noteikumus.

"Mēs pret to izturēsimies gluži tāpat kā pret visu dezinformāciju "Instagram" platformā. Ja trešās puses faktu pārbaudītāji to atzīmēs kā viltus saturu, mēs to filtrēsim no "Instagram" ieteiktā satura sadaļām, piemēram, "Explore" un mirkļbirku lapām," norādīja "Instagram" pārstāvis.

Video autori minēja, ka kaut gan viņi novērtē "Facebook" lēmumu, tomēr uzņēmuma ētiskās normas esot apšaubāmas.

Video publicēts neilgi pēc tam, kad "Facebook" atteicās dzēst rediģētu ASV Pārstāvju palātas spīkeres Nensijas Pelosi video - palēninot video atskaņošanas tempu, tika panākts iespaids, ka 79 gadus vecā demokrātu kongresmene teic runu apreibinošo vielu ietekmē. 

Rediģētais video skatīts miljoniem reižu.

"Facebook" sacīja, ka rediģēto Pelosi video neesot dzēsis, bet mazinājis tā parādīšanos lietotāju jaunumu lentās.

Pelosi gadījumā video bija vienkārši rediģēts, nevis radīts ar mākslīgā intelekta tehnoloģijām kā "deepfake" . Lai arī eksperti pauž bažas par to, kādu iespaidu šādas tehnoloģijas atstās uz nākotnes pasauli, pagaidām "deepfake" veidotāji nemēģina uzdot savus garadarbus par īstiem. 

Viens no slavenākajiem "deepfake" video ir amerikāņu mediju kompānijas "BuzzFeed" veidotais video, kurā simulēta eksprezidenta Baraka Obamas runa.

"Deepfake" video varot būt nopietns drauds, ar ko mēs vēl neesam gatavi cīnīties, brīdina eksperti. Sakarā ar potenciālajiem draudiem, ko var radīt šādu tehnoloģiju attīstība, ASV Pārstāvju palātas Izlūkošanas komitejā tika sasaukta sēdē, kurā liecināja vairāki nozares eksperti, ziņo BBC.

Klints Vatss no Ārvalstu Politikas Pētniecības institūta brīdināja, ka šādi video var apdraudēt sabiedrības drošību, ja to nolemtu izmantot cilvēki, kas vēlas izplatīt dažādas sazvērestības teorijas.

Kā piemēru viņš minēja gadījumus Indijā, kur dažādu nepatiesu izplatīšanās rezultātā, izmantojot lietotni "WhatsApp", notikuši vardarbīgi incidenti.

""Deepfake" iespēju izplatīšanās tikai paaugstinās šādu vardarbīgu gadījumu biežumu un smaguma pakāpi," brīdināja eksperts.

Citi eksperti brīdināja par dažādiem veidiem, kā "deepfake" video var mums kaitēt. Profesore Daniella Sitrona no Merilendas Universitātes minēja gadījumu, kad kādas pētnieciskās žurnālistes oponenti radīja "deepfake" video, kurā minētā žurnāliste nodarbojas ar seksu.

Ekspertus arī māc bažas, ka šādi video var ietekmēt demokrātiskos procesus pasaulē, vēstījaa "Associated Press".

"Mēs esam nospiedošā mazākumā," sacīja Hanijs Farids, Kalifornijas Universitātes datorzinātņu profesors un digitālās kriminālistikas eksperts. "Cilvēku skaits, kas strādā video izveidošanas pusē, pret tiem, kas strādā to noteikšanas pusē ir 100 pret 1."