Pazīme, kas ļauj atpazīt mākslīgā intelekta veidotu video

© pexels.com

Mūsu sociālo mediju plūsmu pārņem mākslīgā intelekta ģenerēti video - tomēr ir viens triks, kas var palīdzēt atpazīt viltojumus, raksta BBC.

Pēdējo sešu mēnešu laikā mākslīgā intelekta video ģeneratori ir kļuvuši tik labi, ka ir gandrīz neiespējami atšķirt ģenerētus video no īstiem - laipni lūdzam nākotnē.

Tomēr joprojām ir dažas brīdinošas zīmes, kuras var palīdzēt “neuzķerties”, - viena no tām ir video ar sliktu attēla kvalitāti. Parasti tie ir graudaini, izplūduši video, kas liecina, ka skatāties mākslīgo intelektu.

"Tā ir viena no pirmajām lietām, uz ko mēs skatāmies," saka Hanijs Farids, datorzinātņu profesors Kalifornijas universitātē Bērklijā, dziļviltojumu atklāšanas uzņēmuma “GetReal Security” dibinātājs.

Tomēr skumjā patiesība ir tāda, ka mākslīgā intelekta video rīki galu galā kļūs vēl labāki un šis padoms drīz vien vairs nebūs noderīgs. Turklāt tas varētu notikt tikai dažu mēnešu laikā.

Eksperts arī vērš uzmanību, ka labākie mākslīgā intelekta rīki var nodrošināt skaistus, noslīpētus klipus un arī zemas kvalitātes klipus ne vienmēr veido mākslīgais intelekts.

"Ja redzat kaut ko patiešām zemas kvalitātes, tas nenozīmē, ka tas ir viltojums. Tas nenozīmē neko ļaunprātīgu," saka Metjū Štams, profesors un Multimediju un informācijas drošības laboratorijas vadītājs Drekslera universitātē ASV.

Būtība ir tāda, ka izplūduši, pikseļoti mākslīgā intelekta veidoti video ir tie, kas, visticamāk, jūs apmānīs - vismaz pagaidām.

"Vadošie teksta pārveidošanas video ģeneratori, piemēram, "Google Veo" un "OpenAI Sora", joprojām rada nelielas neatbilstības," saka Farids. "Taču tie nav tikai seši pirksti. Tas ir daudz smalkāk."

Pat mūsdienu vismodernākie modeļi bieži vien rada neparasti gludas ādas tekstūras, dīvainus vai mainīgus matu un apģērba rakstus vai mazus fona objektus, kas pārvietojas neiespējami vai nereāli. To visu ir viegli nepamanīt, taču, jo skaidrāks ir attēls, jo lielāka iespēja, ka redzēsiet šīs zīmīgās AI kļūdas.

Tas padara zemākas kvalitātes video tik vilinošus. Kad jūs, piemēram, lūdzat mākslīgajam intelektam radīt kaut ko tādu, kas izskatās tā, it kā tas būtu uzņemts ar vecu tālruni vai drošības kameru, tas var paslēpt zīmes, kas citādi varētu nodot mākslīgo video.

"Trīs lietas, kam jāpievērš uzmanība, ir izšķirtspēja, kvalitāte un video klipa garums," saka Farids. Garums ir visvieglāk kontrolējams.

"Lielākoties mākslīgā intelekta video ir ļoti īsi, pat īsāki nekā tipiskie video, ko redzam “TikTok” vai “Instagram”, kas ir aptuveni 30 līdz 60 sekundes gari. Lielākā daļa video, kurus man lūdz pārbaudīt, ir tikai sešas, astoņas vai 10 sekundes gari." Tas ir tāpēc, ka mākslīgā intelekta video ģenerēšana ir dārga, tāpēc lielākā daļa rīku maksimāli izmanto īsus klipus. Turklāt, jo garāks ir video, jo lielāka iespēja, ka mākslīgais intelekts kļūdās. "Var salikt vairākus mākslīgā intelekta video kopā, bet jūs pamanīsiet apgriešanu ik pēc astoņām sekundēm."

Farids apgalvo, ka zemas kvalitātes video ir tik saistoši, ka ļaundari apzināti pazemina to darba kvalitāti. "Ja es cenšos apmānīt cilvēkus, ko man darīt? Es ģenerēju savu viltoto video, tad samazinu izšķirtspēju, lai jūs to joprojām varētu redzēt, bet jūs nevarētu saskatīt visas mazās detaļas. Un tad es pievienoju video saspiešanu, kas vēl vairāk maskē visus iespējamos defektus," saka Farids. "Tā ir izplatīta metode."

Problēma ir tā, ka pat šobrīd, kad jūs lasāt šo tekstu, tehnoloģiju giganti tērē miljardiem dolāru, lai padarītu mākslīgo intelektu vēl reālistiskāku.

"Es paredzu, ka šīs vizuālās kļūdas no video pazudīs divu gadu laikā, vismaz acīmredzamās, jo tās jau ir praktiski izzudušas no mākslīgā intelekta ģenerētiem attēliem. Jūs vienkārši nevarat uzticēties savām acīm,” norāda eksperts.

Kad tādi pētnieki kā Farids un Štams pārbauda satura daļu, viņu rīcībā ir modernākas metodes. "Kad jūs ģenerējat vai modificējat video, tas atstāj nelielas statistiskas pēdas, ko mūsu acis nevar redzēt, piemēram, pirkstu nospiedumus nozieguma vietā," saka Štams. "Mēs redzam metožu parādīšanos, kas var palīdzēt meklēt un atklāt šos pirkstu nospiedumus."

Tehnoloģiju uzņēmumi strādā arī pie jauniem standartiem digitālās informācijas pārbaudei - piemēram, kameras varētu iegult informāciju failā brīdī, kad tās izveido attēlu, lai palīdzētu pierādīt tā īstumu. Tāpat mākslīgā intelekta rīki varētu automātiski pievienot līdzīgas detaļas saviem video un attēliem, lai pierādītu, ka tie ir viltoti.

Tomēr īstais risinājums, pēc digitālās pratības eksperta Maika Kolfīlda domām, ir tas, lai mēs visi sāktu domāt citādi par to, ko redzam tiešsaistē. Meklēt norādes, ko mākslīgais intelekts atstāj, nav "ilgtermiņa" padoms, jo šīs norādes nepārtraukti mainās, viņš saka. Tā vietā Kolfīlds saka, ka mums ir jāsāk video uztvert tāpat kā tekstu - uzrakstītu.