Mākslīgais intelekts nākotnē var attīstīt jaunu finanšu krāpniecības veidu

 
©pexels.com

Kibernoziegumu sfērā turpina attīstīties deepfake jeb dziļo viltojumu tehnoloģijas, kas ar mākslīgā intelekta palīdzību ļauj radīt viltus videoklipus vai fotogrāfijas.

Tās līdz šim galvenokārt izmantotas izklaides industrijā, taču tuvākajā laikā krāpnieki varētu tās pielietot arī finansiāla labuma gūšanai. Kas tās ir un kam pievērst uzmanību, lai neuzķertos uz viltus video zvaniem, skaidro Luminor Finanšu noziegumu novēršanas pārvaldes vadītājs Aleksejs Makarus.

Šobrīd plašākai sabiedrībai pieejamā dziļā viltojuma tehnoloģija atrodas vēl izklaides līmenī, piemēram, ļaujot pārveidot fotogrāfijā vai video redzamā cilvēka izskatu ar dažādu lietotņu palīdzību viedtālrunī, kuru lietošanai nav nepieciešamas specifiskas zināšanas. Tomēr tehnoloģiju potenciāli var pielietot arī nopietnākām manipulācijām, piemēram, uzbrukumiem un krāpniecības mēģinājumiem.

"Dziļo viltojumu tehnoloģijas izstrādājumus var jau pamatoti uzskatīt par nākotnes apdraudējumu, krāpnieciskiem telefona zvaniem nomainot pat reālā laika videozvanus. Dziļā viltojuma tehnoloģijas satura un autentiskuma pārbaudei nepieciešams būt īpaši modriem, turklāt jāzina, kam pievērst uzmanību, jo viltus video ir grūti atpazīt. Tas ļauj krāpniekiem vieglāk pārliecināt personas, ka krāpnieks, piemēram, ir bankas darbinieks, tādējādi iegūstot piekļuvi personas datiem un citai svarīgai informācijai, tai skaitā arī bankas kontam," norāda Luminor Finanšu noziegumu novēršanas pārvaldes vadītājs Aleksejs Makarus.

Šobrīd Latvijā dziļo viltojumu tehnoloģiju izmantošana vēl nav plaši izplatīta, tomēr Luminor eksperts norāda, ka, pieaugot attālinātā darba popularitātei, jau pāris gadu laikā arī šai tehnoloģijai ir potenciāls radīt papildu krāpniecības riskus. Par arvien jaunām krāpniecības formām ieteicams būt informētiem pirms saskares ar tiem, jo dziļo viltojumu izmantošana var būt klātesoša arī citu, ne tikai finanšu noziegumu paveikšanai. Piemēram, deepfake tehnoloģija var kalpot kā instruments arī citas valsts propagandai nepatiesas informācijas izplatīšanai vai, piemēram, radot viltus ziņas, kurās tiek izmantotas neīstas fotogrāfijas un pat satelītuzņēmumi.

Kā atpazīt dziļo viltojumu tehnoloģiju video?

#1 Pievērs uzmanību personas ķermeņa valodai un izskatam

Viens no pirmajiem signāliem par iespējamu dziļo viltojumu tehnoloģiju izmantošanu ir nedabiska acu vai ķermeņa kustība, kā arī sejas izteiksme kopumā. Piemēram, video redzamā persona var ilgstoši nemirkšķināt acis vai tā seja var būt dīvainas formas - tā, it kā viena fotogrāfija būtu uzlikta uz otras, jāievēro papildu piesardzība video saturam. Tāpat jāpievērš uzmanība ekrāna redzamās personas zobiem un matiem, jo šādas detaļas pagaidām ir visgrūtāk atveidot.

#2 Ieklausies fona trokšņos un skaņas kvalitātē

Vairumā gadījumu video faila sagatavošanai krāpnieki mēdz pievērst lielāku uzmanību vizuālajiem risinājumiem nekā skaņas kvalitātei un pielāgošanai saturam. Robotiska balss, nevienmērīga lūpu kustība runājot, dīvaina vārdu izruna vai digitāli veidotas fona skaņas var liecināt par to, ka video redzamā persona nav īsta.

#3 Pārbaudi attēla "vēsturi"

Papildu video vai foto autentiskuma noteikšanai var izmantot arī reverso attēla meklēšanu, piemēram, izmantojot TinEye rīku. Ar tā palīdzību var noteikt to, vai tiešsaistē atrodami līdzīgi attēli ekrānā redzamajam un vai tajā nav kas mainīts. Šobrīd tiek attīstīti arī video meklēšanas rīki, kas nākotnē palīdzēs noteikt, vai tajā netiek izmantotas dziļās tehnoloģijas. Taču tas, ko var darīt, ir mēģināt palēnināt video, pievēršot uzmanību kādai no augstāk minētajām detaļām, piemēram, personas runai, žestiem, lūpu kustībām vai citiem elementiem, kas var liecināt, ka video ir pārveidots.

 

Ko Tu domā par citu lasītāju komentāriem? Izsaki savu viedokli!