Bīstieties: Ja mākslīgā intelekta sistēma nav "apmācīta", tā kļūst draudoša cilvēkiem

© Depositphotos

Mākslīgais intelekts var pārkāpt pamattiesības, tajā skaitā diskriminēt cilvēkus, ja netiek ievēroti vairāki nosacījumi, teikts Latvijas Republikas tiesībsarga uzdevumā veiktajā pētījumā "Mākslīgā intelekta sistēmas un diskriminācijas aspekti". Pašlaik mākslīgā intelekta sistēmas jau ir pārkāpušas cilvēka pamattiesības tādās jomās kā nodarbinātība, izglītība, biometriskā identifikācija un pamatpakalpojumu pieejamība. Arī mākslīgā intelekta pētnieks Vitālijs Komašilovs uz tā izmantošanu raugās pesimistiski, brīdinot sabiedrību nekļūt par starptautisko korporāciju vergiem.

Pētījumu "Mākslīgā intelekta sistēmas un diskriminācijas aspekti" tiesībsarga uzdevumā izstrādāja Latvijas Universitātes pētniece dr. iur. Irēna Barkāne.

Augstas amatpersonas apgalvo, ka Latvijā ir resursi, lai radītu digitālos risinājumus ne tikai mums pašiem, bet arī pasaules tirgum. Tas ir lieliski, tomēr, veidojot šādas inovācijas, jāapzinās, ka mākslīgais intelekts var pārkāpt pamattiesības, tajā skaitā diskriminēt cilvēkus, ja netiek ievēroti vairāki nosacījumi.

Piemēram, izmantotajiem datiem jābūt kvalitatīviem un uzticamiem, cilvēkiem nepārprotami jāapzinās, ka viņi ir saskarē ar mākslīgā intelekta sistēmu, kur vien to izmanto, un tām jābūt tādām, kuru pārraudzību jebkurā brīdī var uzņemties cilvēks.

Pētījumā "Mākslīgā intelekta sistēmas un diskriminācijas aspekti" analizēts, kā pašlaik mākslīgā intelekta sistēmas jau ir pārkāpušas cilvēka pamattiesības tādās jomās kā nodarbinātība, izglītība, biometriskā identifikācija un pamatpakalpojumu pieejamība. Šīs ir četras no astoņām augsta riska jomām, ko definē jaunā Eiropas Savienības Mākslīgā intelekta regula.

Piemēri par mākslīgā intelekta kļūdām liek aizdomāties

Starptautiskā prakse rāda - mākslīgais intelekts var diskriminēt cilvēkus. Tiesībsargs piedāvā dažus uzskatāmus piemērus no starptautiskās prakses.

Nīderlandē sistēmiskā riska identificēšanas krāpšanas apkarošanas sistēma nepamatoti apsūdzēja aptuveni 26 000 vecāku par krāpnieciskiem bērna kopšanas pabalstu pieprasījumiem. Daļai vecāku apturēja pabalstu izmaksu, bet vēl daļai lūdza tos atmaksāt. Daudzos gadījumos summa sasniedza vairākus desmitus tūkstošu eiro, radot ģimenēm ievērojamas finansiālas grūtības. Šajā gadījumā mākslīgā intelekta sistēma pieļāva kļūdas, vērtējot dubultpilsonības aspektu. Tiesa atzina pārkāpumu, un 2021. gadā šis skandāls labklājības jomā piespieda Nīderlandes valdību atkāpties.

Savukārt ASV interneta tirdzniecības uzņēmuma "Amazon" darbā pieņemšanas algoritms par labākiem kandidātiem uzskatīja vīriešus, attiecīgi noraidot CV, kuros bija iekļauts vārds "sieviete". Rezultātā "Amazon" atteicās no mākslīgā intelekta personāla atlases rīka.

Stenfordas universitātes pētījums pērn atklāja - “Chat GPT” detektori klasificē tekstu, ko rakstījuši cilvēki (kuriem angļu valoda nav dzimtā), kā mākslīgā intelekta radītu. Patiesībā tā nebija - šiem iedzīvotājiem objektīvu iemeslu dēļ ir ierobežots vārdu krājums un gramatikas lietojums. Mākslīgā intelekta kļūdas dēļ viņi var saskarties ar nepamatotām apsūdzībām par krāpšanu vai plaģiātismu akadēmiskā un profesionālā vidē.

Kas jāmaina, lai mākslīgais intelekts būtu draugs, nevis drauds?

Pirmkārt, uzmanība jāpievērš datu kvalitātei un pārvaldībai. Ja mākslīgā intelekta sistēma nav "apmācīta" ar augstas kvalitātes datiem, nav precīza un pārbaudīta pirms "palaišanas tirgū" - ar lielu ticamību tā būs cilvēkus diskriminējoša.

Otrkārt, mākslīgā intelekta sistēmas jāveido tā, lai cilvēkiem būtu pilnīgi skaidrs, ka viņi sazinās ar mākslīgā intelekta sistēmu, nevis, piemēram, ar iestādes darbinieku. Iedzīvotāji jāinformē arī par viņu tiesībām.

Treškārt, šīm sistēmām jāspēj darboties tādā veidā, ko cilvēki var atbilstoši kontrolēt un virsvadīt. Iejaukties, kad vien tas nepieciešams, un arī apturēt sistēmu, ja tā nedarbojas kā paredzēts.

Ceturtkārt, tā ir arī atbildība un uzraudzība. Tas nozīmē, ka augsta riska mākslīgā intelekta sistēmām jābūt rūpīgi izstrādātām novērtēšanas procedūrām attiecībā uz datu kvalitāti, dokumentāciju, cilvēka veiktu pārraudzību, precizitāti, kiberdrošību u.c. Piemēram, biometrijas jomā šī pārbaude jāveic trešajai personai.

"Nav šaubu, ka mākslīgā intelekta sistēmas var būt draugs un palīgs. Tomēr pētījums parāda, kādas sekas var būt tad, ja sistēma ir nepareiza. Ja cilvēka pieļauta kļūda rada kaitējumu citam (konkrētam) cilvēkam, tad mākslīgā intelekta sistēmas radīta kļūda automātiski tiek attiecināta uz to sabiedrības grupu, kura atbilst mākslīgā intelekta sistēmas noteiktiem kritērijiem.

Tādējādi ietekme ir daudz plašāka. Es ceru, ka politiķu aicinājums par Latvijas spēju radīt pasaules līmeņa mākslīgā intelekta sistēmas īstenosies arī tādā ziņā, ka pamattiesību ievērošana tajās būs prioritāte," uzsver Tiesībsarga biroja Diskriminācijas novēršanas nodaļas vadītāja Anete Ilvesa.

Vai mēs tiešām gribam būt korporāciju vergi?

Latvijas Biozinātņu un tehnoloģiju universitātes (LBTU) pētnieks Vitālijs Komašilovs, kurš mākslīgo intelektu pētījis gadiem ilgi, jau kopš pats studēja, un tagad LBTU studentiem lasa kursu par mākslīgo intelektu, sarunā ar "Neatkarīgo" bija visai pesimistisks, jo ir daudz lietu, kur mākslīgo intelektu var izmantot ļaunprātīgi, un tas veicina studentu nemācīšanos.

Pētnieks gan uzsvēra, ka tas ir viņa personīgais viedoklis, nevis universitātes, un tas nesaskan ar mūsu valdības un pasaules vareno viedokļiem. "Labu gribēdami, mēs varam kļūt par starptautisko korporāciju digitālajiem vergiem. Latvija pati neko jaunu šajā jomā neradīs, ko mums pateiks "Google" vai "Microsoft", to arī darīsim, Vai tiešām gribam būt vergi un kompānijām atdot savu naudu, radus, ieradumus, vai tomēr cilvēki, kuri vēlas dzīvot savu dzīvi?" sacīja V. Komašilovs.

Par pētījumā minētajām mākslīgā intelekta kļūdām un ar tām saistītajiem gadījumiem pētnieks stāstīja, ka šādi gadījumi zināmi jau kopš pagājušā gadsimta 50. gadiem, kad tika izmantotas statistikas metodes. Bija cilvēki, kuri tika notiesāti un sēdēja cietumā, bet pēc tam pasludināja, ka viņi nav vainīgi un tā bijusi kļūda.

"Tagad sistēmas paliek gudrākas, tās var "piečakarēt" cilvēkus - parādās viltus (fake) teksti un bildītes, mākslīgais intelekts runā radinieka balsī, un jūs viņam pārskaitāt naudu. Vidējā tauta, kas uzturas digitālajā vidē - "Instagram" un "Facebook" -, nav gatava, ka nevar ticēt visam, kas ir digitālajā vidē. Ja saņemat paziņojumu par sodu, ka esat braucis pārāk ātri, tas vēl ir mazākais, to var apstrīdēt," turpināja V. Komašilovs.

Uz jautājumu, kā atpazīt viltus tekstu, mākslīgā intelekta pētnieks atbildēja, ka viņš skatās no otras puses. Raksts, kuru rakstījis mākslīgais intelekts, viņaprāt, būs "vidēji bezjēdzīgs, bez dvēseles". "Bet es gribu lasīt to, ko cits cilvēks ir rakstījis, kaut vai dažreiz varbūt ar kļūdām," atzina V. Komašilovs. Taču, ja cilvēkiem tas nepatīk un ir kādi iebildumi, tad varam nonākt arī pie tā, ka rakstus sacerēs mākslīgais intelekts. "Ja tauta grib maksāt par tādu tekstu, tad viņa to dabūs," atzina Vitālijs.

Jautāts, kā studenti mākslīgo intelektu izmanto studiju procesā, V. Komašilovs neslēpa savu sašutumu. "Es to jau novēroju gadus divus trīs. Te mēs esam "iebraukuši auzās". Jaunā paaudze degradē. Kad viņi aizies uz darba tirgu, tad pēc pieciem gadiem mēs ne tikai baidīsimies staigāt pa tuneli, bet arī iet pie ārsta, jo ārsti būs apmācīti ar “Chat GPT”.

Lai gan ir studenti, kas paši visu "izkož" cauri un "čatu" izmanto kā konsultantu. Taču lielākoties ir “copy paste”, stiklainas acis, neko nesaprot. Es brīžiem neredzu jēgu tam tērēt savu laiku, ja jau viņi netērē savu. Vienīgais variants ir uzdot tādus uzdevumus, kurus pat "čatiņš" nevar atrisināt, bet tādus varēs atrisināt četri pieci cilvēki pasaulē...

Ir tādi studenti, kuri grib mācīties, taču izglītības sistēma neļauj... Vecā izglītības sistēma būtu jānojauc un jārada jauna. Kāpēc lieki tērēt valsts budžetu, savu un mūsu laiku?" retoriski vaicā pasniedzējs. Viņš nākotni redz drūmās krāsās, kad būs mums divas ļaužu šķiras - "melnstrādnieki" ar "čatiņu" un faktiskie menedžeri, kas viņus vadīs.

Pēc pētnieka domām, mūsu dzīvē viss ir palicis ļoti virtuāls. V. Komašilovu kaitina, kad viņam raksta automāti, un pasniedzējs ne reizi nevienā iestādē neesot sastapies ar virtuālo asistentu, kas viņam kaut ko iedotu. Protams, "čats" ir saistīts ar biznesu, lai nopelnītu naudu, un tam ir vienalga, kas otrā galā notiek ar cilvēciņu.

Ir tik daudz procesu, kur cilvēks ir tikai "ādas maiss", cilvēks ir lieks, viņam nav vietas, tādēļ V. Komašilovs domā, ka drīz būs jāpamet šis virziens un jāpāriet uz ko citu, reālāku, piemēram, kokapstrādi.

Kā pozitīvus mākslīgā intelekta izmantošanas piemērus pētnieks minēja tā lietošanu drošības sistēmās, novērošanas videokamerās, militārajā jomā. Viņaprāt, mākslīgais intelekts ir instruments tiem, kas saprot, ko dara.

Uzziņai

Eiropas Savienībā 2024. gada 13. jūnijā tika pieņemta un 1. augustā stājās spēkā Eiropas Parlamenta un Padomes regula, kas nosaka jaunas normas mākslīgā intelekta jomā. Tā kļūs tieši piemērojama visās ES dalībvalstīs, tajā skaitā Latvijā, pēc diviem gadiem, t.i., no 2026. gada 2. augusta (izņemot atsevišķus noteikumus, kurus piemēros agrāk).

Izpēte

Mākslīgais intelekts var pārkāpt pamattiesības, tajā skaitā diskriminēt cilvēkus, ja netiek ievēroti vairāki nosacījumi, teikts Latvijas Republikas tiesībsarga uzdevumā veiktajā pētījumā "Mākslīgā intelekta sistēmas un diskriminācijas aspekti". Pašlaik mākslīgā intelekta sistēmas jau ir pārkāpušas cilvēka pamattiesības tādās jomās kā nodarbinātība, izglītība, biometriskā identifikācija un pamatpakalpojumu pieejamība. Arī mākslīgā intelekta pētnieks Vitālijs Komašilovs uz tā izmantošanu raugās pesimistiski, brīdinot sabiedrību nekļūt par starptautisko korporāciju vergiem.

Svarīgākais