Ikviens zina, ka tādi mākslīgā intelekta tērzēšanas roboti kā ChatGPT, Grok un Gemini bieži var halucinēt avotus. Taču uz cilvēkiem, kuru uzdevums ir palīdzēt sabiedrībai atrast grāmatas un žurnālu rakstus, mākslīgā intelekta viltus muļķības atstāj milzīgu iespaidu.
Saskaņā ar žurnālā Scientific American ierakstu, bibliotekāri šķiet absolūti noguruši no pieprasījumiem pēc grāmatām un citiem avotiem, kas neeksistē.
Žurnāls Scientific American sarunājās ar Sāru Fallsu, Virdžīnijas Universitātes bibliotēkas pētnieku iesaistes vadītāju, kura lēš, ka aptuveni 15% no visiem e-pastā saņemtajiem uzziņu jautājumiem ir ģenerēti ar mākslīgā intelekta tērzēšanas robotu, piemēram, ChatGPT, rezultātā. Un pieprasījumos bieži vien ir iekļauti jautājumi par viltotām atsaucēm.
Turklāt Falla norāda, ka cilvēki, šķiet, netic bibliotekāriem, kad viņi skaidro, ka konkrētais ieraksts neeksistē, un šī tendence ir novērota arī citur, piemēram, 404 Media. Daudzi cilvēki patiešām tic savam stulbajam tērzēšanas robotam, nevis cilvēkam, kurš specializējas uzticamas informācijas atrašanā dienu no dienas.
Nesen publicētais Starptautiskā Sarkanā Krusta komitejas (ICRC) ieraksts ar nosaukumu “Svarīgs paziņojums: mākslīgā intelekta ģenerēta arhīva atsauce” sniedz vēl vairāk pierādījumu tam, ka bibliotekāri ir vienkārši noguruši no visa tā.

“Ja atsauci nevar atrast, tas nenozīmē, ka ICRC slēpj informāciju. To var izskaidrot dažādas situācijas, tostarp nepilnīgas atsauces, citās iestādēs saglabāti dokumenti vai — arvien biežāk — mākslīgā intelekta ģenerētas halucinācijas,” sacīja organizācija.
“Šādos gadījumos, lai noteiktu, vai tā atbilst patiesam arhīva avotam, iespējams, būs jāpārbauda atsauces administratīvā vēsture.”
Šķiet, ka gads ir bijis pilns ar viltotu grāmatu un žurnālu rakstu piemēriem, kas izveidoti, izmantojot mākslīgo intelektu. Ārštata rakstnieks laikrakstam “Chicago Sun-Times” izveidoja vasaras lasīšanas sarakstu ar 15 ieteicamām grāmatām. Taču desmit no šīm grāmatām neeksistēja.
Maijā publicēts pirmais veselības ministra Roberta F. Kenedija Jr. vadītās komisijas “Make America Healthy Again” ziņojums. Nedēļu vēlāk NOTUS reportieri publicēja savus secinājumus pēc visu atsauču izskatīšanas. Vismaz septiņas neeksistēja.
Nevar visu vainot mākslīgo intelektu. Raksti ir atsaukti par viltotu atsauču sniegšanu jau ilgi pirms ChatGPT vai jebkura cita tērzēšanas robota parādīšanās. 2017. gadā Midlseksas Universitātes profesors atrada vismaz 400 rakstus, kuros citēts neesošs pētniecības raksts, kas būtībā bija līdzvērtīgs plaģiātismam.

Citāts:
Van der Geer, J., Hanraads, J.A.J., Lupton, R.A., 2010. The art of writing a scientific article. J Sci. Commun. 163 (2) 51-59.
Protams, tie ir tukši vārdi. Šķiet, ka citāts ir iekļauts daudzos zemākas kvalitātes rakstos — visticamāk, slinkuma un paviršības, nevis maldināšanas nolūka dēļ. Taču var droši apgalvot, ka visi šo pirms mākslīgā intelekta rakstu autori, iespējams, būtu samulsuši par to iekļaušanu. Lieta ar mākslīgā intelekta rīkiem ir tāda, ka pārāk daudzi cilvēki ir sākuši ticēt, ka tērzēšanas roboti ir uzticamāki par cilvēkiem.
Pirmkārt, daļa no mākslīgā intelekta burvju trika ir runāšana autoritatīvā balsī. Kam jūs ticēsiet - tērzēšanas robotam, ko izmantojat visu dienu, vai kādam nejaušam bibliotekāram pa tālruni?
Otra problēma varētu būt saistīta ar to, ka cilvēki izstrādā trikus, ko viņi uzskata par uzticamiem, lai padarītu mākslīgo intelektu uzticamāku.

Daži cilvēki pat domā, ka, pievienojot uzvednei tādas lietas kā “nehalucinējiet” un “rakstiet tīru kodu”, tiks nodrošināts, ka mākslīgais intelekts sniegs tikai visaugstākās kvalitātes rezultātu. Ja tas tiešām darbotos, mēs iedomājamies, ka tādi uzņēmumi kā Google un OpenAI to vienkārši pievienotu katram uzvednei.
Ja tas tiešām darbotos, vai mums ir kāds dzīves triks visiem tehnoloģiju uzņēmumiem, kas pašlaik baidās no mākslīgā intelekta burbuļa plīšanas?