Iedomājieties pasauli, kur mašīnas pārspēj cilvēka intelektu visās jomās, pašas pieņem lēmumus un, iespējams, pat uzskata cilvēci par novecojušu. Šis scenārijs, kas kādreiz bija zinātniskās fantastikas joma, tagad ir kļuvis par bargu brīdinājumu objektu no pasaules vadošajiem ekspertiem.
Emerge ziņo, par ko cilvēci brīdina "mākslīgā intelekta krusttēvs" un vai cilvēce varētu iet bojā no bioloģiskajiem ieročiem.
Džefrijs Hintons, kuru bieži dēvē par "mākslīgā intelekta krusttēvu" par savu novatorisko darbu neironu tīklu jomā ir izteicis savu līdz šim bargāko brīdinājumu. Viņš brīdina, ka mākslīgais intelekts apdraud darbavietas un rada eksistenciālu risku visai cilvēcei, raksta RBC.
Viņš ieskicēja drūmu nākotnes vīziju, kurā superinteliģentas mašīnas varētu kļūt nekontrolējamas un izmantot autonomus ieročus, kiberuzbrukumus un pat bioloģiskos ieročus, lai iznīcinātu cilvēci.
Džefrijs Hintons, kurš 2023. gada maijā pameta Google un Toronto Universitāti, lai brīvi runātu par mākslīgā intelekta briesmām, uzsver, ka draudiem ir divas galvenās formas.
Pirmkārt, riski, kas rodas cilvēku ļaunprātīgas izmantošanas rezultātā.
Tie ietver:
Otrkārt, un tas varētu būt vēl satraucošāk, ir draudi, kas rodas, kad mākslīgā intelekta sistēmas kļūst pilnībā autonomas un nekontrolējamas.
Pēc Hintona teiktā, ja mākslīgais intelekts nolems, ka cilvēce ir novecojusi, "mēs nekādi nevarēsim novērst tā atbrīvošanos no mums, ja tas to vēlēsies". Viņš šausminoši salīdzina: "Ja vēlaties zināt, kāda ir dzīve, kad neesat augstākā līmeņa intelekts, pajautājiet vistai."
Hintona brīdinājumi izskan laikā, kad mākslīgā intelekta (MI) militārie pielietojumi ir piedzīvojuši nepieredzētu pieaugumu. Amerikas Savienotās Valstis ir līderes šo tehnoloģiju finansēšanā un integrēšanā aizsardzības operācijās.
Hintons šo brīdi salīdzina ar kodolieroču parādīšanos, taču ar vienu būtisku atšķirību: "Atombumba bija laba tikai vienai lietai, un bija ļoti acīmredzams, kā tā darbojas. Ar MI tā ir laba daudzām, daudzām lietām."
Hintons skaidro, ka šī korporatīvās peļņas motīvu un starptautiskās konkurences kombinācija ir galvenais iemesls, kāpēc MI attīstība nepalēnināsies.
Peļņas motīvi bieži vien mudina uzņēmumus radīt saturu, kas "liks tiem noklikšķināt", kas noved pie "arvien ekstremālākām lietām, apstiprinot to esošos aizspriedumus".
Hintons nevairījās no šausminošām detaļām, kad viņam jautāja, kā tieši mākslīgais intelekts varētu iznīcināt cilvēkus. Viņš ieteica, ka superinteliģents mākslīgais intelekts varētu izstrādāt jaunus bioloģiskus draudus, lai iznīcinātu cilvēci.
Acīmredzamākais veids būtu radīt nepatīkamu vīrusu — ļoti lipīgu, ļoti nāvējošu un ļoti lēnu —, lai ikviens ar to būtu inficējies, pirms to apzinās.
Viņš piebilda, ka, ja superintelekta būtne vēlētos mūs iznīcināt, tā, visticamāk, "izvēlētos kaut ko bioloģisku, kas to neietekmētu".
Neskatoties uz tik drūmām prognozēm, Hintons atzīst, ka vēl nezinām, vai varam iemācīt mākslīgajam intelektam nevēlēties sagrābt varu vai nodarīt mums ļaunumu.
"Es nedomāju, ka ir skaidrs, ka mēs to varam, tāpēc domāju, ka tas varētu būt bezcerīgi. Bet es arī domāju, ka mēs varētu to izdarīt, un tas būtu diezgan neprātīgi, ja cilvēki izmirtu tikai tāpēc, ka mēs neuztrauktos mēģināt," sacīja Hintons.