4 riski, kas var apdraudēt cilvēci; Google DeepMind prognozē AI nākotni

© Foto: Pexels.com

Google DeepMind eksperti ir iesnieguši detalizētu tehnisko ziņojumu par mākslīgā vispārējā intelekta (AGI) drošu attīstību. Pēc viņu domām, neskatoties uz skeptiķu šaubām, AGI parādīšanās var notikt tuvākajā nākotnē.

Saskaņā ar Ars Technica teikto, ir četri galvenie scenāriji, kuros šāds AI varētu nodarīt kaitējumu. Google DeepMind ir Lielbritānijas uzņēmums, kas specializējas mākslīgā intelekta (AI) izstrādē, dibināts 2010. gadā un vēlāk 2014. gadā iegādājies Google, raksta RBC.

DeepMind specializējas AI sistēmu izveidē, kas spēj mācīties un pieņemt lēmumus, atdarinot cilvēka kognitīvos procesus. Uzņēmums ir pazīstams ar saviem sasniegumiem mašīnmācībā un neironu tīklos, kā arī algoritmu izveidi sarežģītu problēmu risināšanai.

Papildus spēlēm DeepMind aktīvi strādā pie mākslīgā intelekta pielietošanas medicīnā, izstrādājot algoritmus tādu slimību diagnosticēšanai kā diabētiskā retinopātija un vēzis. 2016. gadā DeepMind izlaida AlphaZero sistēmu, kas demonstrēja spēju mācīties un uzvarēt šahā un citās spēlēs bez iepriekšējas cilvēka iejaukšanās.

Foto: Pexels.com

Uzņēmums arī izstrādā sistēmas Google serveru darbības uzlabošanai, izmantojot AI, lai optimizētu datu centru energoefektivitāti. Uzņēmums turpina piesaistīt globālās zinātnes aprindas uzmanību, pateicoties saviem jauninājumiem un centieniem radīt progresīvākas un drošākas AI tehnoloģijas.

Kas ir AGI (mākslīgais vispārējais intelekts)

Tā sauktais mākslīgais vispārējais intelekts (AGI) ir sistēma, kuras intelekts un spējas ir salīdzināmas ar cilvēka spējām. Ja pašreizējās AI sistēmas patiešām virzās uz AGI, cilvēcei ir jāizstrādā jaunas pieejas, lai nodrošinātu, ka šāda iekārta nekļūtu par draudu.

Diemžēl vēl nav nekā tik eleganta kā Īzaka Asimova “Trīs robotikas likumi”. DeepMind pētnieki pievēršas šim jautājumam un ir publicējuši jaunu tehnisko dokumentu, kur paskaidrots, kā droši izstrādāt AGI.

Foto: pixabay.com

Lai gan daudzi eksperti uzskata, ka AGI ir zinātniskā fantastika, dokumenta autori norāda, ka šāda sistēma varētu rasties līdz 2030. gadam. Šajā sakarā DeepMind komanda nolēma izpētīt iespējamos riskus, kas saistīti ar sintētiskā intelekta parādīšanos ar cilvēkiem līdzīgām iezīmēm, kas, kā atzīst paši pētnieki, var novest pie "nopietna kaitējuma".

Četri AGI draudu veidi

DeepMind komanda, kuru vada viens no uzņēmuma dibinātājiem Šeins Legs, ir identificējusi četras ar AGI saistītu iespējamo apdraudējumu kategorijas: nepareiza izmantošana, neatbilstība, kļūdas un strukturālie riski.

Ļaunprātīga izmantošana

Pirmais drauds ir ļaunprātīga izmantošana. Būtībā tas ir līdzīgs riskiem, kas saistīti ar pašreizējām AI sistēmām. Tomēr AGI pēc definīcijas būs ievērojami jaudīgāks, un tāpēc iespējamais kaitējums būs daudz lielāks. Piemēram, persona ar ļaunprātīgu nolūku var izmantot AGI, lai meklētu nulles dienas ievainojamības vai izveidotu dizaineru vīrusus, ko izmantot kā bioloģiskus ieročus.

DeepMind uzsver, ka uzņēmumiem, kas strādā pie AGI izstrādes, pēc modeļa apmācības ir jāveic rūpīga pārbaude un jāievieš uzticami drošības protokoli. Būtībā ir vajadzīgi stingrāki mākslīgā intelekta ierobežojumi.

Tāpat tiek piedāvāts pilnībā apspiest bīstamās iespējas (tā saukto "unlearning"), lai gan joprojām nav skaidrs, vai tas ir iespējams, būtiski neierobežojot modeļu funkcionalitāti.

Foto: Pexels.com

Neatbilstība

Šis drauds ir mazāk saistīts ar pašreizējiem ģeneratīvajiem AI. Tomēr AGI tas varētu būt liktenīgs — iedomājieties mašīnu, kas pārstāj paklausīt saviem izstrādātājiem. Tā vairs nav zinātniskā fantastika kā The Terminator, bet gan reāls drauds: AGI var veikt darbības, par kurām tā zina, ka tās ir pretrunā tās veidotāju nodomiem.

Kā risinājumu DeepMind piedāvā izmantot "pastiprinātu uzraudzību", kur divas AI kopijas pārbauda viena otras izvadi. Ir arī ieteicams veikt stresa testus un nepārtrauktu uzraudzību, lai atklātu pazīmes, ka AI ir "izgājis no kontroles".

Turklāt tiek ieteikts izolēt šādas sistēmas drošā virtuālajā vidē ar tiešu cilvēka vadību un ar "sarkano pogu".

Foto: Pexels.com

Kļūdas

Ja AI neapzināti nodara kaitējumu un operators nebija paredzējis šo iespēju, tā tiek uzskatīta par kļūdu. DeepMind uzsver, ka militārpersonas var sākt izmantot AGI "konkurences spiediena" dēļ, kas var novest pie nopietnākām kļūdām, jo ​​AGI funkcionalitāte būs daudz sarežģītāka.

Šeit ir daži risinājumi. Pētnieki iesaka izvairīties no pārmērīgas AGI uzlabošanas, ieviest to pakāpeniski un ierobežot tās pilnvaras. Tiek ierosināts arī nodot komandas caur "vairogu" — starpsistēmu, kas pārbauda to drošību.

Strukturālie riski

Foto: pixabay.com

Pēdējā kategorija ir strukturālie riski. Tas attiecas uz neparedzētajām, bet reālajām sekām, ko rada daudzkomponentu sistēmu ieviešana jau tā sarežģītā cilvēka vidē.

Piemēram, AGI varētu radīt tik pārliecinošu dezinformāciju, ka mēs vairs nevarētu uzticēties nevienam. Vai arī lēnām un nemanāmi tā varētu sākt kontrolēt ekonomiku un politiku, piemēram, izstrādājot sarežģītas tarifu shēmas. Kādu dienu mēs varētu atklāt, ka vairs nekontrolējam mašīnas, bet tās kontrolē mūs.

Šāda veida risku ir visgrūtāk paredzēt, jo tas ir atkarīgs no daudziem faktoriem, sākot no cilvēku uzvedības līdz infrastruktūrai un iestādēm.

Svarīgākais