“Google DeepMind” apgalvo, ka tā uzlabotie mākslīgā intelekta (MI) modeļi ļauj robotiem veikt sarežģītākus uzdevumus un pat izmantot tīmekli, lai saņemtu palīdzību. Preses brīfingā “DeepMind” robotikas vadītāja Karolīna Parada pastāstīja, ka uzņēmuma jaunie MI modeļi darbojas tandēmā, ļaujot robotiem "domāt vairākus soļus uz priekšu", pirms rīkoties fiziskajā pasaulē, vēsta “The Verge”.
Sistēmu darbina jaunizveidotā “Gemini Robotics 1.5” tehnoloģija, kā arī iemiesotās spriešanas modelis “Gemini Robotics-ER 1.5”, kas ir atjauninājumi MI modeļiem, ko “Google” ieviesa martā.
Tagad roboti var veikt vairāk nekā tikai atsevišķus uzdevumus, piemēram, salocīt papīra lapu vai atvērt somas rāvējslēdzēju. Ar jaunajiem uzlabojumiem roboti var veikt tādas lietas kā atdalīt veļu pēc tumšās un gaišās krāsas, iesaiņot čemodānu, pamatojoties uz pašreizējiem laikapstākļiem, kā arī palīdzēt sašķirot atkritumus, kompostu un pārstrādājamus materiālus, pamatojoties uz tīmekļa meklēšanu, kas pielāgota konkrētās atrašanās vietas vides prasībām.
“Līdz šim esošie modeļi spēja ļoti labi izpildīt vienu instrukciju vienlaikus ļoti vispārīgā veidā,” sacīja Parada. “Ar šo atjauninājumu mēs tagad pārejam no vienas instrukcijas uz patiesu izpratni un problēmu risināšanu fiziskos uzdevumos.”
Lai to paveiktu, roboti var izmantot uzlaboto “Gemini Robotics-ER 1.5” modeli, lai iegūtu izpratni par apkārtni, un izmantot digitālos rīkus, piemēram, “Google” meklēšanu, lai atrastu vairāk informācijas. Pēc tam MI šos atradumus pārvērš dabiskās valodas instrukcijās, ļaujot robotam izmantot modeļa redzi un valodas izpratni, lai veiktu katru soli.
Turklāt “Google” paziņoja, ka “Gemini Robotics 1.5” var palīdzēt robotiem “mācīties” vienam no otra, pat ja tiem ir atšķirīgas konfigurācijas. Tas nozīmē, ka “prasmes, kas apgūtas uz viena robota, tagad var tikt pārnestas uz citu robotu,” sacīja uzņēmuma programmatūras inženieris Kanishka Rao.