Tehnoloģiju uzņēmums „OpenAI” paziņojis, ka izveidojis drošības un drošības komiteju un ir sācis apmācīt jaunu mākslīgā intelekta (MI) modeli, lai aizstātu GPT-4 sistēmu, kas ir „ChatGPT” tērzēšanas robota pamatā.
Sanfrancisko jaunuzņēmums otrdien norādīja, ka komiteja konsultēs tā valdi par "kritiskiem drošības riskiem un lēmumiem" savos projektos un darbībās.
Drošības komiteja izveidota brīdī, kad uzņēmumā notiek diskusijas par mākslīgā intelekta drošību, kam tika pievērsta uzmanība pēc tam, kad pētnieks Jans Leike atkāpās no amata un kritizēja „OpenAI” par to, ka uzņēmums ļāvis drošībai "piekāpties spīdīgiem produktiem".
Arī „OpenAI” līdzdibinātājs un galvenais zinātnieks Iļja Sutskevers ir atkāpies no amata, un uzņēmums iepriekš izformēja komandu, kas koncentrējās uz MI riskiem.
OpenAI apgalvo, ka tas "nesen ir sācis apmācīt savu nākamo robežmodeli", un tā MI modeļi ir vadošie nozarē attiecībā uz iespējām un drošību.
MI modeļi ir prognozēšanas sistēmas, kas ir apmācītas uz plašām datu kopām, lai pēc pieprasījuma ģenerētu tekstu, attēlus, video un cilvēkiem līdzīgas sarunas.
Jaunizveidotās komitejas pirmais uzdevums būs novērtēt un turpināt attīstīt „OpenAI „procesus un aizsardzības pasākumus un sniegt ieteikumus valdei 90 dienu laikā.