Longailendas universitātes pētnieki uzdeva 39 ar zālēm saistītus vaicājumus mākslīgā intelekta tērzēšanas robota bezmaksas versijai Chat GPT - tie visi bija īsti jautājumi no universitātes Farmācijas koledžas zāļu informācijas dienesta, tomēr saņemtās atbildes radīja bažas, raksta cnn.com.
Programmatūras atbildes pēc tam tika salīdzinātas ar atbildēm, kuras sniedza un pārskatīja apmācīti farmaceiti. Pētījumā konstatēts, ka ChatGPT sniedza precīzas atbildes tikai uz aptuveni 10 jautājumiem jeb aptuveni ceturtdaļu no kopējā jautājumu skaita - uz pārējiem 29 jautājumiem sniegtās atbildes bija nepilnīgas vai neprecīzas.
ChatGPT, OpenAI eksperimentālais mākslīgā intelekta tērzēšanas robots, tika izlaists 2022. gada novembrī un kļuva par visstraujāk augošo patērētāju lietojumprogrammu vēsturē, kurā divu mēnešu laikā reģistrējās gandrīz 100 miljoni cilvēku.
Ņemot vērā šo popularitāti, pētnieki izteica bažas, ka viņu studenti, citi farmaceiti un parastie patērētāji vērsīsies pie tādiem resursiem kā ChatGPT, lai uzdotu jautājumus par viņu veselību un medikamentu lietošanu, sacīja Longailendas Universitātes farmācijas prakses asociētā profesore Sāra Grosmena, kas ir viena no pētījuma autoriem.
Viņa atklāja, ka šie vaicājumi bieži vien sniedza neprecīzas vai pat bīstamas atbildes.
Piemēram, vienā jautājumā pētnieki ChatGPT jautāja, vai Covid-19 pretvīrusu medikaments Paxlovid un asinsspiedienu pazeminošais medikaments verapamils reaģēs viens ar otru organismā. ChatGPT atbildēja, ka abu zāļu lietošana kopā neradīs nevēlamas sekas.
Patiesībā cilvēkiem, kuri lieto abas zāles, var tikt novērota liela asinsspiediena pazemināšanās, kas var izraisīt reiboni un ģīboni.
"Izmantojot ChatGPT, lai risinātu šo jautājumu, pacients tiktu pakļauts nevēlamas un novēršamas zāļu mijiedarbības riskam," komentēja Grosmena.
Kad pētnieki lūdza tērzēšanas robotam sniegt zinātniskas atsauces, lai apstiprinātu tā atbildi, viņi atklāja, ka programmatūra var precīzi atbildēt tikai uz astoņiem no viņu uzdotajiem jautājumiem.
No pirmā acu uzmetiena citāti izskatījās likumīgi: tie bieži tika pareizi formatēti un norādītas atsauces uz zinātniskajiem žurnāliem. Bet, kad komanda mēģināja atrast pieminētos rakstus, viņi saprata, ka ChatGPT viņiem bija sniedzis izdomātus citātus.
Longailendas universitātes pētījums nav pirmais, kas rada bažas par ChatGPT izdomātajiem citātiem. Iepriekšējie pētījumi arī ir dokumentējuši, ka, uzdodot medicīniskus jautājumus, ChatGPT var sniegt maldinošus zinātnisku atsauču viltojumus, pat norādot reālu autoru vārdus ar iepriekšējām publikācijām zinātniskajos žurnālos.
Grosmena, kura pirms pētījuma bija maz strādājusi ar programmatūru, bija pārsteigta par to, cik pārliecinoši ChatGPT spēja gandrīz acumirklī sintezēt informāciju - atbildes, kuru apkopošanai apmācītiem speciālistiem būtu vajadzīgas stundas.
"Atbildes tika formulētas ļoti profesionāli, un tas var veicināt pārliecību par rīka precizitāti," viņa teica.
OpenAI, organizācijas, kas izstrādā ChatGPT, pārstāvis sacīja, ka tā iesaka lietotājiem nepaļauties uz atbildēm kā profesionālu medicīnisku padomu vai ārstēšanas aizstājēju.
Pārstāvis norādīja, ka ChatGPT lietošanas politika paskaidro, ka "OpenAI modeļi nav precīzi pielāgoti, lai sniegtu medicīnisku informāciju." Politikā arī teikts, ka modeļus nekad nedrīkst izmantot, lai sniegtu "diagnostikas vai ārstēšanas pakalpojumus nopietnu medicīnisku stāvokļu gadījumā".