Mākslīgais intelekts iesaka picai pievienot līmi un apēst vienu akmeni dienā

© Pixabay.com

Pieaugot ģeneratīvo AI modeļu, piemēram, “ChatGPT”, “Gemini” un citu popularitātei, daudzi lietotāji sāk pamanīt, ka to atbilžu kvalitāte arvien samazinās - šīs parādības iemesli ir modeļu apmācīšanai izmantoto datu zemā kvalitāte un fakts, ka arvien vairāk satura veido pats AI, raksta “Computerword”.

Kad sāka parādīties tādi ģeneratīvie AI kā “ChatGPT” un “Gemini”, daudzi tos uzskatīja par revolucionāriem instrumentiem, jo šie modeļi sniedza atbildes, kas no pirmā acu uzmetiena šķita precīzas un noderīgas, taču, kā izrādījās, pieaugot to popularitātei un pieaugot arī apmācībām izmantoto datu apjomam, to sniegtoe atbilžu kvalitāte sāka strauji kristies.

Viens no galvenajiem kvalitātes pasliktināšanās iemesliem ir tas, ka modeļi ir apmācīti, izmantojot zemas kvalitātes datus, kas iegūti no tādiem maz uzticamiem avotiem kā “Twitter/X”, “Reddit” un citiem. Rezultātā sniegtās atbildes var būt pilnas ar kļūdām un smieklīgiem apgalvojumiem.

Piemēram, “Google” AI ieteica lietotājiem pievienot līmi picai vai apēst vienu akmeni dienā - tie ir padomi, kam ne tikai nav jēgas, bet tie var būt arī bīstami.

Turklāt mūsdienu ģeneratīvais AI cieš no tā sauktā modeļa sabrukuma - šis process, kas aprakstīts nesenā pētījumā, ko publicēja žurnāls “Nature”, notiek, kad modeļi sāk mācīties no datiem, kas iegūti ar citiem modeļiem. Tā rezultātā viņi zaudē spēju saskatīt patieso datu sadalījumu un sāk radīt vēl neprecīzākus rezultātus.

Vēl viena problēma ir tā, ka uzņēmumi arvien vairāk izmanto AI, lai izveidotu saturu, nevis nolīgst īstus ekspertus. Tas noved pie neuzticamiem datiem, kas izspiež kvalitatīvu informāciju, padarot AI atbildes vēl mazāk uzticamas.

Svarīgākais