Arvien vairāk cilvēku izmanto “ChatGPT” un citus lielos valodu modeļus (LLM), lai lūgtu padomu par garīgās veselības jautājumiem. Jau ziņots par šādu padomu iespējamām ārkārtējām sekām, taču tagad pētnieki ir aplūkojuši plašākus garīgās veselības padomus un atbalstu, ko šīs programmas sniedz. Situācija šķiet briesmīga, jo jauns pētījums atklāj sistemātiskus garīgās veselības ētikas standartu pārkāpumus, vēsta “IFL Science”.
Mākslīgais intelekts (MI) ir šo lielo valodu modeļu mārketinga nosaukums. Tās ir programmas, kas tiek apmācītas darbā ar milzīgu teksta apjomu, lai spētu atbildēt uz jautājumiem tāpat kā cilvēks.
Apmācības dati, sākot no godīgas lietošanas vārdiem līdz zagtam ar autortiesībām aizsargātam materiālam, ļauj programmai labi uzminēt pareizo vārdu secību, ko lasītājs gaida.
Jēgpilnu teikumu veidošana rada domu ilūziju, taču tā nav.
Ir daudz piemēru, kad MI rada viltotus avotus vai halucinē faktus. Runājot par padomiem par garīgo veselību, tas rada papildu bažas.
Šajā jaunajā darbā tika iesaistīti septiņi apmācīti konsultanti, kas veica paškonsultācijas, izmantojot kognitīvi biheiviorālās terapijas (KBT) vadītas LLM, kā arī notika profesionāla simulētu sarunu kopuma izvērtēšana, pamatojoties uz cilvēku konsultāciju sesijām. Šajos testos komanda atklāja 15 ētiskus riskus, kas iedalās piecās konkrētās kategorijās.
Piemēram, mākslīgais intelekts ignorēja cilvēku dzīves pieredzi un deva vispārīgus padomus. Arī tiesību zinātnes LLM mēdza dominēt sarunā un pastiprināt lietotāja maldīgos uzskatus. Programmas izmantoja tādas frāzes kā “Es tevi redzu” un “Es saprotu”, ko mašīna nekādi nevar izdarīt, radot viltus saikni starp lietotāju un mākslīgo intelektu.
Jau gadiem ilgi ir zināms, ka šie algoritmi pastiprina sabiedrībā sastopamos aizspriedumus vienkārši tāpēc, ka tie ir apmācīti strādāt ar neobjektīvu tekstu. Komanda atklāja, ka mākslīgie intelekti savos testos uzrādīja dzimuma, kultūras vai reliģiskos aizspriedumus.
Tāpat trūka drošības un krīzes pārvaldības; tērzēšanas roboti nenovirzīja lietotājus uz atbilstošiem resursiem un pat vienaldzīgi reaģēja uz krīzes situāciju. Nesen veiktā gadījuma izpētē arī tika atklāts, ka “ChatGPT” noindēja vecāka gadagājuma vīrieti.