5 lietas, ko nekad nevajadzētu stāstīt "ChatGPT"

© Depositphotos

Ja domājat, ka "ChatGPT" atbild "kā draugs" un ir ļoti "draudzīgs", neļaujiet sevi apmānīt — ievadītā informācija var netikt izmantota tā, kā paredzēts.

Mākslīgā intelekta (MI) tērzēšanas roboti, piemēram, "ChatGPT", ir kļuvuši par neatņemamu mūsu dzīves sastāvdaļu: cilvēki tos izmanto, lai atrastu atbildes, sacerētu tekstus un analizētu datus. Tomēr ir svarīgi atcerēties, ka tie nav droša jūsu personas datu krātuve, raksta "SlashGear", mediju platforma, kas specializējas tehnoloģiju jaunumos un analītikā.

"ChatGPT" katru dienu atbild uz aptuveni 2,5 miljardiem vaicājumu, un vienmēr pastāv reāli riski, ka jūsu ievadītie dati tiks nekontrolēti izmantoti.

Šeit ir piecas lietas, ko nekad nevajadzētu teikt "ChatGPT" vai jebkuram citam tērzēšanas robotam.

Personiskā informācija

Daudzi lietotāji ievada savus īstos vārdus, adreses, personas apliecības numurus un kontaktinformāciju tādiem mērķiem kā CV izveide. Tam var būt nopietnas sekas, ja notiek noplūde vai ja ļaunprātīgi lietotāji iegūst piekļuvi datubāzei.

Pat ja robots šķietami atbild "kā draugs", sistēma var apstrādāt šādu informāciju un izmantot to citādi, nekā jūs gaidāt.

Finanšu informācija

Varat lūgt "ChatGPT" darboties kā finanšu konsultantam un palīdzēt jums izveidot ikmēneša stratēģiju, taču nekad neievadiet konkrētu informāciju par kontiem, kredītkartēm, ieguldījumiem vai nodokļiem — nav iespējams zināt, kas ar tiem notiks. Finanšu informācijas ievadīšana var radīt nopietnus riskus, sākot no krāpnieciskām shēmām līdz pikšķerēšanas uzbrukumiem un izspiedējvīrusu infekcijām.

Medicīniskie dati

Aptaujas liecina, ka aptuveni viens no sešiem cilvēkiem vismaz reizi mēnesī piekļūst "ChatGPT" ar ārstēšanas pieprasījumiem. Eksperti aicina ievērot īpašu piesardzību un saprast, ka tas neaizstāj speciālista konsultāciju. Kad esat sniedzis mākslīgajam intelektam savus veselības datus, vairs nav iespējams zināt, kas ar tiem notiek.

Ar darbu saistīti materiāli

Sazinoties ar tērzēšanas robotu, jāizvairās arī no uzņēmuma dokumentiem, ziņojumiem un stratēģijām. Mākslīgais intelekts var šķist ērts rīks tekstu vai īsu kopsavilkumu rediģēšanai, taču tas rada arī riskus.

Jebkuri nelikumīgi pieprasījumi

No tā vajadzētu izvairīties ne tikai drošības, bet arī juridisku iemeslu dēļ. Jautājumi par to, kā izdarīt noziegumus, iesaistīties krāpnieciskās darbībās vai manipulācijās, var izraisīt pakalpojumu bloķēšanu. Turklāt platformām ir jāievēro likumi, un tās var izpaust datus pēc tiesībaizsardzības iestāžu pieprasījuma.

"OpenAI" izpilddirektors Sems Altmans brīdina, ka "ChatGPT" sarunas nav aizsargātas ar likumu un tiesas prāvas gadījumā izstrādātājiem ir jāsniedz lietotāju sarunas ar tiesas rīkojumu.

Tātad, lai gan draudzība ir laba lieta, vislabāk ir paturēt savu personisko informāciju pie sevis.