Piecas lietas, kuras nedrīkst uzticēt mākslīgajam intelektam

© unsplash.com

Ar mākslīgo intelektu darbināmi tērzēšanas roboti, piemēram, ChatGPT, ir kļuvuši par daudzu cilvēku neatņemamu ikdienas dzīves sastāvdaļu - tos izmanto, lai atrastu atbildes, sacerētu tekstus un ģenerētu idejas. Tomēr ir svarīgi atcerēties: tie nav droša personiskas vai konfidenciālas informācijas krātuve, brīdina “Unian”.

ChatGPT katru dienu apstrādā aptuveni 2,5 miljardus pieprasījumu. Pat ar iebūvētiem drošības mehānismiem joprojām pastāv reāls datu noplūdes un nekontrolētas ievadīto datu izmantošanas risks. Lai arī tehnoloģijas nepārtraukti attīstās, joprojām ir jāievēro piesardzība.

Lūk, pieci informācijas veidi, kurus nekad nevajadzētu atklāt ChatGPT vai jebkuram citam publiskam mākslīgā intelekta tērzēšanas robotam.

Personiskā informācija

Daudzi lietotāji ievada savu pilnu vārdu, adresi, personas apliecības numuru un kontaktinformāciju, piemēram, gatavojot CV. Tas var izraisīt nopietnas sekas, ja informācija tiek nopludināta vai ja uzbrucēji iegūst piekļuvi modeļa datubāzei.

Pat ja robots atbild "kā draugs", sistēma var apstrādāt šādu informāciju un izmantot to citādi, nekā jūs paredzējāt.

Finanšu dati

Jūs varat lūgt ChatGPT palīdzību budžeta vai pensijas plānošanā, taču konkrētu informāciju par kontiem, kredītkartēm, ieguldījumiem vai nodokļiem nekādā gadījumā nedrīkst ievadīt.

Kad finanšu dati ir sniegti, to turpmāko izmantošanu nav iespējams izsekot - riski ietver krāpšanu, personas datu noplūdes, pikšķerēšanas uzbrukumus un ļaunprogrammatūras infekcijas.

Medicīniskie dati

Saskaņā ar aptaujām, aptuveni viens no sešiem pieaugušajiem vismaz reizi mēnesī lieto ChatGPT, lai precizētu simptomus vai saņemtu ārstēšanas ieteikumus. Jauniešu vidū šis skaitlis pieaug līdz vienam no četriem.

Eksperti atgādina - mākslīgais intelekts (MI) nav ārsts un neaizstāj konsultāciju ar speciālistu. Tāpat kā finanšu informāciju, medicīniskos datus nevar izsekot pēc ievadīšanas sistēmā.

Darba materiāli

Dokumenti, ziņojumi, stratēģijas un jebkādi dati, kas saistīti ar darba devēju, klientiem vai notiekošiem projektiem, nedrīkst tikt atklāti publiskajos tērzēšanas robotos.

Lai gan MI var būt noderīgs tekstu rediģēšanai vai kopsavilkumu sniegšanai, tas rada potenciālus riskus uzņēmuma privātumam un drošībai.

Jebkādi nelikumīgi pieprasījumi

MI nedrīkst izmantot noziegumu, krāpšanas vai manipulāciju izdarīšanai gan drošības, gan juridisku apsvērumu dēļ.

Platformām ir jāievēro likumi, un tās var atklāt saziņu pēc tiesībsargājošo iestāžu pieprasījuma. OpenAI izpilddirektors Sems Altmans brīdina, ka saziņa ar ChatGPT nav aizsargāta ar likumu tāpat kā sarunas ar profesionāli un var tikt atklāta ar tiesas rīkojumu.

Vienmēr esiet uzmanīgi ar to, ko sakāt mākslīgajam intelektam, it īpaši, ja tas attiecas uz jūsu personīgo vai profesionālo dzīvi.