3 Chatbot konfidencialitātes riski un bažas, par kurām jums jāzina

3 Chatbot konfidencialitātes riski un bažas, par kurām jums jāzina
Tādi lasītāji kā jūs palīdz atbalstīt MUO. Veicot pirkumu, izmantojot saites mūsu vietnē, mēs varam nopelnīt filiāles komisiju. Lasīt vairāk.   Apkārt izmētāta piekaramā atslēga ar tastatūras taustiņiem

Tērzēšanas roboti pastāv jau gadiem ilgi, taču lielo valodu modeļu, piemēram, ChatGPT un Google Bard, uzplaukums tērzēšanas robotu nozarei ir piešķīris jaunu elpu.





Miljoniem cilvēku tagad visā pasaulē izmanto AI tērzēšanas robotus, taču ir daži svarīgi privātuma riski un bažas, kas jāpatur prātā, ja vēlaties izmēģināt kādu no šiem rīkiem.





1. Datu vākšana

Lielākā daļa cilvēku neizmanto tērzēšanas robotus tikai tāpēc, lai sasveicinātos. Mūsdienu tērzēšanas roboti ir izstrādāti, lai apstrādātu sarežģītus jautājumus un pieprasījumus un atbildētu uz tiem, un lietotāji bieži savās uzvednēs iekļauj daudz informācijas. Pat ja jūs uzdodat tikai vienkāršu jautājumu, jūs patiešām nevēlaties, lai tas būtu tālāk par jūsu sarunu.





Saskaņā ar OpenAI atbalsta sadaļa , varat dzēst ChatGPT tērzēšanas žurnālus, kad vien vēlaties, un pēc 30 dienām šie žurnāli tiks neatgriezeniski izdzēsti no OpenAI sistēmām. Tomēr uzņēmums saglabās un pārskatīs noteiktus tērzēšanas žurnālus, ja tie ir atzīmēti kā kaitīgs vai nepiemērots saturs.

Cits populārs AI tērzēšanas robots Klods arī seko jūsu iepriekšējām sarunām. Antropijas atbalsta centrs norāda, ka Klods izseko 'jūsu uzvednēm un izvadiem produktā, lai nodrošinātu jums konsekventu produkta lietošanas pieredzi laika gaitā saskaņā ar jūsu vadīklām'. Varat dzēst sarunas ar Klodu, lai tas aizmirstu, par ko jūs runājāt, taču tas nenozīmē, ka Anthropic nekavējoties izdzēsīs jūsu žurnālus no savām sistēmām.



kas ir labāk otf vai ttf

Tas, protams, liek uzdot jautājumu: vai mani dati tiek glabāti vai nē? Vai ChatGPT vai citi tērzēšanas roboti izmanto manus datus?

Taču bažas šeit neapstājas.





Kā ChatGPT mācās?

Lai sniegtu informāciju, tiek apmācīti lieli valodu modeļi ar milzīgu datu apjomu. Saskaņā ar Zinātnes fokuss , tikai ChatGPT-4 apmācības laikā tika ievadīti 300 miljardi vārdu informācijas. Tas nav ņemts tieši no dažām enciklopēdijām. Drīzāk tērzēšanas robotu izstrādātāji izmanto daudz informācijas no interneta, lai apmācītu savus modeļus. Tas var ietvert datus no grāmatām, filmām, rakstiem, Vikipēdijas ierakstiem, emuāra ierakstiem, komentāriem un pat atsauksmju vietnēm.

Ņemiet vērā, ka atkarībā no tērzēšanas robota izstrādātāja konfidencialitātes politikas daži no iepriekš minētajiem avotiem apmācībās var netikt izmantoti.





Daudzi ir kritizējuši ChatGPT, apgalvojot, ka tas ir kaut kāds murgs privātuma ziņā ChatGPT nevar uzticēties . Tātad, kāpēc tas tā ir?

Šeit lietas kļūst nedaudz neskaidras. Ja tieši jautāsiet ChatGPT-3.5, vai tam ir piekļuve produktu atsauksmēm vai raksta komentāriem, jūs saņemsiet stingru negatīvu. Kā redzat tālāk esošajā ekrānuzņēmumā, GPT-3.5 norāda, ka apmācības laikā tai netika piešķirta piekļuve lietotāju rakstu komentāriem vai produktu atsauksmēm.

  chatgpt-3.5 sarunas ekrānuzņēmums

Drīzāk tas tika apmācīts, izmantojot 'dažādi teksta klāstu no interneta, tostarp tīmekļa vietnēm, grāmatām, rakstiem un citiem publiski pieejamiem rakstiskiem materiāliem līdz 2021. gada septembrim'.

Bet vai tas pats attiecas uz GPT-4?

Kad mēs jautājām GPT-4, mums teica, ka 'OpenAI neizmantoja konkrētas lietotāju atsauksmes, personas datus vai rakstu komentārus' tērzēšanas robota apmācības periodā. Turklāt GPT-4 mums teica, ka tās atbildes tiek ģenerētas no 'datu modeļiem, par kuriem [tas] tika apmācīts un kas galvenokārt sastāv no grāmatām, rakstiem un cita teksta no interneta'.

Kad mēs pētījām tālāk, GPT-4 apgalvoja, ka noteikts sociālo mediju saturs patiešām var tikt iekļauts tā apmācības datos, taču veidotāji vienmēr paliks anonīmi. GPT-4 īpaši norādīja, ka 'pat ja saturs no tādām platformām kā Reddit bija daļa no apmācības datiem, [tam] nav piekļuves konkrētiem komentāriem, ziņām vai jebkādiem datiem, ko var saistīt ar atsevišķu lietotāju.'

Vēl viena ievērojama GPT-4 atbildes daļa ir šāda: 'OpenAI nav skaidri uzskaitījis visus izmantotos datu avotus.' Protams, OpenAI būtu grūti uzskaitīt avotus 300 miljardu vārdu vērtībā, taču tas atstāj vietu spekulācijām.

In an Ars Technica raksts , tika norādīts, ka ChatGPT vāc 'personas informāciju, kas iegūta bez piekrišanas'. Tajā pašā rakstā tika pieminēta kontekstuālā integritāte — jēdziens, kas attiecas tikai uz kādas personas informācijas izmantošanu kontekstā, kurā tā sākotnēji tika izmantota. Ja ChatGPT pārkāpj šo kontekstuālo integritāti, cilvēku dati var tikt apdraudēti.

Vēl viens jautājums, kas rada bažas, ir OpenAI atbilstība Vispārīgā datu aizsardzības regula (GDPR) . Šo regulu ievieš Eiropas Savienība, lai aizsargātu pilsoņu datus. Vairākas Eiropas valstis, tostarp Itālija un Polija, ir sākušas ChatGPT izmeklēšanu, jo pastāv bažas par tā atbilstību GDPR. Uz īsu laiku ChatGPT Itālijā pat tika aizliegts privātuma bažu dēļ.

OpenAI iepriekš ir draudējis izstāties no ES plānoto AI noteikumu dēļ, taču kopš tā laika tas ir atsaukts.

Iespējams, ka ChatGPT mūsdienās ir lielākais AI tērzēšanas robots, taču tērzēšanas robota konfidencialitātes problēmas nesākas un nebeidzas ar šo pakalpojumu sniedzēju. Ja izmantojat ēnainu tērzēšanas robotu ar vāju konfidencialitātes politiku, jūsu sarunas var tikt ļaunprātīgi izmantotas vai tā apmācības datos var tikt izmantota ļoti sensitīva informācija.

2. Datu zādzība

Tāpat kā jebkurš tiešsaistes rīks vai platforma, tērzēšanas roboti ir neaizsargāti pret kibernoziegumiem. Pat ja tērzēšanas robots darīja visu iespējamo, lai aizsargātu lietotājus un viņu datus, vienmēr pastāv iespēja, ka gudram hakeram izdosies iefiltrēties tā iekšējās sistēmās.

Ja konkrētais tērzēšanas robota pakalpojums glabātu jūsu sensitīvo informāciju, piemēram, maksājumu informāciju par jūsu premium abonementu, kontaktinformāciju vai līdzīgu informāciju, to var nozagt un izmantot, ja notiktu kiberuzbrukums.

Tas jo īpaši attiecas uz gadījumiem, kad izmantojat mazāk drošu tērzēšanas robotu, kura izstrādātāji nav ieguldījuši pienācīgā drošības aizsardzībā. Var tikt uzlauztas ne tikai uzņēmuma iekšējās sistēmas, bet arī jūsu kontam ir iespēja tikt apdraudētam, ja tam nav pieteikšanās brīdinājumu vai autentifikācijas slāņa.

Tagad, kad AI tērzēšanas roboti ir tik populāri, kibernoziedznieki, protams, ir sākuši izmantot šo nozari savām krāpniecībām. Viltus ChatGPT vietnes un spraudņi ir bijusi liela problēma, kopš 2022. gada beigās OpenAI tērzēšanas robots nokļuva plaši izplatītā tīklā, jo cilvēki ķērās pie krāpniecības un sniedz personisku informāciju, aizsegā likumību un uzticēšanos.

2023. gada martā MUO ziņoja par a viltots ChatGPT Chrome paplašinājums, kas zog Facebook pieteikšanās datus . Spraudnis varētu izmantot Facebook aizmugures durvis, lai uzlauztu augsta profila kontus un nozagtu lietotāju sīkfailus. Šis ir tikai viens piemērs daudziem viltus ChatGPT pakalpojumiem, kas izstrādāti, lai apzinātu upurus.

3. Ļaunprātīgas programmatūras infekcija

Ja izmantojat ēnainu tērzēšanas robotu, to neapzinoties, iespējams, atradīsit tērzēšanas robotu, kas nodrošina saites uz ļaunprātīgām vietnēm. Iespējams, tērzēšanas robots ir brīdinājis jūs par vilinošu dāvanu vai sniedzis avotu kādam no saviem apgalvojumiem. Ja pakalpojuma operatoriem ir nelikumīgi nodomi, visa platformas būtība var būt ļaunprātīgas programmatūras un krāpniecības izplatīšana, izmantojot ļaunprātīgas saites.

Alternatīvi, hakeri var apdraudēt likumīgu tērzēšanas robotu pakalpojumu un izmantot to ļaunprātīgas programmatūras izplatīšanai. Ja šis tērzēšanas robots ir ļoti cilvēki, tūkstošiem vai pat miljoniem lietotāju tiks pakļauti šai ļaunprogrammatūrai. Viltus ChatGPT lietotnes ir pat bijušas Apple App Store , tāpēc vislabāk ir rīkoties uzmanīgi.

Parasti nekad nevajadzētu klikšķināt uz tērzēšanas robota iepriekš sniegtajām saitēm palaist to saišu pārbaudes vietnē . Tas var šķist kaitinoši, taču vienmēr ir labāk pārliecināties, ka vietnei, uz kuru tiekat novirzīts, nav ļaunprātīga dizaina.

kā pateikt, vai esmu bloķēts Facebook

Turklāt nekad nevajadzētu instalēt tērzēšanas robotu spraudņus un paplašinājumus, vispirms nepārbaudot to likumību. Veiciet nelielu izpēti par lietotni, lai redzētu, vai tā ir labi pārskatīta, kā arī veiciet lietotnes izstrādātāja meklēšanu, lai redzētu, vai atrodat kaut ko ēnainu.

Tērzēšanas roboti nav jutīgi pret privātuma problēmām

Tāpat kā vairums tiešsaistes rīku mūsdienās, arī tērzēšanas roboti ir atkārtoti kritizēti par to iespējamām drošības un privātuma nepilnībām. Neatkarīgi no tā, vai tērzēšanas robotu pakalpojumu sniedzējs, kas nodarbojas ar lietotāju drošību, vai pastāvīgs kiberuzbrukumu un krāpniecības risks, ir ļoti svarīgi zināt, ko jūsu tērzēšanas robota pakalpojums ievāc par jums un vai tas izmanto atbilstošus drošības pasākumus.