5 veidi, kā AI var palīdzēt kibernoziedzniekiem

5 veidi, kā AI var palīdzēt kibernoziedzniekiem
Tādi lasītāji kā jūs palīdz atbalstīt MUO. Veicot pirkumu, izmantojot saites mūsu vietnē, mēs varam nopelnīt filiāles komisiju. Lasīt vairāk.

Daudzi tehnoloģiju entuziasti ir sajūsmā par iespējamām mākslīgā intelekta krātuvēm, taču arī kibernoziedznieki vēlas izmantot šo tehnoloģiju, lai palīdzētu viņiem viņu ekspluatācijā. AI ir aizraujoša joma, taču tā var arī radīt iemeslu bažām. Tātad, kā AI var palīdzēt kibernoziedzniekiem?





DIENAS VIDEO MAKEUSEOF RITINĀT, LAI TURPINĀTU AR SATURU

1. Ļaunprātīgas programmatūras rakstīšana

Mākslīgais intelekts ir progresīvs tehnoloģiju veids, tāpēc dažiem var nebūt pārsteidzoši, ka to var izmantot ļaunprātīgas programmatūras rakstīšanai. Ļaunprātīga programmatūra ir termins, kas apzīmē ļaunprātīgas programmas (vārdu 'ļaunprātīga' un 'programmatūra') uzlaušanā, un tā var būt dažādos veidos. Bet, lai izmantotu ļaunprātīgu programmatūru, tā vispirms ir jāuzraksta.





Ne visi kibernoziedznieki ir pieredzējuši kodēšanā, citi vienkārši nevēlas tērēt laiku jaunu programmu rakstīšanai. Šeit var noderēt AI.





2023. gada sākumā tika pamanīts, ka ChatGPT var izmantot ļaunprātīgas programmatūras rakstīšanai par nelikumīgiem uzbrukumiem. OpenAI ļoti populārais ChatGPT to darbina AI infrastruktūra. Šis tērzēšanas robots var paveikt daudzas noderīgas lietas, taču to izmanto arī nelikumīgas personas.

Vienā konkrētā gadījumā lietotājs ievietoja ziņu uzlaušanas forumā, apgalvojot, ka viņš to ir izdarījis uzrakstīja uz Python balstītu ļaunprātīgas programmatūras programmu, izmantojot ChatGPT .



ChatGPT varētu efektīvi automatizēt ļaunprātīgu programmu rakstīšanas procesu. Tas paver durvis iesācējiem kibernoziedzniekiem, kuriem nav daudz tehnisko zināšanu.

ChatGPT (vai vismaz tā jaunākā versija) var rakstīt tikai pamata un dažreiz kļūdainas ļaunprātīgas programmatūras programmas, nevis sarežģītu kodu, kas rada nopietnus draudus. Tomēr tas nenozīmē, ka AI nevar izmantot ļaunprātīgas programmatūras rakstīšanai. Ņemot vērā to, ka pašreizējais AI tērzēšanas robots var izveidot pamata ļaunprātīgas programmas, iespējams, nepaies ilgs laiks, kad mēs redzēsim, ka no AI sistēmām nāk vēl ļaunāka programmatūra.





2. Paroļu uzlaušana

Paroles bieži vien ir viena datu rinda, kas aizsargā mūsu kontus un ierīces. Tāpēc nav pārsteidzoši, ka daudzi kibernoziedznieki mēģina uzlauzt paroles, lai piekļūtu mūsu privātajiem datiem.

Paroļu uzlaušana jau ir populāra kibernoziegumos, un ir dažādi paņēmieni, ko ļaunprātīgs aktieris var izmantot, lai atklātu mērķa paroli. Dažādām metodēm ir dažādi panākumu rādītāji, taču mākslīgais intelekts var ievērojami palielināt paroles uzlauzšanas iespēju.





AI paroļu uzlaušanas jēdziens nekādā gadījumā nav zinātniskā fantastika. Patiesībā, ZDNet ziņoja, ka kiberdrošības eksperti atklāja, ka vairāk nekā puse no tur plaši izmantotajām parolēm var tikt uzlauzta mazāk nekā minūtes laikā. Rakstā bija atsauce uz a Mājas drošības varoņu ziņojums , kurā teikts, ka ar mākslīgo intelektu darbināms uzlaušanas rīks PassGAN var uzlauzt 51 procentu parasto paroļu mazāk nekā minūtē un 71 procentu mazāk nekā vienas dienas laikā.

Šie skaitļi parāda, cik bīstama var būt AI paroles uzlaušana. Tā kā lielāko daļu parasto paroļu ir iespējams uzlauzt mazāk nekā 24 stundu laikā, nevar zināt, ko kibernoziedznieks varētu darīt, izmantojot šādu rīku.

3. Sociālās inženierijas vadīšana

Kibernoziegumu taktika pazīstams kā sociālā inženierija katru nedēļu prasa upuru bariem, un tā ir liela problēma visās pasaules daļās. Šī metode izmanto manipulācijas, lai liktu upuriem izpildīt uzbrucēja prasības, bieži vien pat neapzinoties, ka viņi tiek mērķēti.

AI varētu palīdzēt sociālās inženierijas uzbrukumos, formulējot saturu, kas tiek izmantots ļaunprātīgā saziņā, piemēram, pikšķerēšanas e-pastos un tekstos. Pat ar mūsdienu AI attīstības līmeni nebūtu grūti lūgt tērzēšanas robotam formulēt pārliecinošu vai pārliecinošu scenāriju, ko kibernoziedznieks pēc tam varētu izmantot pret saviem upuriem. Šie draudi nav palikuši nepamanīti, un cilvēki jau ir nobažījušies par gaidāmajām briesmām.

kā lietot ssd un hdd

Šajā ziņā AI varētu arī palīdzēt padarīt ļaunprātīgu saziņu profesionālāku un oficiālāku, novēršot pareizrakstības un gramatikas kļūdas. Šādas kļūdas bieži tiek uzskatītas par iespējamām ļaunprātīgas darbības pazīmēm, tāpēc kibernoziedzniekiem var palīdzēt precīzāk un efektīvāk uzrakstīt savu sociālās inženierijas saturu.

4. Programmatūras ievainojamību atrašana

Lai uzlauztu programmatūras, kibernoziedzniekiem bieži ir jāatrod un jāizmanto drošības ievainojamība. Šīs ievainojamības bieži rodas programmatūras koda kļūdu dēļ. Ja kļūda netiek novērsta vai persona regulāri neatjaunina savas programmatūras programmas (kas bieži vien novērš drošības trūkumus), ievainojamības var radīt lielu risku.

Kibernoziedznieki to zina, un tāpēc viņi meklē nepilnības. Jau ir rīki, ko var izmantot, lai atrastu ievainojamības, piemēram, izmantošanas komplekts. Taču, izmantojot mākslīgo intelektu, ļaunprātīgs dalībnieks var izcelt daudz vairāk ievainojamību, no kurām dažas var izmantot, lai radītu lielu kaitējumu.

Tomēr šī AI lietojumprogramma varētu būt noderīga arī kiberdrošības pakalpojumu sniedzējiem palīdzība ievainojamību atrašanā pirms tie tiek izmantoti. Spēja ātri novērst trūkumus var liegt ļaunprātīgu dalībnieku spēju to izmantot, tādējādi kopumā samazinot uzbrukumus.

5. Nozagto datu analīze

Dati ir tikpat vērtīgi kā zelts. Šodien sensitīvi dati tiek pārdoti tumšā tīmekļa tirgos pastāvīgi, daži ļaunprātīgi dalībnieki ir gatavi maksāt ļoti augstu cenu, ja informācija ir pietiekami noderīga.

Taču, lai šie dati būtu pieejami šajos tirgos, tie vispirms ir jānozag. Datus noteikti var nozagt nelielos daudzumos, it īpaši, ja uzbrucēja mērķis ir vientuļi upuri. Taču lielāka uzlaušana var izraisīt milzīgu datu bāzu zādzību. Šajā brīdī kibernoziedzniekam ir jānosaka, kāda informācija šajā datubāzē ir vērtīga.

Izmantojot mākslīgo intelektu, vērtīgas informācijas izcelšanas procesu varētu racionalizēt, samazinot laiku, kas nepieciešams, lai ļaundaris noteiktu, ko ir vērts pārdot vai, no otras puses, tieši izmantot ar savām rokām. Mākslīgais intelekts savā būtībā ir saistīts ar mācīšanos, tāpēc kādu dienu tas varētu kļūt viegli lietojams ar AI darbināmu rīku, lai iegūtu vērtīgus sensitīvus datus.

AI ir daudzsološs, bet arī rada daudzus draudus

Tāpat kā ar lielāko daļu tehnoloģiju, mākslīgo intelektu ir izmantojuši un arī turpmāk izmantos kibernoziedznieki. Tā kā mākslīgajam intelektam jau ir dažas nelikumīgas iespējas, nav īsti zināms, kā kibernoziedznieki tuvākajā nākotnē spēs veicināt savus uzbrukumus, izmantojot šo tehnoloģiju. Kiberdrošības uzņēmumi var arī arvien vairāk sadarboties ar AI, lai cīnītos pret šādiem draudiem, taču laiks rādīs, kā tas izdosies.