Dirbtinis intelektas įsilaužėlių rankose: naujas kibernetinių ginklų lygis ir kaip nuo jo apsisaugoti

Paskelbė Viktoras Baliulis
Paskelbta

Dirbtinis intelektas įsilaužėlių rankose: naujas kibernetinių ginklų lygis ir kaip nuo jo apsisaugoti

Pastaraisiais metais dirbtinio intelekto sukeliamos kibernetinės grėsmės iš fantastikos persikelia į kasdienybę. Anksčiau įsilaužimus vykdydavo programuotojai. Dabar ataką gali surengti žmogus, dirbantis su psichologija ir algoritmais.

Apie naują grėsmių lygį ir pasikeitusius atakų metodus pasakoja informacijos saugumo organizavimo ekspertas Jaroslavas Gordijčukas.

Ekspertas pateikia Pasaulio ekonomikos forumo duomenis, kurie rodo, kad tapatybės vagysčių, naudojant „deepfake“ įrankius, skaičius išaugo 704 %.

„Šiandien, analizuodamas tendencijas, matau ‘nulinio pasitikėjimo’ epochą, kai bet kokią skaitmeninę tapatybę galima sugeneruoti per kelias minutes“, – teigia jis.

Grėsmių evoliucija: kaip dirbtinis intelektas keičia atakų taktiką

Polimorfinės dirbtinio intelekto atakos tapo nauju standartu. Algoritmai realiuoju laiku perrašo kenkėjišką kodą, apeidami antivirusines sistemas. Virusų „parašas“ keičiasi kas kelias sekundes. Anot Jaroslavo Gordijčuko, tai primena chameleoną, kuris nuolat prisitaiko prie aplinkos, keisdamas spalvą.

Kita kryptis – automatizuota pažeidžiamumų paieška. Dirbtinio intelekto valdomi botai veikia kaip nesibaigiantys skeneriai, 24/7 tikrinantys įmonės perimetrą. „Atvirą langą“ apsaugos sistemoje rasti lengviau nei bet kada. Algoritmai spragas aptinka greičiau nei sistemų administratoriai. Ekspertas mini atvejus, kai kibernusikaltėliai pasitelkia pažangias AI sistemas ir generatyvinius modelius pažeidžiamumams ieškoti bei išnaudoti.

Socialinė inžinerija 2.0: vaizdo „deepfake“ ir netikri darbuotojai

Šiuolaikinė socialinė inžinerija 2.0 jau nebesiekia vien to, kad žmogus spustelėtų nuorodą. Tai visiška asmenybės imitacija.

„Algoritmai kuria įtikinamus ‘deepfake’ vaizdo įrašus verslo aplinkoje – pavyzdžiui, kai, atrodytų, ‘vadovas’ prašo skubiai patvirtinti mokėjimą. Skambučių metu sukčiai naudoja balso klonavimą (vishing), atkartodami beveik identišką balso tembrą“, – aiškina Jaroslavas Gordijčukas.

Pasak eksperto, dar vienas atakų tipas – vaizdo „deepfake“, generuojami naudojant „Face Swap“ technologijas. Plačiai žinomi realūs atvejai, kai Šiaurės Korėjos įsilaužėliai, naudodami skaitmenines kaukes, dalyvavo darbo pokalbiuose JAV ir Europos IT įmonėse. Ekrane matomas žmogus šypsosi, linksi, atsako į klausimus – tačiau tai tik realiuoju laiku sukurta holograma. Priėmus tokius „darbuotojus“ į darbą, jiems būdavo suteikiama prieiga prie programinio kodo saugyklų (repozitorijų), kur jie galėdavo įdiegti paslėptus „backdoor“ sprendimus.

Hiperpersonalizuotas fišingas

Generatyviniai tekstų modeliai leido sukčiams rašyti nepriekaištingus laiškus, pritaikant stilių konkrečiam žmogui. Tekstas atrodo maksimaliai natūraliai, nes atsižvelgiama į komunikacijos manierą socialiniuose tinkluose, viešas žinutes, net žodyną.

Tai nebe masinė šlamšto kampanija, o tikslinė ataka prieš konkrečią auką, dažnai derinama su papildoma informacija iš nutekintų duomenų bazių ar atvirų šaltinių.

Grėsmė valstybės institucijoms ir dezinformacijos banga

Makrolygmenyje dirbtinis intelektas gali smarkiai paspartinti informacinį chaosą. Ekspertas išskiria šias pagrindines rizikas:

  • netikrų naujienų generavimas;
  • klastotų dokumentų kūrimas;
  • falsifikuotų vaizdo įrašų gamyba;
  • manipuliacijos finansų ir vertybinių popierių rinkose;
  • pareigūnų viešų pareiškimų imitavimas;
  • chaotiško turinio skleidimas siekiant destabilizuoti situaciją.

Tokių priemonių kompleksas gali būti panaudotas prieš valstybines institucijas, kritinę infrastruktūrą, rinkimus, tarptautinius santykius ir nacionalinį saugumą.

Kaip apsiginti: technologijos prieš technologijas

Apsauga nuo dirbtinio intelekto valdomų atakų įmanoma tik atsakant tomis pačiomis technologijomis. Pažangios EDR (Endpoint Detection and Response) sistemos jau remiasi elgesio analize – stebi ne failus, o įtartinus veiksmus, procesų logiką ir anomalijas.

Darbo su personalu srityje, anot eksperto, būtina:

  • organizuoti realaus laiko gyvus pokalbius, o ne apsiriboti tik nuotoliniais vaizdo skambučiais;
  • naudoti įrankius „deepfake“ vaizdo ir garso aptikimui;
  • tikrinti tapatybę papildomais kanalais ir metodais.

„Zero Trust“ (nulinio pasitikėjimo) architektūra taip pat padeda sumažinti rizikas. Jos esmė – „niekuo nepasitikėk iš anksto“ ir suteik darbuotojams tik būtiniausią prieigą prie sistemų ir duomenų. Tai ypač svarbu, atsižvelgiant į augančią vidaus grėsmių ir personifikuotų atakų riziką.

Realybę tenka įrodinėti

Pasak Jaroslavo Gordijčuko, sustabdyti dirbtinio intelekto plėtros neįmanoma, tačiau būtina keisti taisykles ir požiūrį.

Pasivės, tik nuo parašų ir įrangos priklausantys metodai jau paseno. Reikia:

  • aktyvaus nuolatinio monitoringo;
  • reguliaraus asmenų ir tapatybės tikrinimo;
  • nuolatinės verifikacijos, kas iš tikrųjų vyksta ekrane ir sistemose.

„Realybė daugiau negarantuoja tiesos. Ją tenka nuolat patvirtinti“, – apibendrina Jaroslavas Gordijčukas.

Ar patiko šis įrašas?
 

Domiuosi pasaulio aktualijomis ir technologijomis, nes tikiu, kad tik suprasdami šiandieną galime pasiruošti rytojui. Rašydamas siekiu apjungti globalias naujienas su technologijų raida. Ieškau ne tik faktų, bet ir prasmių, kurios padeda skaitytojui geriau orientuotis sparčiai besikeičiančiame pasaulyje.

0 komentarų

Rekomenduojame perskaityti

Taip pat skaitykite

Hey.lt - Nemokamas lankytojų skaitliukas