.png)
U jednom od prethodnih tekstova dotaknuli smo se konkretnih primjera kako AI mijenja kibernetičke napade u praksi. Ovaj tekst ide korak dalje - umjesto primjera, fokus je na analizi: što AI zapravo mijenja, gdje su njegova ograničenja i što to znači za organizacije.
Umjetna inteligencija posljednjih je godina postala jedna od najčešće spominjanih tehnologija u gotovo svakom sektoru. Od automatizacije poslovnih procesa do analize velikih količina podataka, njezina primjena brzo se širi. No, kao i kod svake tehnologije ista sredstva koja unapređuju produktivnost i inovacije mogu se koristiti i u napadačke svrhe. U kontekstu kibernetičke sigurnosti često se postavlja pitanje: koriste li napadači već umjetnu inteligenciju i koliko to mijenja prirodu napada?
Odgovor je složeniji nego što se ponekad prikazuje u medijima. Umjetna inteligencija nije “čarobni alat” koji automatski probija obranu, ali ona značajno mijenja način na koji se napadi planiraju, pripremaju i provode. Umjesto potpuno novih vrsta napada, AI najčešće omogućuje skaliranje postojećih taktika, osobito u području socijalnog inženjeringa, automatizacije i analize informacija. Razumjeti tu promjenu važno je kako bi organizacije razlikovale stvarne rizike od pretjeranih očekivanja.
Jedna od najčešćih zabluda je da umjetna inteligencija omogućuje potpuno nove, do sada neviđene vrste kibernetičkih napada. U praksi se mnogo češće događa nešto drugo: postojeće tehnike postaju brže, uvjerljivije i skalabilnije.
Phishing, primjerice postoji desetljećima, no tradicionalni phishing često je bio prepoznatljiv zbog lošeg jezika, generičnih poruka i očitih znakova prijevare. S generativnom umjetnom inteligencijom napadači mogu stvarati uvjerljive poruke koje su gramatički ispravne, kontekstualno prilagođene i stilom nalikuju stvarnoj komunikaciji. AI tako ne mijenja samu prirodu phishinga, ali dramatično povećava njegovu učinkovitost.
Slično vrijedi i za druge faze napada. Automatizirana analiza javno dostupnih informacija, brzo generiranje skripti ili pomoć u razumijevanju tehničke dokumentacije može ubrzati proces pripreme napada. Ono što je nekad zahtijevalo sate ili dane istraživanja sada se može obaviti u znatno kraćem vremenu.
Područje u kojem umjetna inteligencija trenutno ima najveći utjecaj jest socijalni inženjering. Napadi koji ciljaju ljude a ne tehnologiju, uvijek su bili jedan od najuspješnijih vektora kompromitacije. AI sada omogućuje da ti napadi postanu uvjerljiviji i bolje personalizirani.
Generativni modeli mogu analizirati javno dostupne informacije o organizaciji ili pojedincima te pomoći u sastavljanju poruka koje djeluju legitimno. Umjesto generičnog “Vaš račun je kompromitiran”, napadač može poslati poruku koja se referira na stvarne projekte, kolege ili poslovne procese. Osim teksta, umjetna inteligencija omogućuje i generiranje uvjerljivog audio i video sadržaja.
Deepfake tehnologije već su korištene u prijevarama u kojima napadač imitira glas direktora ili drugog visokopozicioniranog zaposlenika kako bi potaknuo hitan financijski transfer. Takvi napadi ne zahtijevaju kompromitaciju sustava – dovoljno je kompromitirati povjerenje.
Još jedno područje u kojem umjetna inteligencija može pomoći napadačima jest izviđanje. Prije nego što se pokrene stvarni napad, napadači često prikupljaju informacije o ciljanoj organizaciji. To uključuje analizu javno dostupnih podataka, tehnoloških platformi koje organizacija koristi, strukture zaposlenika i digitalnog otiska organizacije. AI alati mogu pomoći u obradi i sažimanju velikih količina informacija.
Umjesto ručnog pregledavanja brojnih izvora, napadač može koristiti modele koji brzo identificiraju potencijalno relevantne podatke. Važno je naglasiti da ovdje nije riječ o “hakiranju pomoću AI-a”, nego o ubrzanoj analizi informacija koje su već javno dostupne.
Umjetna inteligencija može također pomoći u generiranju koda, uključujući skripte koje automatiziraju određene aktivnosti. U sigurnosnom kontekstu to znači da napadači mogu brže razvijati ili prilagođavati postojeće alate.
No, ovdje postoje i važna ograničenja. Velik dio generativnih modela ima implementirane sigurnosne mehanizme koji ograničavaju generiranje očito zlonamjernog sadržaja. Osim toga, generirani kod često zahtijeva dodatno testiranje i prilagodbu. Drugim riječima, umjetna inteligencija može pomoći napadaču, ali ne zamjenjuje tehničko znanje.
Važno je naglasiti da umjetna inteligencija nije alat koji koriste samo napadači. U mnogim slučajevima obrambeni sustavi koriste AI mnogo dulje nego napadači.
Sigurnosni alati već godinama primjenjuju metode strojnog učenja za analizu ponašanja, detekciju anomalija i identifikaciju sumnjivih aktivnosti. Endpoint zaštita, mrežna analiza i detekcija prijevara često se oslanjaju na modele koji analiziraju velike količine podataka i traže obrasce koji odstupaju od uobičajenog ponašanja. Razlika je u tome što obrambeni sustavi imaju pristup velikim količinama telemetrije i mogu kontinuirano trenirati modele na stvarnim podacima.
Napadači, s druge strane, najčešće koriste javno dostupne modele koji nisu posebno trenirani za napadačke scenarije.
Unatoč velikoj medijskoj pažnji, umjetna inteligencija ima i niz ograničenja u kontekstu kibernetičkih napada.
Prvo, AI modeli često generiraju netočne ili neprecizne informacije. U sigurnosnom kontekstu to može dovesti do pogrešnih zaključaka ili neispravnih skripti.
Drugo, uspješni napadi i dalje zahtijevaju razumijevanje ciljanog okruženja. Tehničke konfiguracije, mrežna arhitektura i sigurnosni mehanizmi razlikuju se od organizacije do organizacije. Automatizirani alati teško mogu zamijeniti ljudsku prilagodbu tim uvjetima.
Treće, mnoge faze napada i dalje zahtijevaju kreativnost i strateško razmišljanje – nešto što trenutni AI modeli još uvijek ne mogu u potpunosti replicirati.
Ako postoji jedna karakteristika u kojoj umjetna inteligencija doista mijenja dinamiku napada, to je brzina. AI omogućuje napadačima da generiraju više sadržaja, analiziraju više informacija i pokreću više pokušaja u kraćem vremenu. To znači da će organizacije sve češće biti izložene većem broju sofisticiranih pokušaja prijevare ili kompromitacije. AI ne čini svaki napad nužno naprednijim, ali čini napadače produktivnijima.
Umjesto fokusiranja isključivo na tehnologiju, obrana od AI-potpomognutih napada mora se usredotočiti na temeljne principe sigurnosti.
Prvi je jačanje svijesti zaposlenika o socijalnom inženjeringu. Uvjerljiv phishing ili deepfake poruka neće biti zaustavljeni antivirusom.
Drugi je višeslojna autentikacija i stroga kontrola privilegija. Čak i ako napadač uspije kompromitirati račun, dodatne kontrole mogu ograničiti daljnje širenje napada.
Treći je kontinuirano praćenje i analiza aktivnosti u sustavu. AI može pomoći napadačima u pripremi napada, ali obrana i dalje ovisi o sposobnosti detekcije anomalija i brzog odgovora.
Umjetna inteligencija nesumnjivo će igrati sve veću ulogu u kibernetičkoj sigurnosti – i u napadima i u obrani. No stvarni utjecaj AI-a često je suptilniji nego što sugeriraju naslovi.
Umjesto revolucije u tehnikama napada, AI trenutno predstavlja evoluciju postojećih taktika. On omogućuje bržu analizu informacija, uvjerljiviji socijalni inženjering i veću skalabilnost napada.
Za organizacije to znači da se fokus ne bi trebao pomaknuti prema strahu od “AI hakera”, nego prema jačanju osnovnih sigurnosnih principa: kontrole pristupa, detekcije anomalija i edukacije korisnika.
Tehnologija će se nastaviti razvijati. No u kibernetičkoj sigurnosti temeljna istina ostaje ista – najslabija karika rijetko je tehnologija sama, nego način na koji je koristimo.
Budite u toku s najnovijim sigurnosnim upozorenjima, analizama i praktičnim savjetima naših stručnjaka.
