Articles
Nov 4, 2025

AI koji te hakira

AI generira prijevare i tehničke napade

AI koji te hakira

Zamislite da u sandučiću e-pošte zateknete poruku koja izgleda potpuno uvjerljivo, od vaše banke, s besprijekornim jezikom i službenim tonom, tražeći da hitno potvrdite svoje podatke. Ili primite telefonski poziv i čujete glas voljene osobe u nevolji, moleći za pomoć, a zapravo ni e-mail ni glas nisu stvarni. Ovo nisu scene iz znanstvene fantastike, već stvarnost modernih kibernetičkih napada. Umjetna inteligencija (AI) postala je novi alat u rukama hakera i prevaranata, pomažući im da osmisle uvjerljive prijevare i napade na mreži. U nastavku saznajte kako točno AI “hakira” ljude, od pametnih phishing e-mailova i deepfake prijevara, do AI-pisanog zlonamjernog koda i autonomnih botova koji vode napade u stvarnom vremenu.

Automatizirani phishing e-mailovi generirani AI-jem

Phishing je odavno poznata metoda prevare putem lažnih e-poruka u kojima se počinitelj lažno predstavlja (primjerice kao banka ili kolega) kako bi žrtvu naveo da otkrije povjerljive podatke. Danas, zahvaljujući AI-ju, phishing e-mailovi postaju uvjerljiviji i masovniji nego ikad. Generativni AI modeli, kao što je ChatGPT, mogu u par minuta napisati savršeno sročeno pismo gotovo na bilo kojem jeziku.

Time su nestale tradicionalne crvene zastavice poput loše gramatike ili čudnog jezika koje su odavale tipične pokušaje krađe identiteta. Istraživači IBM-a ustanovili su da je AI-u dovoljno oko pet minuta da sastavi kvalitetan phishing e-mail, dok je ljudskom timu trebalo i do 16 sati rada da napiše jednako ciljani tekst. Drugim riječima, hakeri uz pomoć AI-ja mogu slati mnogo više lažnih poruka, puno brže.

Posljedice su zabrinjavajuće. Prema istraživanju tvrtke SoSafe, čak 78% ljudi otvori phishing e-mail koji je napisao AI, a oko 21% nasjedne i klikne na zlonamjerni sadržaj u takvoj poruci. To znači da otprilike jedna od pet osoba bude prevarena dobro izrađenim AI e-mailom.

Generativni AI ne samo da ubrzava izradu phishing napada za barem 40%, nego omogućuje i personalizaciju na velikoj skali, prevaranti mogu ubaciti pojedinosti o meti (npr. ime, funkciju ili navike) i tako kreirati spear-phishing poruke prilagođene svakoj žrtvi, ali automatizirano. Čak i jezična barijera više nije problem: uz AI, napadači mogu masovno proizvoditi uvjerljive lažne poruke na raznim jezicima i time ciljati žrtve diljem svijeta.

Ono što je nekad zahtijevalo vještinu i dobro znanje jezika, sada može obaviti svatko uz pomoć AI “asistenta”. Postoje čak i posebno trenirani AI chat botovi na crnom tržištu, poput zloglasnih WormGPT i FraudGPT, dizajnirani baš za kriminalne svrhe. Njihovi tvorci reklamiraju da ti modeli nemaju etičkih blokada i mogu generirati uvjerljive prijevarne poruke ili zlonamjeran kod na zahtjev.

U testu nezavisnog istraživača, WormGPT je napisao nevjerojatno uvjerljiv e-mail u kojem se lažno predstavljao kao direktor tvrtke i tražio hitnu uplatu, a rezultat je ocijenjen kao “neugodno dobar i lukav”. Sve to pokazuje koliko je AI pojednostavio ulazak u kriminalne vode: i manje iskusni prevaranti sada mogu lako proizvoditi profesionalno napisane prijevare.

Deepfake audio i video prevare

Zamislite da vam nadređeni preko videopoziva naloži hitan prijenos sredstava, ili da vam se prijateljica javi glasovnom porukom moleći za novac, a da ništa od toga nije stvarno. Upravo to omogućuju deepfake tehnologije, koje uz potporu AI-ja stvaraju lažne audio snimke i videe nevjerojatne vjerodostojnosti. Deepfake audio može uvjerljivo imitirati nečiji glas sa samo nekoliko sekundi originalne snimke. Drugim riječima, kriminalcu je dovoljan kratak javno dostupni isječak nečijeg glasa (npr. s društvenih mreža) da ga klonira i iskoristi u prevari.

Posljednjih godina zabilježeni su naglo učestali slučajevi ovakvih prijevara. Primjerice, korporativni svijet suočava se s “nadograđenim” CEO fraud napadima: prevaranti koriste voice clone izvršnih direktora ili financijskih dužnosnika kako bi uvjerili zaposlenike da odobre nepostojeće transakcije. U jednom nedavnom slučaju, zaposlenik velike međunarodne tvrtke bio je uvjeren lažnim videosastankom, prevaranti su kreirali video i audio dubler (lažnu videosnimku i sintetizirani glas osobe temeljen na umjetnoj inteligenciji) financijskog direktora kompanije kako bi naložili transfer oko 25 milijuna dolara na inozemne račune.

Srećom, prevara je na vrijeme razotkrivena, no mnoge su druge prošle ispod radara. Čak je i šef najveće svjetske marketinške agencije WPP bio meta jedne takve deepfake operacije: napadači su se lažno predstavili kao on na online sastanku (koristeći njegovu profilnu sliku, voice clone i ranije javne snimke), pokušavši od visokog dužnosnika izvući novac. Ovaj pokušaj nije uspio zahvaljujući oprezu žrtve, no pokazuje koliko daleko prevaranti idu.

Deepfake prijevare ne pogađaju samo tvrtke, mete mogu biti i obični građani. U SAD-u je zabilježen slučaj majke kojoj su kriminalci lažirali glas njezine kćeri tvrdeći da je oteta, tražeći otkupninu, što je ženu dovelo u stravičnu situaciju. Slične “grandparent” prijevare pojavile su se i drugdje, gdje prevaranti imitiraju glas unuka koji hitno traži novac.

Budući da video pozivi i glasovne poruke ulijevaju veće povjerenje nego običan tekst, deepfake napadi predstavljaju novu razinu socijalnog inženjeringa. Ljudi se tek počinju upoznavati s ovom prijetnjom, pa stručnjaci upozoravaju da prosječna osoba ili zaposlenik još nije naviknut provjeravati autentičnost onoga što vidi ili čuje na ekranu, kao što provjerava sumnjive e-mailove. Drugim riječima, AI-generirane lažne slike, glasovi i videi otvaraju prostor prevarantima da iskoriste povjerenje žrtava na načine koji su do nedavno bili nezamislivi.

Generativni AI kao tvorac zlonamjernog koda

AI ne služi samo za obmanjivanje ljudi, može postati i svestrani hakerski pomoćnik za tehničke napade. Generativni AI modeli pokazuju zapanjujuću sposobnost pisanja računalnog koda, što uključuje i pisanje zlonamjernih programa poput virusa, ransomwarea ili exploit skripti. Ranije su samo iskusni programeri mogli razviti takav malware; danas novak može jednostavno zatražiti od AI-ja da napiše kod za njega. Iako popularni javni chat sistemi imaju ugrađene zaštite i odbijaju otvoreno pomagati u kriminalu, te se zaštite mogu zaobići ili se koriste alternativni modeli bez ograničenja.

Stručnjaci ističu da su se na hakerskim forumima već pojavile ponude za “fine-tunane” AI modele koji za manje od 100 dolara nude pomoć u cyber-napadima. U praksi je potvrđeno da AI značajno snižava prag stručnosti potreban za baviti se hakiranjem.

Što to konkretno znači? Za početak, AI može pomoći napadačima u pravljenju prilagodljivog, tzv. mutirajućeg malwarea. Takav program može automatski mijenjati svoj kod kako bi izbjegao detekciju antivirusnih alata, svaka inačica malwarea izgleda drugačije, i time je teže prepoznati potpis napada. Jedna sigurnosna tvrtka demonstrirala je proof-of-concept malware pokretan AI-jem koji sam analizira ciljanu okolinu, bira način napada i potom generira te isprobava kod sve dok ne uspije prodrijeti. Drugim riječima, s dovoljno naprednim modelom haker može zadati ciljani cilj, a AI će sam “naučiti” kako ga napasti, poput virusa koji sam smišlja nove metode provale.

Osim stvaranja novog zlonamjernog softvera, AI se koristi i za pronalaženje sigurnosnih rupa (ranjivosti). Modeli poput GPT-4 pokazali su impresivne rezultate u razumijevanju opisa poznatih ranjivosti te čak automatskom razvijanju odgovarajućih exploit kodova. U nedavnom eksperimentu istraživači su postavili AI agenta zasnovanog na GPT-4 i dali mu zadatak da iskoristi 15 poznatih softverskih propusta, AI je uspješno iskoristio čak 87% tih ranjivosti bez ljudske pomoći. To je daleko iznad uspješnosti klasičnih alata za skeniranje sigurnosti. Doduše, AI je briljirao kada je imao informacije o propustu (npr. opis iz CVE baze podataka), dok “pogađanje” bez ikakvih naznaka zasad ide teže.

No, trend je jasan, kako modeli postaju napredniji, otvara se mogućnost da AI otkriva nove ranjivosti ili efikasnije iskorištava postojeće, što bi moglo dati kriminalcima opasnu prednost. Već se šuška da i neke državno sponzorirane hakerske skupine koriste generativni AI za ubrzanje svog researcha, primjerice da brže analiziraju i razumiju nove prijavljene ranjivosti u softveru. Ukratko, AI se pretvara u pravog “hakera pomagača” – štedi vrijeme, pronalazi slabosti i piše napadački kod, i to na razini koju ni mnogi ljudi ne bi mogli doseći.

Botovi i AI agenti: hakeri u stvarnom vremenu

Jedna od najuzbudljivijih (i najstrašnijih) razvojnih točaka je pojava autonomnih AI “agenata”, programa kojima možemo zadati cilj, a oni onda samostalno obavljaju niz radnji kako bi ga ostvarili. Zamislite takvog agenta u ulozi hakera: mogao bi automatizirano pretraživati internet i društvene mreže ne bi li prikupio informacije o meti, zatim dizajnirati plan napada, generirati lažne poruke ili deepfake sadržaj za socijalni inženjering, pa čak i pokrenuti tehnički napad, sve to bez neposrednog ljudskog upravljanja. Takav AI “haker” bio bi u stanju brzo reagirati u stvarnom vremenu na poteze žrtve ili obrane: ako prvi pokušaj ne uspije, AI bi odmah analizirao zašto, prilagodio taktiku i pokušao ponovo. To je nešto što klasične automatizirane skripte dosad nisu mogle, AI agent ima određenu snalažljivost i učenje u hodu.

Stručnjaci predviđaju da bi takvi autonomni AI napadi mogli postati uobičajeni. Uskoro bi mogli živjeti u svijetu “gdje većinu kibernetičkih napada obavljaju agenti”, pitanje je samo koliko brzo ćemo do toga doći. Za sada, utješno je da nije zabilježen veliki broj potpuno autonomnih AI napada u divljini, većina incidenata još uključuje ljude operativce koji koriste AI alate.

Ipak, trendovi ukazuju da se broj napada potpomognutih AI-jem ubrzano povećava. Jedno izvješće navodi da je u razdoblju od samo šest mjeseci zabilježen sedmerostruki porast broja cyber napada na jednu veliku tehnološku kompaniju, djelomično zahvaljujući AI automatizaciji napada. Također, botnet mreže zaraženih računala mogle bi postati još opasnije uz AI: umjesto jednodimenzionalnih DDoS napada, AI može generirati promet koji izgleda legitimno i teže ga je filtrirati, ili koordinirati botove da inteligentnije izbjegavaju detekciju. Sve to otežava tradicionalnu obranu, jer se branimo protiv nečega što djeluje gotovo snalažljivo kao čovjek, ali s nadljudskom brzinom i upornošću stroja.

Zaključno

“AI koji te hakira” više nije samo maštoviti naslov, već realna prijetnja u današnjem digitalnom svijetu. Od uvjerljivih lažnih poruka koje iskorištavaju naše povjerenje, preko simuliranih glasova i lica koji mogu zbuniti i najopreznije, pa do neumornih programa koji probijaju sigurnosne barijere, umjetna inteligencija se pokazala kao dvosjekli mač. S jedne strane donosi nam napredak i koristi, ali s druge strane pruža kriminalcima moćne nove alate za zloupotrebu.

Ova nova generacija napada spaja tradicionalne obmane s vrhunskom tehnologijom, stvarajući prijetnje koje su brže, pametnije i teže uočljive. Za širu publiku, važno je osvijestiti da se granica između stvarnog i lažnog na internetu zamagljuje: e-mail od banke možda nije napisala osoba, glas u slušalici možda nije autentičan, a virus u računalu možda je “izmislio” sam sebe. Kako AI nastavlja napredovati, sigurnosni stručnjaci i društvo u cjelini suočeni su s izazovom nadmudrivanja digitalnih prevaranata potpomognutih umjetnom inteligencijom. Jedno je sigurno, era AI hakera je stigla, i od sada ćemo na cyber prijetnje morati gledati novim očima.

// Newsletter //

Prijava na newsletter

Budite u toku s najnovijim sigurnosnim upozorenjima, analizama i praktičnim savjetima naših stručnjaka.

Thanks for joining our newsletter.
Oops! Something went wrong.
Subscribe To Our Weekly Newsletter - Cybersecurity X Webflow Template