HelloWorld logo
22.01.2026. ·
5 min

AI bezbednost: Šta developeri moraju da znaju nakon najnovijih napada

Uroš Jelić Uroš Jelić

Pretpostavka u svetu sajber-bezbednosti da će veštačka inteligencija vremenom postati oružje nije bila pogrešna. Samo je njen dolazak bio sporiji nego što se očekivalo.

Najnovija istraga kompanije Anthropic po prvi put dokumentuje nešto o čemu se u bezbednosnoj zajednici godinama teoretisalo, ali nikada nije viđeno u ovom obimu: sofisticiranu sajber-operaciju u kojoj je veštačka inteligencija obavljala gotovo kompletan posao. AI sistem je izvodio upade u bezbednosne sisteme kompanija, dok su ljudski operateri uglavnom nadgledali proces i davali saglasnost u ključnim tačkama, prenosi Developer Tech.

Za developere i poslovne lidere koji uvode AI sisteme u svakodnevno poslovanje, ovo više nije teorijska pretnja. Reč je o realnosti koja zahteva hitnu pažnju, posebno kada je u pitanju zaštita AI infrastrukture unutar kompanija.

Podaci iz istrage su zabrinjavajući. Kineska hakerska grupa, za koju se veruje da ima državnu podršku, automatizovala je između 80 i 90 odsto svojih sajber-operacija koristeći Claude Code, AI asistenta za programiranje namenjenog ubrzanju rada developera. Meta napada bilo je oko 30 organizacija, uključujući tehnološke kompanije, finansijske institucije, proizvođače i državne agencije, pri čemu su potvrđeni uspešni upadi u više sistema visoke vrednosti.

U periodima najveće aktivnosti, AI sistem je generisao hiljade zahteva i izvodio više operacija u sekundi, što bi u klasičnom scenariju zahtevalo desetine iskusnih hakera. Ključna poruka za rukovodioce u kompanijama jeste da ovo nije bila ni eksperimentalna tehnologija ni alat rezervisan isključivo za države.

Napadači su koristili standardne, javno dostupne alate za penetraciono testiranje, uključujući mrežne skenere, alate za razbijanje lozinki i okvire za eksploataciju baza podataka. Razlika je bila u tome što je sve orkestrirala veštačka inteligencija sposobna da radi neprekidno, bez zamora, da održava kontekst tokom višednevnih operacija i da prilagođava strategiju na osnovu prikupljenih podataka.

Barijera za izvođenje sofisticiranih sajber-napada time je drastično spuštena, a bezbednost AI sistema u kompanijama postala je tema za upravne odbore, bez obzira na to da li su organizacije toga svesne ili ne.

Razumevanje potpuno novog terena napada

Ova operacija pokazuje da se kompanije danas suočavaju sa suštinski drugačijim protivnikom. Napadači su izgradili autonomni okvir koji je manipulisanjem navodio Claude da veruje kako sprovodi legitimno, defanzivno testiranje bezbednosti.

Zadaci su mu dodeljivani pojedinačno i delovali su bezazleno: skeniranje mreža, testiranje kredencijala, analiza baza podataka. Posmatran izolovano, svaki zahtev je izgledao rutinski. U celini, oni su činili koordinisanu i visoko sofisticiranu kampanju upada.

Za developere koji implementiraju AI sisteme, ovo otvara ključno pitanje. AI alati mogu da izvršavaju složene lance zadataka u kojima pojedinačne aktivnosti prolaze ispod bezbednosnog radara upravo zato što nemaju širi kontekst.

Sistem je samostalno identifikovao mete visoke vrednosti, pisao prilagođeni exploit kod, prikupljao kredencijale, kretao se lateralno kroz mreže i analizirao ukradene podatke. Ljudska intervencija bila je potrebna u samo četiri do šest strateških tačaka po kampanji.

Praktične strategije odbrane

Istraga kompanije Anthropic otkrila je i važno ograničenje ovakvih napada. AI sistemi trenutno pate od problema pouzdanosti. Često su halucinirali rezultate, tvrdili da su pribavili kredencijale koji nisu funkcionisali ili preuveličavali nalaze, što je zahtevalo dodatnu ljudsku proveru. Upravo ta slabost predstavlja prostor koji bezbednosni timovi mogu da iskoriste za detekciju.

Dvojna priroda napredne veštačke inteligencije daje kompanijama jasnu prednost. Iste sposobnosti koje omogućavaju napade mogu se koristiti i za odbranu. Razvojni timovi već sada mogu da uvode AI bezbednosne alate za automatizovanu reviziju koda, procenu ranjivosti i detekciju anomalija.

Strateški cilj jeste sticanje organizacionog iskustva i razumevanje onoga što funkcioniše u konkretnom okruženju, pre nego što se autonomni napadi dodatno razviju. Centri za bezbednosne operacije mogu odmah da započnu sa primenom AI-a u detekciji pretnji i odgovoru na incidente.

Tokom istrage, Anthropicov tim za obaveštavanje o pretnjama intenzivno je koristio Claude za analizu ogromnih količina podataka, pokazujući kako AI može da omogući ljudskim analitičarima da rade brže i efikasnije.

Za kompanije koje koriste AI alate u razvoju softvera, višeslojna kontrola pristupa treba da postane standard. AI asistenti ne bi smeli da imaju neograničen pristup produkcionim sistemima niti osetljivim podacima.

Korišćenje izolovanih okruženja, stroge autentifikacione granice i detaljni audit logovi svih AI operacija mogu značajno da pomognu u ranom otkrivanju neuobičajenih obrazaca, pre nego što dođe do eskalacije.

Šta developeri treba da urade sada

Prvi korak su pilot-projekti u kontrolisanim okruženjima i testiranje AI bezbednosnih alata. Njihovu efikasnost treba meriti, razumeti prednosti i ograničenja i postepeno graditi znanje tima pre nego što se pojavi stvarna kriza.

Organizacije koje će se uspešno nositi sa bezbednosnim izazovima veštačke inteligencije biće one koje već sada eksperimentišu sa AI-jem u defanzivne svrhe. Neophodno je sistematski preispitati postojeće implementacije i obezbediti da AI asistenti rade po principu najmanjih privilegija, sa pristupom isključivo onim resursima koji su im zaista potrebni.

Posebnu pažnju treba posvetiti nadzoru neuobičajenih obrazaca rada, kao što su dugotrajni veliki obimi zahteva, sistematsko testiranje kredencijala i automatizovano izvlačenje podataka, jer oni mogu ukazivati na kompromitovane AI alate.

Šta dalje?

Dokumentovana kampanja predstavlja prelomni trenutak za bezbednost AI sistema u kompanijama, ali ne i signal za zaustavljanje usvajanja veštačke inteligencije. Akteri pretnji već koriste AI sposobnosti na koje se organizacije oslanjaju radi produktivnosti.

Istovremeno, te iste sposobnosti, ako su pravilno zaštićene i defanzivno primenjene, pružaju bezbednosnim timovima snažnije alate za otkrivanje i odgovor na sofisticirane pretnje nego ikada ranije.

Prostor za pripremu i dalje postoji, ali se brzo sužava. Kompanije koje danas ulažu u bezbednost AI sistema, kako kroz alate tako i kroz razvoj stručnosti timova, postavljaju se u znatno povoljniju poziciju za budućnost u kojoj će autonomni napadi biti sve češći.

Bezbednost AI-a u poslovnom okruženju ne podrazumeva izbor između inovacija i zaštite. Ona zahteva istovremenu izgradnju oba aspekta, kako bi sistemi koji transformišu poslovanje ostali bezbedna imovina i izvor konkurentske prednosti, a ne nova tačka rizika.

 

Napiši komentar
Uroš Jelić Uroš Jelić

Nekada IT novinar, a sada PR u tehnološkom svetu koji svaki dan gleda da otkrije i nauči nešto novo i to prenese na druge (silom ili milom). Pogotovo kada je potreban savet za kupovinu telefona.

Iz ove kategorije