Odluka kompanije Anthropic da odbije saradnju sa Pentagonom zbog etičkih dilema oko vojne upotrebe veštačke inteligencije otvorila je prostor za njihovog najvećeg konkurenta. Ugovor koji je američko Ministarstvo odbrane želelo da potpiše sa jednim od vodećih AI startapova na kraju je završio u rukama OpenAI-ja.
Anthropic je, prema dostupnim informacijama, od američke administracije tražio jasne garancije da se njihov model neće koristiti za masovni nadzor građana niti za autonomne sisteme naoružanja sposobne da ubijaju bez ljudske intervencije. Kako takve garancije nisu dobili, kompanija je odlučila da ne učestvuje u projektu.
Ovakav potez izazvao je snažnu političku reakciju. Američki predsednik Donald Tramp reagovao je na svojoj platformi Truth Social, optužujući Anthropic da pokušava da nametne sopstvena pravila Pentagonom. U objavi je naveo da su, kako je napisao, „levičarski luđaci u Anthropicu napravili katastrofalnu grešku pokušavajući da pobede Pentagon u obaranju ruku i prisile ga da se pridržava njihovih opštih uslova poslovanja umesto američkog Ustava“.
U međuvremenu, kompanija je navodno završila na Trampovoj političkoj „crnoj listi“, dok je Pentagon nastavio pregovore sa drugim igračima iz AI industrije. Pored OpenAI-ja, razmatrana je i saradnja sa kompanijom Google, što je pokrenulo novu debatu unutar same tehnološke zajednice.
Skoro 500 zaposlenih u Google-u i OpenAI-ju potpisalo je otvoreno pismo u kojem izražavaju zabrinutost zbog produbljivanja podela unutar AI industrije i traže da se kompanije uzdrže od sklapanja ugovora sa američkim Ministarstvom odbrane, koje je Donald Tramp u međuvremenu preimenovao u „Ministarstvo rata“.
U internom obraćanju zaposlenima, izvršni direktor OpenAI-ja Sem Altman pokušao je da ublaži zabrinutost. On je naveo da se OpenAI alati neće koristiti za masovni nadzor američkih građana, da se lični podaci neće deliti sa državnim agencijama i da kompanija neće sarađivati sa institucijama poput NSA osim ukoliko se ne sklopi poseban ugovor.
Ipak, formulacija koja se odnosi na potencijalnu upotrebu AI sistema u kontekstu autonomnog naoružanja ostala je otvorena za različita tumačenja, jer se u velikoj meri oslanja na postojeće zakonske okvire i način na koji oni definišu dozvoljene vojne primene tehnologije.
Ovaj razvoj događaja dolazi u trenutku kada OpenAI pokušava da obezbedi ogromna sredstva za izgradnju AI infrastrukture, dok istovremeno traje sve oštriji sukob sa kompanijom Anthropic. U pozadini se odvijaju i ozbiljna geopolitička previranja, uključujući eskalaciju tenzija na Bliskom istoku, što dodatno pojačava interesovanje za vojnu primenu veštačke inteligencije.
Upravo zbog toga pitanje odnosa veštačke inteligencije i vojne tehnologije postaje sve aktuelnije. O toj temi govorila je Tamara Zavišić, konsultantkinja specijalizovana za regulatorne, etičke i upravljačke aspekte veštačke inteligencije.
„Sa etičkog stanovišta, približavanje veštačke inteligencije vojnim kontekstima otvara niz pitanja o tome ko donosi odluke, ko snosi posledice i kako se uopšte meri prihvatljiv rizik kada su u pitanju ljudski životi i osnovna prava. U takvom okruženju tehnološki napredak vrlo lako potisne najvažnije pitanje: da li je nešto što je moguće ujedno i društveno dopušteno“, kaže Zavišić.
Ona posebno upozorava na problem raspršene odgovornosti u kompleksnim lancima razvoja i primene AI sistema.
„Posebno zabrinjava pomeranje odgovornosti kroz lance dobavljača, od države ka kompaniji, od kompanije ka korisniku, od korisnika ka modelu, dok se konkretna odgovornost u slučaju greške, zloupotrebe ili štete praktično razvodnjava. Ko je odgovoran?“, navodi ona.
Prema njenim rečima, dodatni problem predstavlja činjenica da ne postoji jedinstven globalni pravni okvir za upotrebu AI u vojne svrhe.
„Granice se često izvode iz opštih pravila međunarodnog humanitarnog prava, nacionalnih politika i internih pravila kompanija. U praksi to znači da se odluke o dozvoljenoj upotrebi oblikuju kroz ugovore i interne politike institucija, uz različit nivo javne kontrole i demokratskog nadzora, koji neretko izostaje“, objašnjava Zavišić.
Ona dodaje da svaki dan bez jasnog pravnog okvira povećava rizik od zloupotrebe za koju niko neće biti formalno odgovoran, ali i upozorava da takav okvir verovatno neće biti uspostavljen uskoro jer se često sudara sa tržišnim i geopolitičkim interesima.
U međuvremenu, reakcija korisnika već se vidi na tržištu AI alata. Prema podacima koje prenosi TechCrunch, tokom jednog vikenda deinstalacije ChatGPT aplikacije porasle su za 295%, dok je broj instalacija Anthropicovog Claude četbota porastao za 51%.
Ovi podaci pokazuju koliko su etičke dileme oko vojne upotrebe veštačke inteligencije postale važan faktor i za krajnje korisnike, ali i za reputaciju kompanija koje razvijaju najnaprednije AI modele.