EN DE

Novo doba ratovanja: Amerikanci Madura oteli uz pomoć AI-ja

Autor: Denis Romac/VL
16. veljača 2026. u 22:00
Podijeli članak —
Mediji izvještavaju da je Claude na vojnim mrežama klasificirane razine korišten ne samo tijekom planiranja, nego i tijekom same operacije/ADAM GRAY/REUTERS

Prvi slučaj korištenja naprednih algoritama u vojnim operacijama.

Američka je vojska prema službeno nepotvrđenim ali dobro potkrijepljenim izvješćima tijekom nedavnog napada na Venezuelu i otmice predsjednika Venezuele Nicolasa Madura koristila napredni model umjetne inteligencije Claude, koju je razvio američki AI startup Anthropic, što je prvi poznati slučaj korištenja komercijalnog modela umjetne inteligencije u ovakvim vojnim operacijama.

Iako svi detalji nisu poznati, The Wall Street Journal i drugi američki mediji izvještavaju da je Claude na vojnim mrežama klasificirane razine korišten ne samo tijekom planiranja, nego i tijekom same operacije, koja je rezultirala hvatanjem Madura i njegove supruge Cilije Flores te njihovim transferom u Sjedinjene Države.

Uklanjanje kočnica

Međutim, u pozadini ovog poteza nazire se sukob Pentagona i Anthropica. Naime, Pentagon je Anthropicov Claude koristio putem platforme Palantir Technologies, koja je Anthropicov partner i koja ima ugovor s Pentagonom, s obzirom na to da Anthropicova službena pravila zabranjuju korištenje Claudea za poticanje nasilja, razvoj oružja i masovni nadzor. Kako je model ipak korišten u tajnoj vojnoj operaciji koja je uključivala bombardiranje i uhićenja, to je dovelo do sukoba Anthropica i Pentagona. Prema medijskim izvješćima upravo se Anthropic najviše opire zahtjevima Pentagona za “neograničenim pristupom” AI modelima za vojne svrhe, inzistirajući na tome da svako korištenje njihovog modela mora poštovati njihove specifične smjernice, poput inzistiranja na etičkim granicama, a Anthropic se osobito protivi razvijanju potpuno autonomnog oružja.

Protiv ratovanja i mogućih žrtava

Anthropic se najviše opire zahtjevima Pentagona za ‘neograničenim pristupom’ AI modelima za vojne svrhe.

Zbog toga su u Pentagonu, kako je još ranije javio The Wall Street Journal, počeli razmišljati o raskidu ugovora s Anthropicom vrijednog 200 milijuna dolara, zaključenog prošle godine, zahtijevajući uklanjanje “svih kočnica” prilikom korištenja AI modela u zakonitim vojnim operacijama, što je jasno dao do znanja i američki ministar obrane Pete Hegseth kada je još početkom godine poručio da Pentagon neće koristiti modele umjetne inteligencije koji mu ne omogućavaju vođenje rata.

Ni američko Ministarstvo obrane ni Antropic nisu službeno potvrdili medijska izvješća o korištenju Claudea ili bilo kojeg drugog modela umjetne inteligencije za bilo koju konkretnu vojnu operaciju, a u Anthropicu napominju da svako korištenje Claudea, bilo da je riječ o privatnom ili državnom sektoru, mora biti u skladu s Anthropicovim smjernicama, koje precizno reguliraju kako Claude može biti korišten, iako se pritom naglašava da je Anthropic posvećen korištenju napredne umjetne inteligencije u podršci američkoj nacionalnoj sigurnosti.

Anthropicov izvršni direktor Dario Amodei, kako piše britanski Guardian, pozvao je pak na jače regulacije i više zaštitnih mjera kako bi se spriječila šteta koju umjetna inteligencija može izazvati, posebno upozoravajući na opasnost od korištenja umjetne inteligencija u “autonomnim smrtonosnim operacijama”, kao i pri nadzoru u SAD-u.

200

milijuna dolara vrijedan je ugovor Pentagona s Anthropicom

Pravne i etičke implikacije

Iako još nije jasno kako je točno Claude korišten pri napadu na Venezuelu i što je točno radio, a vjerojatnije je da je funkcionirao samo kao alat za podršku u obradi podataka i odlučivanju, riječ je o prekretnici u načinu ratovanja, s obzirom na to da ovaj slučaj predstavlja novu fazu integracije civilne tehnologije u vojnom sektoru potvrđujući da se i najnapredniji komercijalni modeli umjetne inteligencije počinju aktivno integrirati u planiranje i operativnu provedbu zahtjevnih i visokorizičnih vojnih operacija, poput akcije u Venezueli, u kojoj su poginule 83 osobe.

To, naravno otvara brojna pitanja, poput pravnih i etičkih implikacija korištenja umjetne inteligencije, kao i pitanja odgovornosti i nadzora. Iako AI u vojsci nije nova pojava, o čemu svjedoče satelitske analize podataka i algoritmi za navođenje, američko korištenje umjetne inteligencije u operaciji u Venezueli ubrzat će globalnu utrku u vojnoj primjeni AI-ja, potičući i druge aktere da naprave isto i korak dalje, što će ubrzati militarizaciju umjetne inteligencije, i to u svijetu u kojem trenutačno ne postoji globalno obvezujuća regulacija AI-ja.

Autor: Denis Romac/VL
16. veljača 2026. u 22:00
Podijeli članak —
Komentirajte prvi

Moglo bi vas Zanimati

New Report

Close