Direktor OpenAI-ja Sam Altman se i ovoga tjedna našao na udaru kritika nakon što je njegova tvrtka potpisala ugovor s američkom vojskom. Zaposlenici OpenAI-ja oštro su osudili taj potez, koji je uslijedio nakon što je propao ugovor vrijedan oko 200 milijuna dolara koji je Pentagon trebao sklopiti s konkurentskom tvrtkom Anthropic.
Kako piše Wired, od Altmana su zatražili da objavi više informacija o sporazumu, a on je u objavi na društvenim mrežama priznao da je cijela situacija izgledala “traljavo”. Iako je taj incident izazvao veliku pozornost, mogao bi biti tek najnoviji i najvidljiviji primjer načina na koji OpenAI oblikuje nejasna pravila o pristupu američke vojske njihovoj umjetnoj inteligenciji.
Tijekom 2023. pravila korištenja OpenAI-ja izričito su zabranjivala vojsci pristup njihovim AI modelima. No, kako navode dva izvora upoznata sa situacijom, neki zaposlenici ubrzo su otkrili da je Pentagon već počeo eksperimentirati s uslugom Azure OpenAI – verzijom modela koju nudi Microsoft.
U to je vrijeme Microsoft već desetljećima imao ugovore s američkim Ministarstvom obrane, a bio je i najveći investitor u OpenAI, uz široku licencu za komercijalizaciju tehnologije tog startupa. Iste godine, tvrde isti izvori koji su željeli ostati anonimni jer nisu ovlašteni komentirati interne poslove tvrtke, zaposlenici su u uredima u San Franciscu vidjeli i dužnosnike Pentagona.
Situacija je izazvala podjele među zaposlenicima. Neki su bili oprezni prema povezivanju s Pentagonom, dok su drugi bili zbunjeni oko toga što pravila OpenAI-ja zapravo znače i odnose li se i na Microsoft.
Izvori za Wired tvrde da većini zaposlenika tada situacija nije bila jasna. Glasnogovornici OpenAI-ja i Microsofta sada, međutim, ističu da proizvodi Azure OpenAI nisu, niti su ikada bili, podložni pravilima OpenAI-ja.
“Microsoft ima proizvod nazvan Azure OpenAI Service koji je postao dostupan američkoj vladi 2023. godine i podliježe Microsoftovim uvjetima pružanja usluge”, izjavio je glasnogovornik Frank Shaw.
Microsoft nije želio komentirati kada je točno Pentagonu omogućio pristup toj tehnologiji, ali je naveo da usluga neće biti odobrena za “strogo tajne” vladine zadatke prije 2025. godine.
Do siječnja 2024. OpenAI je u međuvremenu ažurirao svoja pravila i uklonio opću zabranu vojne uporabe. Nekoliko zaposlenika za tu je promjenu saznalo tek iz članka objavljenog u The Interceptu.
Vodstvo tvrtke kasnije se osvrnulo na promjene na sastanku sa svim zaposlenicima, poručivši da će OpenAI ubuduće oprezno pristupati tom području.
“Umjetna inteligencija već ima važnu ulogu u nacionalnoj sigurnosti i vjerujemo da je važno sudjelovati u tom procesu kako bismo osigurali njezinu sigurnu i odgovornu primjenu”, izjavila je glasnogovornica OpenAI-ja Liz Bourgeois.
Američko Ministarstvo obrane nije odgovorilo na upit za komentar.
Od opreza do otvorenog partnerstva
U prosincu 2023. OpenAI je najavio partnerstvo s tvrtkom Anduril radi razvoja i primjene AI sustava u “misijama nacionalne sigurnosti”. Prije objave zaposlenicima je rečeno da je riječ o ograničenom partnerstvu koje će se odnositi isključivo na neklasificirane zadatke.
To je bilo u suprotnosti s ugovorom koji je Anthropic sklopio s Palantirom, a koji je predviđao korištenje njihove umjetne inteligencije i u povjerljivim vojnim operacijama.
Glasnogovornik OpenAI-ja potvrdio je da im je Palantir u jesen 2023. ponudio sudjelovanje u programu “FedStart”. Tvrtka je to, međutim, odbila, poručivši zaposlenicima da bi rizik bio previsok. Unatoč tome, OpenAI danas s Palantirom surađuje na drugim projektima.
U vrijeme objave partnerstva s Andurilom nekoliko desetaka zaposlenika OpenAI-ja pridružilo se javnom Slack kanalu kako bi raspravljali o zabrinutosti zbog vojnih partnerstava tvrtke.
Neki su smatrali da su modeli umjetne inteligencije još uvijek previše nepouzdani čak i za obradu podataka o kreditnim karticama, a kamoli za primjenu na bojnom polju. Drugi su pak vjerovali da partnerstvo s Andurilom pokazuje kako tvrtka želi odgovorno upravljati takvim suradnjama.
“Pristup OpenAI-ja do sada je bio ‘dvaput mjeri, jednom reži’ kada je riječ o široj primjeni u povjerljivim operacijama. Zaposlenici aktivno raspravljaju o tome kakav pristup nacionalnoj sigurnosti je u skladu s našom misijom”, rekao je jedan od istraživača iz OpenAI-ja.
Duboke podjele i etičke dileme
Upravo zato posljednji ugovor s Pentagonom izazvao je toliko podjela među zaposlenicima.
Iako je Altman javno podržavao crvene linije tvrtke Anthropic – koja ne dopušta korištenje svoje umjetne inteligencije za masovni nadzor ili razvoj autonomnog oružja – čini se da OpenAI-jev ugovor, prema mišljenju nekih vanjskih pravnih stručnjaka, ostavlja prostor upravo za takve aktivnosti.
“Najveći gubitnici u svemu ovome su obični ljudi i civili u zonama sukoba. Naša sposobnost da razumijemo učinke vojne umjetne inteligencije u ratu ozbiljno je otežana zbog slojeva netransparentnosti uzrokovanih tehničkim dizajnom i politikom. Sve su to crne kutije”, napisala je Sarah Shoker, bivša voditeljica geopolitičkog tima OpenAI-ja.
Više od dvije godine nakon što je OpenAI uklonio opću zabranu vojne uporabe, čini se da je tvrtka u potpunosti prihvatila obrambena partnerstva.
Na sastanku sa zaposlenicima održanom u utorak Altman je navodno rekao da tvrtka nije ta koja odlučuje o tome kako će Ministarstvo obrane koristiti njihov softver. Također je izjavio da je zainteresiran za prodaju AI modela NATO-u, čime je signalizirao potpuni zaokret u politici koja je nekoć zabranjivala bilo kakvu vojnu primjenu.
Važna obavijest:
Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na web portalu Poslovni.hr dopušteno je samo registriranim korisnicima. Svaki korisnik koji želi komentirati članke obvezan je prethodno se upoznati s Pravilima komentiranja na web portalu Poslovni.hr te sa zabranama propisanim stavkom 2. članka 94. Zakona.Uključite se u raspravu