Poslovni.hr slavi 20.rođendan
EN DE

OpenAI nudi pola milijuna dolara za ovaj posao: Bit će stresno, tražimo nekoga tko je odmah spreman ‘skočiti u duboko’

Autor: Poslovni.hr
30. prosinac 2025. u 12:13
Podijeli članak —
Foto: REUTERS/Shelby Tauber

OpenAI je otvorio jedno od najneobičnijih radnih mjesta u AI industriji, šefa pripravnosti za rizike. U fokusu su cyber napadi, mentalno zdravlje i zloupotreba sve moćnijih modela.

OpenAI je objavio oglas za posao “Head of Preparedness”, ulogu koja bi trebala prepoznavati i smanjivati rizike koje donose sve napredniji AI modeli.

Šef OpenAI-ja Sam Altman u objavi na X-u je poručio da će to biti stresan posao i da će osoba praktički odmah “skočiti u duboko”, a u oglasu se navodi plaća od 555.000 dolara godišnje, uz dodatni equity. U praksi, to znači da OpenAI traži nekoga tko će voditi tehničku strategiju njihovog “Preparedness” okvira, odnosno sustava kojim mjere sposobnosti modela, rade procjene prijetnji i postavljaju zaštite prije puštanja novih verzija, pišu 24sata.

Zašto sada ovakav fokus? Zato što se AI modeli sve češće spominju u kontekstu zloupotrebe, od cyber napada do osjetljivih bioloških scenarija, a industrija se i dalje u velikoj mjeri sama regulira. Guardian piše da bi osoba na toj poziciji bila direktno odgovorna za obranu od rizika koji uključuju mentalno zdravlje, cyber sigurnost i potencijalnu zloupotrebu u području biologije. 

U istom paketu dolazi i neugodna tema mentalnog zdravlja. Guardian navodi da se OpenAI suočava s tužbama i teškim optužbama povezanim s načinom na koji su pojedini korisnici koristili ChatGPT, dok je tvrtka poručila da radi na poboljšanjima kako bi sustav bolje prepoznavao znakove emocionalne krize i usmjerio ljude prema pomoći u stvarnom svijetu. 

Cyber dio priče je također sve glasniji. Reuters je nedavno prenio da OpenAI upozorava kako bi nadolazeći modeli mogli predstavljati “visoki” cyber rizik, uz procjene da napredak ide brzo i da će se sposobnosti nastaviti pojačavati. U takvom okruženju uloga “pripravnosti” postaje pokušaj da se prije objave modela jasnije izmjeri što sve može, kako bi se smanjio prostor za zloupotrebu.

Ukratko, ovo nije “još jedan posao u AI-ju”, nego pozicija koja bi trebala biti svojevrsni sigurnosni filter između laboratorija i stvarnog svijeta. OpenAI time šalje poruku da želi ozbiljnije mjeriti rizike dok modeli postaju jači, ali i da je lista problema koju treba pokriti već sada dovoljno velika da Altman unaprijed upozorava: neće biti ugodno.

Autor: Poslovni.hr
30. prosinac 2025. u 12:13
Podijeli članak —
Komentirajte prvi

Moglo bi vas Zanimati

New Report

Close