OpenAI je objavio oglas za posao “Head of Preparedness”, ulogu koja bi trebala prepoznavati i smanjivati rizike koje donose sve napredniji AI modeli.
Šef OpenAI-ja Sam Altman u objavi na X-u je poručio da će to biti stresan posao i da će osoba praktički odmah “skočiti u duboko”, a u oglasu se navodi plaća od 555.000 dolara godišnje, uz dodatni equity. U praksi, to znači da OpenAI traži nekoga tko će voditi tehničku strategiju njihovog “Preparedness” okvira, odnosno sustava kojim mjere sposobnosti modela, rade procjene prijetnji i postavljaju zaštite prije puštanja novih verzija, pišu 24sata.
Zašto sada ovakav fokus? Zato što se AI modeli sve češće spominju u kontekstu zloupotrebe, od cyber napada do osjetljivih bioloških scenarija, a industrija se i dalje u velikoj mjeri sama regulira. Guardian piše da bi osoba na toj poziciji bila direktno odgovorna za obranu od rizika koji uključuju mentalno zdravlje, cyber sigurnost i potencijalnu zloupotrebu u području biologije.
We are hiring a Head of Preparedness. This is a critical role at an important time; models are improving quickly and are now capable of many great things, but they are also starting to present some real challenges. The potential impact of models on mental health was something we…
— Sam Altman (@sama) December 27, 2025
U istom paketu dolazi i neugodna tema mentalnog zdravlja. Guardian navodi da se OpenAI suočava s tužbama i teškim optužbama povezanim s načinom na koji su pojedini korisnici koristili ChatGPT, dok je tvrtka poručila da radi na poboljšanjima kako bi sustav bolje prepoznavao znakove emocionalne krize i usmjerio ljude prema pomoći u stvarnom svijetu.
Cyber dio priče je također sve glasniji. Reuters je nedavno prenio da OpenAI upozorava kako bi nadolazeći modeli mogli predstavljati “visoki” cyber rizik, uz procjene da napredak ide brzo i da će se sposobnosti nastaviti pojačavati. U takvom okruženju uloga “pripravnosti” postaje pokušaj da se prije objave modela jasnije izmjeri što sve može, kako bi se smanjio prostor za zloupotrebu.
Ukratko, ovo nije “još jedan posao u AI-ju”, nego pozicija koja bi trebala biti svojevrsni sigurnosni filter između laboratorija i stvarnog svijeta. OpenAI time šalje poruku da želi ozbiljnije mjeriti rizike dok modeli postaju jači, ali i da je lista problema koju treba pokriti već sada dovoljno velika da Altman unaprijed upozorava: neće biti ugodno.
Važna obavijest:
Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na web portalu Poslovni.hr dopušteno je samo registriranim korisnicima. Svaki korisnik koji želi komentirati članke obvezan je prethodno se upoznati s Pravilima komentiranja na web portalu Poslovni.hr te sa zabranama propisanim stavkom 2. članka 94. Zakona.Uključite se u raspravu