Od prepoznavanja lica do ‘deepfakea’: o nama ovisi upotreba AI-ja

Autor: Margrethe Vestager , 28. ožujak 2024. u 22:00
Foto: SHUTTERSTOCK

Europski akt o umjetnoj inteligenciji usmjeren je na upotrebu, a ne samu tehnologiju. Što je AI rizičniji, to su veće obveze za one koji ga razvijaju.

U Poznanu, 325 kilometara istočno od Varšave, tim tehnoloških istraživača, inženjera i skrbnika djece radi na maloj revoluciji. Njihov zajednički projekt, ‘Insension’, koristi se prepoznavanjem lica koje pokreće umjetna inteligencija (AI) kako bi se pomoglo djeci s dubokim intelektualnim i višestrukim poteškoćama u interakciji s drugima i okolinom, čime postaju povezanija sa svijetom.

To je dokaz snage te tehnologije koja brzo napreduje. Tisućama kilometara dalje, na ulicama Pekinga, državni dužnosnici koriste se prepoznavanjem lica pogonjenim AI-jem kako bi pratili svakodnevno kretanje građana i držali cjelokupno stanovništvo pod strogim nadzorom.

To je ista tehnologija, ali rezultat se bitno razlikuje. Dva primjera obuhvaćaju širi izazov: temeljna tehnologija sama po sebi nije ni dobra ni loša. Sve ovisi o tome kako se upotrebljava.

U osnovi dvojna priroda umjetne inteligencije govori o tome kako smo odlučili osmisliti Europski akt o umjetnoj inteligenciji, uredbu usmjerenu na upotrebu, a ne na samu tehnologiju. Naš se pristup svodi na jednostavno načelo: što je AI rizičnija, to su veće obveze za one koji je razvijaju.

AI sam po sebi nije ni dobar ni loš

Prepoznavanje lica koje pokreće umjetna inteligencija može služiti da bi se pomoglo djeci s poteškoćama u interakciji s drugima i okolinom, ali za praćenje i kontrolu građana.

Povjerenje je ključ
Umjetna inteligencija već omogućuje brojne bezopasne funkcije koje svakodnevno obavljamo, od otključavanja telefona do preporuke pjesama na temelju naših preferencija. Jednostavno ne moramo regulirati sve te namjene. Ali AI igra sve veću ulogu u odlučujućim trenucima nečijeg života. Kada banka pregleda nekoga kako bi utvrdila ispunjava li uvjete za hipoteku, ne radi se samo o zajmu; radi se o stavljanju krova nad glavu i omogućavanju nekome da stekne bogatstvo i teži financijskoj sigurnosti.

Isto vrijedi i kada poslodavci rabe softver za prepoznavanje emocija kao dodatak svom procesu zapošljavanja ili kada se AI rabi za otkrivanje bolesti na snimanju mozga. Potonje nije samo rutinski liječnički pregled, to je doslovno pitanje života ili smrti.

U takvim slučajevima novom se uredbom subjektima koji razvijaju AI nameću znatne obveze. Moraju ispunjavati niz zahtjeva, od provođenja procjena rizika do osiguravanja tehničke robusnosti, ljudskog nadzora i kibernetičke sigurnosti, prije puštanja svojih sustava na tržište.

Nadalje, Zakonom se zabranjuju sve uporabe koje su očito u suprotnosti s našim najtemeljnijim vrijednostima. Primjerice, AI se ne smije rabiti za “društveno bodovanje” ili subliminalne tehnike za manipuliranje ranjivim populacijama, kao što su djeca. Iako će neki tvrditi da ta kontrola na visokoj razini odvraća inovacije, u Europi na to drukčije gledamo. Za početak, bezvremenska pravila pružaju sigurnost i povjerenje koji su tehnološkim inovatorima potrebni za razvoj novih proizvoda.

Još važnije, AI neće ostvariti golem pozitivan potencijal ako joj krajnji korisnici ne vjeruju. Ovdje, čak i više nego u mnogim drugim područjima, povjerenje je pokretač inovacija. Kao regulatori, možemo stvoriti uvjete za procvat tehnologije poštujući našu dužnost osiguravanja sigurnosti i povjerenja javnosti.

Nedavni procvat modela AI-ja opće namjene (GPAI) poput ChatGPT-a ne samo da ne osporava europski pristup temeljen na riziku, već ga je učinio još relevantnijim. Iako ti alati pomažu prevarantima diljem svijeta da proizvode alarmantno vjerodostojne e-poruke za krađu identiteta, isti bi se modeli mogli rabiti i za otkrivanje sadržaja generiranog AI-jem.

U razmaku od samo nekoliko mjeseci, GPAI modeli podigli su tehnologiju na novu razinu u smislu mogućnosti koje nudi i rizika koje je uvela. Naravno, jedan od najstrašnijih rizika jest što možda nećemo uvijek moći razlikovati lažno od stvarnog.

‘Deepfakeovi’ (sintetički stvorene ili izmijenjene slike ili video zapisi, nastali uz pomoć AI-ja) već uzrokuju skandale i dolaze na naslovnice. Krajem siječnja lažne pornografske slike globalne pop ikone Taylor Swift dosegle su 47 milijuna pregleda na X-u (bivši Twitter) prije nego što je platforma konačno suspendirala korisnika koji ih je podijelio.

Štete za pojedinca i društvo
Nije teško zamisliti štetu koju takav sadržaj može nanijeti mentalnom zdravlju pojedinca. Međutim, ako se primjenjuje u još širim razmjerima, primjerice u kontekstu izbora, to bi moglo ugroziti cijelo stanovništvo.

Zakon o AI-u nudi izravan odgovor na ovaj problem. Sadržaj generiran umjetnom inteligencijom morat će biti označen kao takav, tako da svi odmah znaju da nije stvaran. To znači da će pružatelji morati osmisliti sustave tako da su sintetički zvuk, videozapisi, tekst i slike označeni strojno čitljivim formatom i da ih je moguće otkriti kao umjetno generirane ili manipulirane.

Tvrtkama pružit će se prilika da svoje sustave usklade s propisima. Ne budu li se pridržavala pravila, bit će kažnjena. Novčane kazne kretale bi se od 35 milijuna eura ili sedam posto globalnog godišnjeg prometa (ovisno o tome što je veće) za kršenja zabranjenih primjena AI-ja; 15 milijuna eura ili tri posto za kršenje drugih obveza te 7,5 milijuna eura ili 1,5 posto za pružanje netočnih informacija. Ali novčane kazne nisu jedine. Sustave koji nisu u skladu s propisima također će biti zabranjeno stavljati na tržište EU-a.

Europa je prvi pokretač donošenja propisa o AI-u, ali naši napori već pomažu u mobilizaciji odgovora na drugim mjestima. Budući da mnoge druge zemlje počinju prihvaćati slične okvire, uključujući SAD, koji surađuje s Europom na “pristupu umjetnoj inteligenciji koji se temelji na riziku kako bi se unaprijedile pouzdane i odgovorne tehnologije umjetne inteligencije”, uvjereni smo da je naš cjelokupni pristup ispravan.

Prije samo nekoliko mjeseci, to je inspiriralo čelnike zemalja skupine G7 da se dogovore o jedinstvenom Kodeksu ponašanja u području AI-ja. Međunarodne zaštitne ograde pomoći će u zaštiti korisnika dok se ne počnu primjenjivati zakonske obveze.

Umjetna inteligencija nije ni dobra ni loša, ali će uvesti globalnu eru složenosti i dvosmislenosti. U Europi smo osmislili regulativu koja to odražava. Vjerojatno više od bilo kojeg drugog zakonodavstva EU-a, ovo je zahtijevalo pažljivo uravnoteženje između moći i odgovornosti, između inovacija i povjerenja i između slobode i sigurnosti.

Komentirajte prvi

New Report

Close