Za razliku od popularnih platformi kao što su ChatGPT ili Gemini, novi AI asistent nazvan Confer ne prikuplja niti pohranjuje korisničke podatke za treniranje modela, bilježenje aktivnosti ili eventualni pravni pristup.
Čovjek koji stoji iza najsigurnije aplikacije za dopisivanje, Signal, sada želi uvesti istu razinu sigurnosti u svijet umjetne inteligencije. Razgovore s Conferom ne mogu čitati čak ni administratori poslužitelja jer platforma šifrira svaki dio korisničke interakcije i radi u takozvanom pouzdanom izvršnom okruženju, ne dopuštajući osjetljivim podacima da ikada napuste taj šifrirani prostor.
Ne postoje spremljeni podaci koji se provjeravaju, koriste za obuku ili prodaju drugim tvrtkama, što Confer čini iznimkom u industriji gdje se podaci obično smatraju glavnom vrijednošću besplatnih AI chatbotova.
Privlačnost ovakvog pristupa je očita, pogotovo jer je povjerenje potrošača u privatnost umjetne inteligencije već sada ozbiljno poljuljano. Korisnici postaju svjesni da ono što govore ovim sustavima ne ostaje uvijek privatno. Prošlogodišnji sudski nalog prisilio je OpenAI da sačuva sve zapise korisnika ChatGPT-ja, čak i one izbrisane, za potencijalnu upotrebu u pravnim postupcima.
U jednom trenutku su se razgovori s ChatGPT-jem čak pojavili u rezultatima Google pretraživanja zbog slučajno javno objavljenih poveznica. Veliku buru u javnosti izazvalo je i otkriće da vanjski suradnici pregledavaju anonimizirane transkripte razgovora koji su sadržavali osobne zdravstvene informacije korisnika.
Conferova sigurnost ide korak dalje od većine proizvoda usmjerenih na privatnost, a temelji se na enkripciji podataka prije nego što uopće stignu na poslužitelj, koristeći pristupne ključeve pohranjene isključivo na korisnikovom uređaju. Ti se ključevi nikada ne prenose niti dijele. Iako platforma podržava sinkronizaciju razgovora između više uređaja, zahvaljujući kriptografskom dizajnu čak ni tvorci Confera ne mogu otključati te podatke.
Jednostavno rečeno, to je ChatGPT sa sigurnošću aplikacije Signal. Dizajn nudi i značajku nazvanu daljinska potvrda, koja omogućuje svakom korisniku da provjeri točno koji se kod izvršava na Conferovim poslužiteljima, budući da je cjelokupni softverski paket javan, a svako izdanje digitalno potpisano.
Iako postoje postavke privatnosti na drugim AI chatbotovima, one su uglavnom reaktivne i zahtijevaju od korisnika da ih sam pronađe i isključi. ChatGPT, Gemini i Meta AI nude opcije za isključivanje povijesti razgovora ili zabranu korištenja podataka za treniranje, ali zadano stanje je nadzor, a odgovornost za isključivanje prebačena je na korisnika.
Confer preokreće tu postavku čineći najprivatniju opciju zadanom i ugrađenom u samu srž sustava. To bi moglo podići svijest, ako ne i potražnju potrošača, za više AI chatbotova koji zaboravljaju, umjesto da pamte svaki detalj razgovora.
Potencijal za širu primjenu
Ovakva razina transparentnosti možda neće biti presudna svakom korisniku, ali za programere, organizacije i nadzorna tijela koja pokušavaju procijeniti kako se postupa s njihovim podacima, to je radikalna razina sigurnosti. Kako piše TechRadar, upravo bi to moglo omogućiti zabrinutim zaljubljenicima u umjetnu inteligenciju da napokon odahnu.
Organizacije poput škola i bolnica, koje su zainteresirane za implementaciju umjetne inteligencije, mogle bi biti posebno privučene alatima koji jamče povjerljivost samim svojim dizajnom, otvarajući vrata sigurnijoj primjeni AI tehnologije u osjetljivim sektorima.
Važna obavijest:
Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na web portalu Poslovni.hr dopušteno je samo registriranim korisnicima. Svaki korisnik koji želi komentirati članke obvezan je prethodno se upoznati s Pravilima komentiranja na web portalu Poslovni.hr te sa zabranama propisanim stavkom 2. članka 94. Zakona.Uključite se u raspravu