Najnovije

Kako sprečiti da algoritamsko odlučivanje u Srbiji ostane pravno nevidljivo

Kako sprečiti da algoritamsko odlučivanje u Srbiji ostane pravno nevidljivo

foto: rawpixel.com / Freepik

Rasprava o regulaciji veštačke inteligencije u Srbiji prečesto počinje pogrešnim pitanjem: da li je potreban poseban zakon. U trenutku kada Evropska unija postepeno uvodi i primenjuje AI Act, nameće se očekivanje da Srbija treba da učini isto. To jeste važno, ali nije suština problema.

Mnogo veći izazov leži dublje. Pravni okvir u Srbiji i dalje ne propisuje dovoljno jasno pod kojim uslovima sistemi veštačke inteligencije smeju da se koriste u odlučivanju koje neposredno utiče na prava građana.

Danas u Srbiji organizacije mogu da uvedu sisteme koji procenjuju kandidate za posao, utiču na procenu kreditne sposobnosti ili učestvuju u odlučivanju u javnoj upravi, a da pritom ne postoje dovoljno precizna pravila o tome šta moraju da provere pre njihove primene, kako da dokumentuju način na koji ti sistemi funkcionišu i koja prava ima lice pogođeno takvom odlukom. Drugim rečima, upotreba takvih sistema faktički je moguća, ali pravila koja bi je učinila odgovornom, proverljivom i osporivom i dalje nisu dovoljno razvijena.

Postojeći propisi dotiču ovaj problem, ali ga ne rešavaju u celini. Zakon o zaštiti podataka o ličnosti uređuje automatizovano donošenje pojedinačnih odluka, ali samo u okviru obrade podataka o ličnosti. Njegov fokus je pre svega zaštita podataka i privatnosti, a ne celovito uređenje logike, testiranja, nadzora i odgovornosti AI sistema kao takvih.

Zato je taj okvir nedovoljan za šire izazove koje otvara veštačka inteligencija. Nije dovoljno da pojedinac samo bude obavešten da je odluka doneta automatizovano. Pravila moraju da obezbede razumljivo objašnjenje, stvarnu mogućnost ljudske intervencije i efikasno osporavanje odluke pred ovlašćenim licem koje može da je preispita. Bez toga, pravna zaštita ostaje formalna i suštinski slaba.

Sličan problem postoji i u javnoj upravi. Propisi koji uređuju digitalizaciju uprave omogućavaju elektronske postupke, ali ne postavljaju dovoljno jasno granice i obaveze kada se u tim postupcima koristi veštačka inteligencija. Ako AI sistem utiče na odluku o pravima građana, zakon mora da zahteva najmanje tri stvari: stvarnu ljudsku kontrolu, obavezu organa da može da obrazloži odluku i pravo građanina da zna da je u njegovom slučaju korišćen takav sistem. U suprotnom, odgovornost se faktički razvodnjava, iako pravo i dalje polazi od toga da odluke donose ljudi i da one moraju biti pravno obrazložene i podložne pravnoj zaštiti.

Ali ni izmene postojećih zakona same po sebi nisu dovoljne. Uz njih je potreban i poseban zakon o veštačkoj inteligenciji, ali ne kao apstraktan okvir za svaku moguću upotrebu. Njegova svrha treba da bude uža i preciznija: da jasno identifikuje sisteme visokog rizika i da za njih uvede strože obaveze. To podrazumeva procenu rizika pre primene, odgovarajuću dokumentaciju, vođenje evidencije o radu sistema i kontinuirani nadzor nad njegovim efektima. Bez takvih mehanizama, pravni sistem ostaje reaktivan i interveniše tek kada šteta nastane, umesto da unapred postavi standarde.

Dodatni izazov je to što se veštačka inteligencija koristi u različitim sektorima, a pravni rizici nisu isti. U zapošljavanju su ključna pitanja diskriminacija i transparentnost kriterijuma. U finansijskom sektoru u fokusu su procena rizika i odgovornost za pogrešne odluke. U javnoj upravi presudna su zakonitost postupka i pravo na pravnu zaštitu. Zato jedan zakon ne može da pruži sve odgovore: efikasna regulacija mora da poveže opšti okvir sa preciznijim pravilima za pojedine oblasti.

U suprotnom, postoji realan rizik da Srbija dobije zakon koji formalno uređuje veštačku inteligenciju, ali ne menja način na koji se odluke donose u praksi. To je već poznat obrazac: normativni okvir postoji, ali ne utiče dovoljno na stvarne odnose.

Zato pravo pitanje nije da li će Srbija doneti zakon o veštačkoj inteligenciji, već da li će uspeti da spreči da algoritamsko odlučivanje ostane pravno nevidljivo. Ako pravila ne obezbede transparentnost, mogućnost kontrole i jasnu odgovornost, veštačka inteligencija neće unaprediti pravni sistem, već će ga zaobići.

Autor: Zoran Hardi