c S
U središtu

Pregled novije poredbene sudske i zakonodavne prakse, br. 4/2024. – umjetna inteligencija

01.03.2024

Autor u članku donosi pregled novije europske zakonodavne prakse iz područja prava umjetne inteligencije.

Akt o umjetnoj inteligenciji – novine u zadnjoj verziji Nacrta Uredbe

Nakon službenog završetka trijaloga između Europske komisije, Europskog parlamenta i Vijeća Europske unije, tekst Nacrta Uredbe o umjetnoj inteligenciji dodatno se mijenjao tehničkim intervencijama država članica. Pretpostavlja se kako je trenutačna verzija predstojećeg Akta konačna, no dok god se Uredba službeno ne donese, moguće su nove izmjene i dopune. Neovisno o navedenome, u odnosu na zadnju analizu Akta o umjetnoj inteligenciji dogodile su se brojne izmjene na koje je potrebno upozoriti. Ova analiza sadržajno se naslanja na prethodno spomenutu te se neće ponavljati odnosno posebno upozoravati na one elemente Uredbe koji su utvrđeni kroz starije izmjene i dopune izvornika odnosno sam izvorni teksta Nacrta Uredbe.

Dodatna regulacija modela umjetne inteligencije za opću upotrebu

S obzirom na pojavu alata umjetne inteligencije za masovnu generaciju video, audio, tekstualnog i ostalog sadržaja, tzv. temeljni modeli odnosno baze podataka pogonjene algoritmima osposobljenim za strojno učenje dobili su novi naziv: modeli umjetne inteligencije za opću upotrebu (general purpose AI models). Značajna karakteristika koja se veže uz primjenu ovih modela umjetne inteligencije jest činjenica da se iz definicije modela umjetne inteligencije za opću upotrebu izuzimaju oni modeli koji se koriste za istraživanje i razvoj odnosno testiranje prije uvođenja na tržište. Na ovaj način se omogućava brži razvoj alata i sustava koji nije opterećen brojnim uvjetima koje Uredba nameće za proizvođače (razvojni programeri), uvoznike, distributere i korisnike (pružatelji usluge i krajnji korisnici) alata i sustava umjetne inteligencije kada se isti plasiraju na tržište. Iako se obveze između različitih aktera posebno određuju, moguće je da, primjerice, korisnik sustava umjetne inteligencije preuzme i one obveze koje primano pripadaju proizvođačima sustava u slučaju da korisnik u bitnoj mjeri izmjeni kod sustava umjetne inteligencije. Točne specifikacije ovakvih tumačenja još nisu određene.

Uredba uvodi pojam sustavnog rizika (systemic risk) koji označava one modele umjetne inteligencije za opću upotrebu čija kompleksnost i razina korištenja mogu dovesti do realizacije ozbiljnih ugroza odnosno nesreća, biti korišteni za kibernetički kriminal, ili dovesti do štete nanesene pojedincima uslijed dezinformacija i diskriminacije. Takvi modeli automatski prelaze u kategoriju visokog rizika. Interesantno je da se po pitanju klasifikacije pojedinih modela kao modela koji spadaju u kategoriju sustavnog rizika uvodi kvantitativna metoda klasifikacije kojom se određuje kako se podrazumijeva da svaki model umjetne inteligencije za opću upotrebu koji nadilazi 10^25 tzv. matematičkih operacija s pomičnim zarezom (floating point operations) ulazi u navedenu kategoriju. Ujedno, u istu kategoriju biti će moguće svrstati i druge modele temeljem metodologije i alata koji će naknadno biti određeni, odnosno odlukom Europske komisije ili drugog nadležnog tijela (pretpostavlja se da će i prethodno osnovani Europski ured za umjetnu inteligenciju u ovome imati svoju ulogu; više o Uredu za umjetnu inteligenciju).

Pružatelji usluge čiji je model umjetne inteligencije za opću upotrebu klasificiran kao model sustavnog rizika ima pravo osporavati takvu klasifikaciju pred Europskom komisijom. Neovisno o navedenome, u trenutku kada se dosegne broj prethodno navedenih matematičkih operacija, pružatelj je dužan o istome obavijestiti Europsku komisiju. Uredba predviđa javne registre pružatelja usluge modela sustavnog rizika, pri čemu je riječ isključivo o popisu a ne i o specifikaciji samih alata odnosno sustava umjetne inteligencije (restriktivne informacije u svrhu osiguranja adekvatne zaštite intelektualnog vlasništva). Sama Uredba ne uređuje detaljno navedene obveze, te se očekuju provedbeni i povezani propisi koji će detaljno urediti problematiku specifikacije i objave na javno dostupnom popisu pružatelja usluga.

Pružatelji usluge modela umjetne inteligencije za opću upotrebu koji su označeni kao modeli sustavnog rizika temeljem novijih izmjena i dopuna nose dodatne obveze. Pružatelji će biti dužni provoditi standardizirane evaluacije modela (jednom kada takve procedure budu utvrđene), utvrđivati i uklanjati sustavne rizike koji se nameću korištenjem modela, uspostaviti sustave za nadzor i izvještavanje ozbiljnih incidenata, te osigurati adekvatne mehanizme kibernetičke zaštite. Očekuje se kako će većinu ovih procedura razviti sama industrija (kodeks prakse) te kako će Ured za umjetne inteligenciju službeno evaluirati i odobravati tako razvijene procedure i standarde.

Zaštita autorskog prava

Bitna novost odnosi se na problematiku zaštite autorskog prava koja se posebno aktualizirala u posljednje dvije godine otkako se, ponajviše u Sjedinjenim Američkim Državama, odvijaju sve brojniji sudski postupci u kojima se nastoji utvrditi povreda autorskog prava na strani sustava umjetne inteligencije koji neovlašteno koriste brojne materijale ne samo za strojno učenje već i generaciju izlaznog sadržaja. Najpoznatiji takvi predmeti odnose sa na postupak protiv GitHub platforme, Microsofta i OpenAI-ja (generacija računalnog koda), postupak protiv Stability Diffusiona, DeviantArta i MidJourney-ja (generacija slika), Sarah Silverman i New York Times protiv OpenAI-ja (generacija teksta) i sl. Pružatelji usluge modela umjetne inteligencije za opću upotrebu dužni su posebno skrbiti o zaštiti autorskog prava na način da osiguraju transparentnost modela. Navedeno se posebno odnosi na baze podataka koje se koriste za strojno učenje modela u vezi kojih će pružatelji modela morati pripremiti javno dostupne opise sadržaja. Obrasce će pripremiti Ured za umjetnu inteligenciju, a iz njih će morati biti jasno kako su materijali uvršteni u baze podataka za strojno učenje prikupljani na način koji podrazumijeva pridržavanje europskih propisa o zaštiti autorskog prava. Svi pružatelji modela umjetne inteligencije za opću upotrebu morat će usvojiti posebne politike pridržavanja europskih propisa o zaštiti autorskog prava. Navedenim mjerama se nastoji zaustaviti praksa neovlaštenog preuzimanja materijala sa mrežnih stranica bez dopuštenja ovlaštenih osoba (tzv. data scraping). Ujedno se zahtjeva i dostupnost tehničke dokumentacije koja opisuju metode strojnog učenja i testiranja modela, te rezultate evaluacije modela.

Interesantno je za primijetiti kako se iz navedenih odredbi izuzimaju oni modeli umjetne inteligencije za opću upotrebu koji ne predstavljaju sustavni rizik i koji se nude besplatno ili uz licencije otvorenog koda. Na taj se način nekomercijalne aktivnosti koje nemaju kapaciteta stvarati ozbiljnije ugroze po temeljne vrijednosti ne opterećuju obvezama koje zahtijevaju određene napore i financijska sredstva.

Visokorizični sustavi

Visokorizični sustavi umjetne inteligencije mogu biti dio drugog proizvoda koji ulazi odnosno već je na tržištu, ili mogu biti samostalni proizvod na tržištu. U drugoj skupini, kako su predstavljeni u Aneksu III Uredbe, posebno se navode slijedeći primjeri visokorizičnih sustava umjetne inteligencije: sustavi koji se koriste prilikom određivanja mogućnosti korištenja mehanizama državne pomoći i pružanja potpore građanina, sustavi koje koriste tijela za provedbu zakona (naglasak na policiju, pravosuđe, te kontrolu granica i migracija), kadrovski sustavi i zapošljavanje, sustavi u edukaciji, sustavi koji se koriste za zaštitu kritične infrastrukture, sustavi za biometrijsku kategorizaciju i prepoznavanje emocija te korištenje biometrijske identifikacije u druge svrhe osim same identifikacije. Posljednja kategorija, oko koje se također vodio dio rasprave posljednjih godina, odnosi se na tehnologiju koja se već duži niz godina koristi u različitim pametnim uređajima, odnosno koja je postala standardna karakteristika novijih modela pametnih uređaja. Tehnologija biometrijske identifikacije koristi se za otključavanja pristupa pametnog uređaju, omogućavanje pristupa u zatvoreni prostor, pristup određenim računalnim sustavima i sl. Poseban aspekt biometrijske identifikacije jest mogućnost naknadne identifikacije osoba korištenjem povijesnih snimaka, odnosno profiliranja osoba korištenjem iste tehnologije. U slučaju kada se takvom tehnologijom koriste tijela za provedbu zakona, Akt predviđa posebna ograničena korištenja automatizirane obrade podataka u kontekstu biometrijske identifikacije u realnom vremenu ili naknadnoj obradi (real-time ili post-remote biometric identification), pod uvjetom da je za takvu obradu podataka pribavljen poseban nalog (prije obrade podataka, iznimno post-hoc kada je riječ o hitnim istražnim mjerama). O ovoj temi već je ranije pisano  te je dostatno za zaključiti kako se cijela rasprava oko biometrijske identifikacije u realnom vremenu u bitnoj mjeri okončala vraćanjem na prvotni tekst koji je mjestimično osnažen jasnijim isticanjem zabranjenih odnosno ograničenih aktivnosti (a koje su već u većoj mjeri bile obuhvaćene prvotnim nacrtom ili drugim postojećim zakonodavstvom (poput tzv. LED Direktive)).

S obzirom na osjetljivu prirodu tehnologije profiliranja osoba, kao posebna kategorija visokorizičnih sustava navode se svi sustavi umjetne inteligencije koji se koriste za profiliranje osoba (person profiling). Profiliranje osoba odnosi se na automatiziranu obradu (posebice osjetljivih) osobnih podataka kako bi se evaluirale odnosno odredile osobne karakteristike ispitanika. Takva se tehnologija već danas koristi kako bi se procijenila ekonomska situacija ispitanika (primjerice, kreditna sposobnost, o čemu je u kontekstu prakse Suda Europske unije već pisano), zdravstveno stanje ispitanika (opcija koja se već nudi u liječenju i drugim zdravstvenim uslugama), osobni interesi i sklonosti (primjerice, metodologija obrade digitalnih podataka koja se koristi u svrhu ciljanog oglašavanja), uobičajene lokacije i uobičajeno kretanje ispitanika (također korisno u svrhu ciljanog oglašavanja), ali i druge svrhe, poput praćenja uspješnosti rada i produkcije, ocjene učinkovitosti i pouzdanosti na radnome mjestu i sl.

Navedeni sustavi zahtijevat će najstrože određene sustave provjere i upravljanja rizicima. Mjere uključuju provjere usklađenosti prije stavljanja sustava umjetne inteligencije na europsko tržite, ispunjavanje niza tehničkih i operativnih preduvjeta za korištenje sustava upravljanja rizicima (uključuje redovito testiranje metoda zaštite odnosno sprječavanja nastupa rizika odnosno uklanjanja štetnih posljedica realiziranih rizika i osiguranje dostupne tehničke dokumentacije koja demonstrira prethodno navedene kapacitete), korištenje relevantnih standarda za obradu i pohranu podataka te korištenje adekvatnih baza podataka za strojno učenje, i implementaciju sustava za interni nadzor i automatiziranu evidenciju odnosno izvještavanje (poglavito bitno za utvrđivanje uzroka štete u slučaju kada sustav umjetne inteligencije proizvodi neželjene učinke).

Kao poseban preduvjet postavlja se implementacija načela transparentnosti prilikom dizajna sustava umjetne inteligencije s ciljem olakšavanja korisnicima sustava da razumiju i predvide izlazni sadržaj (output) sustava umjetne inteligencije, odnosno da ispravno i efikasno koriste sustave umjetne inteligencije. Transparentnost se također odnosi i na obvezu proizvođača da korisnicima ponudi niz drugih relevantnih podataka u vezi sustava, uključujući specifikacije procesne snage potrebne da se sustav umjetne inteligencije koristi, predviđeni životni vijek sustava te zahtjevi održavanja sustava. U bliskoj vezi s navedenim jest i potreba implementacije koncepta ljudskog nadzora (human oversight). Navedeno podrazumijeva mogućnost ljudskog korisnika da razumije procese sustava umjetne inteligencije tijekom rada sustava, razumije kako sustav generira (automatizirane) preporuke ili odluke te mogućnost ljudskog korisnika da utječe na ishod izlaznog sadržaja, odobrava ga ili odbija te prepoznaje segmente procesa koji su doveli do netočnih rezultata. Prema mišljenju brojnih inženjera, ovisno o tipu sustava umjetne inteligencije, jako je teško udovoljiti zahtjevima omogućavanja razumijevanja sustava umjetne inteligencije (AI explainability) obzirom na kompleksnost sustava i računalnih operacija odnosno ogromnog volumena podataka koje sustav umjetne inteligencije obrađuje i na temelju kojih bazira svoje preporuke ili odluke. Koncept human-in-the-loop odnosno karakteristika sustava umjetne inteligencije da iza svakog automatiziranog izlaznog sadržaja stoji provjera i konačno odobrenje ljudskog operatera za neke je sustave umjetne inteligencije moguća, dok za druge stoji pod velikim upitnikom obzirom na znatnu količinu izlaznog sadržaja koji sustav umjetne inteligencije generira odnosno puno veću količinu relevantnih informacija koje sustav umjetne inteligencije obrađuje kako bi predložio optimalno rješenje određenog problema. Drugim riječima, sama količina podataka i kompleksnost koda postaju prekomplicirani za ljude, te je izrazito teško u realnom vremenu nadzirati izlazni sadržaj, a još je teže o istome donositi kvalitetne odluke. Uredba implementira i druga načela koja se očituju kroz sposobnost sustava da efikasno i bez kvara obrađuje podatke, sposobnost sustava da se othrva kibernetičkim i sličnim ugrozama te sposobnost sustava da proizvodi izlazni sadržaj koji je točan, odnosno koji sadrži što je manje moguće tzv. lažnih potvrdnih (false positive) i tzv. lažnih negativnih (false negative) izlaznih rezultata.

Uredba je de facto preuzela osnovna pravna i etička načela umjetne inteligencije koje je nekoliko godina ranije (2019. godine) klasificirala i objavila posebna radna skupina oformljenja pri Europskoj komisiji u dokumentu pod naslovom Etičke smjernice za pouzdanu umjetnu inteligenciju (Ethics guidelines for trustworthy AI). Ista radna skupina godinu dana kasnije (2020. godine) objavila je, prema mišljenju autora ove kolumne, daleko značajni dokument pod naslovom Popis za procjenu pouzdane umjetne inteligencije (Assessment List for Trustworthy Artificial Intelligence). Svrha navedenih dokumenata jest analizirati osnovna načela korištenja sustava umjetne inteligencije kojima se štite temeljne europske vrijednosti. Dok je prvi dokument više opisnog karaktera koji pojašnjava kako se koje načelo uklapa u načelne obveze proizvođača, distributera i korisnika sustava umjetne inteligencije, drugi dokument postavlja vrlo konkretna pitanja u vezi usklađenosti različitih aspekata djelovanja svih uključenih aktera (naglasak na proizvođače i korisnike) s obzirom na postojeće europsko digitalno i drugo zakonodavstvo te ustaljenje poslovne prakse i standarde poslovanja. Drugi dokument predstavlja svojevrsni okvir samo-provjere usklađenosti sa standardima zaštite osobnih podataka i poslovnih procesa i kao takav izrazito je koristan u nastojanjima poslovnih subjekata da usvoje politike privatnosti temeljenje na principima privacy by design i privacy by default. Iako je trenutačno tekst Nacrta Uredba pomalo općenit kada govori o prethodno spomenutim općim načelima, kada se promatra u kontekstu velikog posla koji je Komisija odradila u prethodnom razdoblju postaje jasno u kojoj je mjeri Unija odradila pripremu za konkretizaciju određenih strogo pravnih ili etičkih termina, odnosno olakšala njihovu primjenu u praksi i poslovnim procesima. Stoga sve kritike koje ukazuju na površnost određenih dijelova Uredba treba promatrati proporcionalno nastojanju istih kritičara da obrate dužnu pažnju na druge radnje i aktivnosti koje Komisija provodi tijekom posljednjih 10-ak godina. Svaka kritika koja Uredbu promatra kao izolirani dokument propušta sagledati širu sliku digitalnog zakonodavstva i prateće dokumentacije koja ostavlja puno širi utjecaj na problematiku zaštite podataka i korištenja sustava umjetne inteligencije u europskom kontekstu.

Iznimno, Nacrt Uredbe dopušta mogućnost da se određeni sustavi umjetne inteligencije koji po svojoj prirodi spadaju u kategoriju sustava visokog rizika izuzmu iz primjene prethodno opisanih mjera. U tom smislu potrebno je dokazati kako takvi sustavi umjetne inteligencije, obzirom na namjenu za koju se koriste i koja je strogo definirana, ne predstavljaju ozbiljan rizik po sigurnost i zdravlje ljudi odnosno ugrozu temeljenih ljudskih prava. Konkretno, riječ je o sustavima umjetne inteligencije koji se odnose na rješavanje usko definiranih proceduralnih zadataka i pripremnih radnji evaluacije drugih sustava umjetne inteligencije (sukladno Aneksu III Uredbe), koji se nadovezuju na radnje i procedure koje su prethodno odradile ljudske osobe, odnosno koji služe za detekciju uzoraka donošenja odluka odnosno uzoraka odstupanja od prethodnih procedura donošenja odluka. Riječ je, u pravilu, o pomoćnim sustavima koji pružaju tehničku podršku glavnim sustavima umjetne inteligencije.

Po pitanju izlaznog sadržaja, posebna pažnja posvećuje se obvezi implementacije sustava jasnog označivanja kako je riječ o sadržaju generiranom kroz sustav umjetne inteligencije (nota bene, kinesko pravo ovdje govori o sintezi podataka i sintetičkom sadržaju (pojam koji se također počeo pojavljivati i u europskom kontekstu), i najdalje je otišlo u regulaciji takvog sadržaja i zaštite potrošača). Drugim riječima, korisnici moraju znati da je materijal koji pregledavaju odnosno sustav umjetne inteligencije koji koriste generiran korištenjem alata generativne umjetne inteligencije. Konkretnije, izlazni sadržaj alata generativne umjetne inteligencije mora nositi jasnu oznaku generacije umjetnom inteligencijom (tzv. watermarking).

Uredba izrijekom imenuje tzv. prikaze lažne identifikacije (deepfake), odnosno generirani sadržaj čija je svrha zavarati treće osobe o identitetu generiranog izlaznog sadržaja. Takvi alati široko su rasprostranjeni, a od ostalih generativnih alata umjetne inteligencije razlikuju se po tome što su sposobni imitirati nečije lice, glas, stil govora, mimiku pokreta, i sl. Ova kategorija alata generativne umjetne inteligencije posebno je opasna obzirom da su takvi alati dostupni svim korisnicima interneta (često bez dobnog ograničenja), i što omogućavaju generaciju neograničenog lažnog i dezinformirajućeg sadržaja koji je teško u praksi osporavati (kada je riječ o kvalitetnijim alatima). Posebnim označavanjem izlaznog sadržaja takvih alata nastojati se ograničiti štetan doseg takvog sadržaja u javnom prostoru. Navedeno je poglavito aktualna tema u kontekstu tekućih brojnih izbornih procesa (super-izborna 2024. godina i strah od deepfake sadržaja kojima se nastoji utjecati na ishod izbora) i ratnih područja (deepfake sadržaj kojim se nastoji unijeti nemir među protivničke redove i otežati protivničku komunikaciju).

Uredba u ovom trenutku predviđa dvije iznimke; jedna se tiče korištenja sustava umjetne inteligencije za generaciju sadržaja od strane tijela za provedbu zakona (kada istražne mjere zahtijevaju prikrivanje korištenja takvih alata), dok se druga, vrlo općenito, odnosi na one situacije kada je korisnicima očito kako je riječ o sadržaju koji generira umjetna inteligencija. Drugu navedenu iznimku biti će potrebno dodatno rastumačiti kako bi postalo jasno na koje se sve potencijalne situacije odnosi.

Nepridržavanje odnosno neprovođenje navedenih mjera može dovesti do kazni u iznosi od 15 milijuna € ili 3% globalne dobiti (koji je iznos veći). U slučaju propuštanja pravovremenog ili ispravnog izvještavanja, predviđena je maksimalna kazna u iznosu od 7.5 milijuna € ili 1% globalne dobiti (koji je iznos veći).

Novi popis zabranjenih sustava umjetne inteligencije

Konačno, zadnja verzija Nacrta Uredbe donosi nešto detaljniji popis odnosno opis zabranjenih praksi korištenja sustava umjetne inteligencije. Kao što je prethodno već upozoreno, korištenje biometrijske identifikacije od strane tijela za provedbu zakona je posebno propisano, odnosno ograničeno na točno određene istražne mjere. Svako korištenje navedene tehnologije od strane tijela za provedbu zakona izvan propisanog okvira jest zabranjeno. Nadalje, zabranjuje se korištenje sustava umjetne inteligencije za podsvjesno utjecanje na osobe i njihove stavove i razmišljanja. Riječ je tehnikama utjecaja na javni narativ, stavove skupina odnosno pojedinaca na način da se biranim sadržajem utječe na njihove stavove bez da su objekti takvih mjera istoga svjesni. Riječ je o metodologijama dezinformacija koje ne počivaju nužno na isključivo lažnom sadržaju, već se odnose na sadržaj koji je izvučen izvan konteksta i prezentiran na način da se naglašavaju točno birane i određene točke rasprave. U praksi je jako teško detektirati takve obrasce, i još teže utvrditi njihovo točno podrijetlo.

Nastavno na prethodno, Uredbom se nadalje zabranjuje korištenje sustava umjetne inteligencije kojima se iskorištavaju slabe točke pojedinaca temeljeno na podacima relevantnim za njihovu dob, posebne potrebe, društveni kontekst njihovog bivanja odnosno ekonomsku situaciju u kojoj se nalaze. Slično navedenom, zabranjuje se korištenje sustava umjetne inteligencije kojima se obradom biometrijskih podataka prikupljaju odnosno kategoriziraju osjetljivi podaci odnosno osobne karakteristike ispitanika (kao relevantni elementi navode se rasa, politički stavovi, članstva u udruženjima, vjerska i filozofska stajališta, te seksualne sklonosti). Kod ovakvih zabrana Uredba u pravilu dodaje iznimku kada je riječ o obradi podataka koju, u zakonite svrhe, provode tijela za provedbu zakona (Uredba u tom kontekstu slijedi primjer GDPR Uredbe koja iz polja primjene izmiče obradu podataka koju provode tijela za provedbu zakona, a što je uređeno drugim, vrlo sličnim dokumentom, tzv. LED Direktivom). U Uredbi se također spominje i relativno nejasna zabrana korištenja metoda društvenog kreditiranja kako bi se obradom metričkih podataka o ponašanju pojedinaca iste klasificiralo u određene podređene grupacije. Nešto preciznija zabrana odnosi se na korištenje tehnologije prediktivne policijske obrade koja se temelji isključivo na podacima vezanim uz osobne karakteristike ispitanika (u tom smislu već postoji prakse ispred sudova država članica). S obzirom na pojavu kompanija poput Clearview AI-ja (o čemu se više puta pisalo u ovoj kolumni), ne iznenađuje činjenica kako se Uredbom izrijekom zabranjuje izrada i korištenje baza za biometrijsku identifikaciju temeljem ilegalno prikupljenih prikaza lica s interneta ili snimki sustava za videonadzor (CCTV systems). Konačno, zabranjuje se korištenje sustava umjetne inteligencije kojima se detektiraju emocije u radnom prostoru ili prostoru gdje se provodi edukacija. Iznimno se takvi sustavi dopuštaju ako služe u zaštitne odnosno sigurnosne svrhe štićenog objekta i prostora.

Nepridržavanje navedenih zabrana može dovesti do kazni u iznosi od 35 milijuna € ili 7% globalne dobiti (koji je iznos veći).

Ostale novine

Od ostalih noviteta vrijedi spomenuti i predviđeno osnivanje Europskog odbora za umjetnu inteligenciju, koji će po svojoj formi i ulozi biti sličan Europskom odboru za zaštitu podataka. Druga tijela uključuju Znanstveni panel i Savjetodavni forum čija je uloga pružanje tehničke i druge podrške Uredu i Odboru za umjetnu inteligenciju. Uredba nadalje precizira kako svaka država članica mora imenovati nadležno državno tijelo koje će provoditi mjere nadzora tržišta i izvještavanja. Moguće je da će navedene funkcije obavljati dva odvojena tijela ili samo jedno tijelo te je također moguće kako će navedene funkcije obavljati već postojeća tijela ili novo oformljeno nadležno tijelo (kao što je slučaj sa Španjolskom). Države članice imaju slobodu izbora između navedenih mogućnosti.

I kao posljednja stavka, upozorava se kako je novijim izmjenama predloženog zakonodavnog teksta samo dodatno naglašeno kako će veliku ulogu u definiranju istinskog europskog normativnog zahvata u području umjetne inteligencije odigrati brojni predviđeni dodatni dokumenti poput provedbenih akata, kodeksa poslovanja i ponašanja odnosno tehničkih standarda. Tek nakon što se donesu navedeni dokumenti postat će jasno na koji točno način i u kojoj mjeri normativni okvir ulazi u poslovanje brojnih poslovnih i drugih subjekata na europskom tržištu. Vlada Ujedinjene Kraljevine još je prije nekoliko godina donijela odluku kako će prvotni val regulacije umjetne inteligencije prepustiti praksi i razvoju industrijskih standarda. Slično tome, spori zakonodavni put u Sjedinjenim Američkim Državama, prvenstveno vođen policy dokumentima Bijele kuće, predviđa eventualno sektorsku regulaciju sustava umjetne inteligencije prije nego što se počne kontemplirati sveobuhvatni normativni zahvat.

U tom smislu, iako se europski pristup doima kao primani sveobuhvatni zahvat kojim zakonodavac, prema mišljenju mnogih kritičara, sebe stavlja ispred tehnoloških partnera, pažljivo iščitavanje Nacrta Uredbe pokazuje kako je europski pristup regulaciji umjetne inteligencije puno sličniji anglosakonskoj filozofiji nego što se to čini na prvi pogled. Najveći dio obveza koji se propisuje bit će dodatno uređen i razrađen od strane struke, a što predstavlja osnovu normativnog uređenja. Različita tijela ispred Komisije imat će prvenstveno nadzornu i inspekcijsku ulogu te će u pravilu sudjelovati u verifikaciji i odobravanju metoda i mjera koje de facto predlaže industrija samostalno ili u suradnji s europskim tijelima i agencijama. U suštini, takav pristup sadržajno odgovara onome što je najavljeno u Ujedinjenoj Kraljevini i Sjedinjenim Američkim Državama. Kina balansira između sveobuhvatnog i sektorskog pristupa te također daje prostora svojoj industriji da da jasan obol tehničkim specifikacijama koje se reflektiraju u pravnim obvezama uključenih dionika.

Evidentno je kako je rapidan razvoj tehnologije, koja svoje korijene vuče iz 50-godina prošlog stoljeća, u posljednjih nekoliko godina doveo do zabrinutosti zakonodavnih tijela brojnih zemalja, ali istovremeno ukazao na nužnost simbioze struke i zakonodavne vlasti u iznalaženju normativnih rješenja koja će maksimalno miriti zahtjeve struke s jedne strane te interese javnosti s druge. Zaključno, o ovoj temi biti će još dosta govora u ovoj kolumni.

izv. prof. dr. sc. Mihael Mudrić, Pravni fakultet Sveučilišta u Zagrebu