Europski parlament na korak je do formaliziranja svojih smjernica i preporuka za primjenu umjetne inteligencije u različitim sektorima i područjima.
Naime, europski parlamentarci proveli su raspravu o sadržaju Zakona o umjetnoj inteligenciji EU, a nakon kompromisnih amandmana, dogovorili su se oko konačne verzije prijedloga zakona, takozvanog AI Acta. Nekoliko prilagodbi vezanih uz generativnu umjetnu inteligenciju u zadnji tren uključeno je u prijedlog.
“Dobili smo potvrdu da će se o prijedlogu zakona glasati u odboru 11. svibnja 2023. nakon što su kompromisni amandmani dogovoreni tijekom internih razgovora”, izjavio je službenik parlamenta. “Nakon toga slijedi glasovanje na plenarnoj sjednici u lipnju, nakon čega će se pokrenuti razgovori s Vijećem (državama članicama) kako bi se postigao međuinstitucionalni sporazum prije kraja godine.”
Od početka 2020. godine, Europska komisija radi na regulatornom okviru za umjetnu inteligenciju. U travnju 2021. Komisija je predložila skup nacrta propisa za Zakon o umjetnoj inteligenciji s ciljem stvaranja sveobuhvatnog pravnog okvira za razvoj i primjenu sustava umjetne inteligencije u EU-u. Za konačno usvajanje Zakona o umjetnoj inteligenciji EU, potrebna je ratifikacija Europskog parlamenta.
Nacrt propisa za umjetnu inteligenciju koji je predložen obuhvaća različite primjene AI tehnologije, s ciljem osiguranja transparentnosti i povjerenja u njezino korištenje, zaštite temeljnih prava i sloboda, kao i promicanja etičkih načela i sigurnosti u razvoju i primjeni umjetne inteligencije.
Sigurnost i zaštita
U prijedlogu se posebno naglašavao problem suočavanja sa sustavima umjetne inteligencije koji nisu bili predviđeni za specifične slučajeve upotrebe. To je posebno postalo vidljivo nakon što je generativni AI model ChatGPT izazvao poremećaj u procesu, kada je postao popularan među korisnicima kao model koji odgovara na pitanja temeljena na kontekstu, unatoč tome što nije bio projektiran za takvu vrstu upotrebe.
Europski parlament donio je odluku da generativni alati poput ChatGPT-a, DALL-E-a i Midjourneya moraju biti regulirani u smislu dizajna i implementacije, kako bi bili u skladu s temeljnim pravima i zakonima EU, uključujući slobodu izražavanja.
Novi zakon uključuje obvezu da ovi alati otkrivaju sav materijal koji je zaštićen autorskim pravima, a koji se koristi za razvoj njihovih sustava. Nadalje, zahtijeva se testiranje i ublažavanje predvidljivih rizika za zdravlje, sigurnost, temeljna prava, okoliš, demokraciju i vladavinu prava, s uključivanjem neovisnih stručnjaka. Ova velika promjena osigurat će transparentnost i sigurnost u korištenju generativnih AI modela.
Ostali zahtjevi za generativne AI modele uključuju testiranje i ublažavanje razumno predvidljivih rizika za zdravlje, sigurnost, temeljna prava, okoliš, demokraciju i vladavinu prava, uz uključivanje neovisnih stručnjaka.
Zakon također nalaže dokumentiranje rizika koji se ne mogu ublažiti u modelima umjetne inteligencije i razloge zašto oni nisu riješeni. Postojala je zabrinutost da bi se ChatGPT mogao koristiti u zlonamjerne svrhe, uključujući stvaranje materijala za krađu identiteta, infostealer korisnih sadržaja, DDoS-a i binarnih skripti ransomwarea.
Tko ih smije koristiti
Stručnjaci se pitaju mogu li se propisi za sustave temeljene na velikim jezičnim modelima (LLM), kao što su ChatGPT i DALL-E, donijeti bez utjecaja na njihovu temeljnu funkcionalnost.
“Sasvim jednostavno – nemam pojma kako se regulira nešto poput ChatGPT-a, a da se ne umanji učinkovitost njihovog rješenja”, rekao je Chris Steffen, analitičar u Enterprise Managementu.
“Osim toga, što je s instancama koje su stvorene posebno za opake svrhe? Jednom kada tehnologija postane uobičajena i dostupna, loši akteri trebali bi moći (i hoće) postaviti svoj vlastiti ‘bad guy Chat AI’ da radi što god žele i optimizira za te svrhe. Dakle, regulirate li (i možete li) i tehnologiju? Nije vjerojatno.”
Osim nedavne rasprave o umjetnoj inteligenciji opće namjene, zakon se prvenstveno usredotočuje na klasifikaciju postojećih rješenja umjetne inteligencije u kategorije temeljene na riziku — neprihvatljivo, visoko, ograničeno i minimalno. Sustavi umjetne inteligencije koji predstavljaju samo ograničene i minimalne rizike, poput onih koji se koriste za filtre neželjene pošte ili videoigre, mogu se koristiti uz male zahtjeve sve dok postoji transparentnost.
Međutim, sustavi umjetne inteligencije koji predstavljaju neprihvatljive rizike, kao što su oni koji se koriste za državne sustave društvenog bodovanja i sustave biometrijske identifikacije u stvarnom vremenu u javnim prostorima, općenito neće biti dopušteni, uz nekoliko iznimaka.
Zastupnici su potvrdili zabranu prepoznavanja emocija u području provedbe zakona, pri upravljanja granicama, na radnom mjestu i u obrazovanju. Zabrana prediktivnog rada policije proširena je na upravne prekršaje po uzoru na nizozemski skandal s dječjim doplatkom. Sustavi preporuka vrlo velikih internetskih platformi dodani su na popis visokorizičnih slučajeva upotrebe, dok će se umjetna inteligencija koja se koristi u kritičnoj infrastrukturi također smatrati visokorizičnom ako ima potencijal izazvati ozbiljnu štetu okolišu.
Razvojnim programerima i korisnicima dopušteno je koristiti visokorizične AI sustave, ali moraju se pridržavati propisa koji nalažu temeljito testiranje, odgovarajuću dokumentaciju o kvaliteti podataka i okvir odgovornosti koji ocrtava ljudski nadzor.
Primjeri AI sustava koji se smatraju visokorizičnim uključuju autonomna vozila, medicinske uređaje i kritičnu infrastrukturu. Dogovor postignut krajem travnja, formalizira se,te još uvijek podliježe manjim prilagodbama prije glasovanja 11. svibnja, gdje će sve političke skupine morati glasovati o kompromisu bez mogućnosti alternative. izmjene i dopune.