S sprejemom dogovora Evropska unija, podobno kot na področju varstva osebnih podatkov in digitalnih storitev, kot »globalni regulator« določa standarde urejanja in nadzora uporabe umetne inteligence (UI).

Osrednji del uredbe bo začel veljati 24 mesecev po objavi v uradnem listu EU, prepovedi po šestih mesecih, kodeksi ravnanja po devetih mesecih, modeli in sistemi splošnega namena, zmožni učenja (general-purpose AI, GPAI) pa po 12 mesecih. Za nadzor izvajanja vseh določil pri uporabi sistemov UI z visokim tveganjem je določena pristojnost evropskega nadzornika za varstvo podatkov, ki skrbi, da institucije in organi EU (institucije, telesa, pisarne in agencije) pri obdelavi osebnih podatkov spoštujejo pravico državljanov do zasebnosti.

Pomembna je stopnja tveganja

Temeljno izhodišče akta o umetni inteligenci določa, da morajo biti sistemi UI, ki se uporabljajo v EU, varni, pregledni, sledljivi, nediskriminatorni in okolju prijazni, pri ukrepih pa so se v EU odločili za pristop, ki določa obveznosti za ponudnike in uporabnike glede na stopnjo tveganja, ki ga povzroča UI.

Uporaba umetne inteligence tam, kjer je tveganja ničelno ali minimalno, ne bo omejena. V primeru, da bo uporaba umetne inteligence prispevela k visokim tveganjem, pa bo strožje regulirana, v nekaterih primerih pa bo povsem prepovedana, kot je npr. uporaba umetne inteligence za socialno točkovanje ali množični nadzor (Kitajska). Prav tako ne bo dovoljena biometrična identifikacija (prepoznava obraza) v realnem času na daljavo na javno dostopnih mestih, razen izjemoma, ko gre npr. za preprečitev nevarnosti terorističnega napada.

Prepovedani bodo tudi sistemi, ki bi z manipulativnimi tehnikami lahko spravili osebo pod svoj nadzor. Na področjih visokega tveganja, kot so zdravje, javna varnost, promet, okolje in temeljne svoboščine, vključno z varstvom osebnih podatkov, bo uporaba umetne inteligence strogo nadzirana. Obenem bodo prepovedane manipulativne tehnike, ki izkoriščajo ranljive skupine, kot so otroci,­ ­invalidi in socialno šibki. Sistemi UI z visokim tveganjem bodo morali biti ocenjeni, preden bodo prišli na trg in vseskozi med njihovo dostopnostjo, generativna umetna inteligenca (npr. ChatGPT) pa bo morala izpolnjevati zahteve glede preglednosti, opremljena bo morala biti z opozorilom, da je bila vsebina ustvarjena z umetno inteligenco. Model bo moral biti zasnovan tako, da bo preprečeval ustvarjanje nezakonitih vsebin, dodani bodo morali biti tudi povzetki avtorsko zaščitenih podatkov, uporabljenih za usposabljanje posamezne aplikacije.

Ključno vprašanje ostaja: kako kljub omejitvam uporabe umetne inteligence ohraniti inovativnosti podjetij pri razvoju kot tudi pri uporabi UI?

Celoten članek lahko preberete tukaj.

Senior dela članek Prejšnji prispevek

Kako lahko podjetja izkoristijo izkušnje starejših?

DV pogumno v digitalni svet Naslednji prispevek

DIGITALNO VKLJUČENI