Umetna inteligenca - predlogi smernic

Tehnologija umetne inteligence (AI) je v zadnjih letih postala zrela, široko dostopna in vključena v različne poslovne in družbene procese. Kljub temu pa AI za večino ljudi predstavlja skrivnost in posledično ustvarja določeno nelagodje in strahove.

Posledice uporabe AI sproža tudi različne reakcije in poglede deležnikov in s tem odpira številna etična vprašanja, ki nimajo enoznačnega odgovora.

Nova doba AI nam torej narekuje varno in zaupanja vredno uporabo, ki mora biti opredeljena z ustreznimi smernicami in ustrezno regulirana. Kakšne so smernice EU in drugih podobnih iniciativ (OECD, UNESCO, ZN, Svet Evrope), kakšna je situacija v praksi? Na kaj morajo paziti razvijalci? Na kaj morajo biti pozorni uporabniki? Kako zagotoviti ustrezne varovalke za varno uporabo umetne inteligence? Kakšen je pogled različnih deležnikov na trenutno ureditev? Kateri so največji izzivi, ki jih prinaša upravljanje s sistemi umetne inteligence? Kakšni so primeri dobrih praks? Odprtih vprašanj je več kot odgovorov.

Stališča, razumevanja in pogledi gostov na seriji dogodkov so zbrana na enem mestu spodaj in so poimenovana smernice, ki pa naslavljajo predvsem poglede in stališča razvijalcev, razmisleke iz stališča končnih uporabnikov ter pogledi pravne stroke.

Predlagane smernice:

  • Obstoječi regulatorni okvirji narekujejo trenuten pravni okvir za razvoj in uvajanje AI v poslovanje. Potrebno je poglobiti razumevanje različnih deležnikov (razvijalci na eni strani in uporabniki na drugi) obstoječih pravnih okvirjev (GDPR, Data Act …) in širše poznavanje potrebnih omejitev za smiselno uporabo v praksi.
  • Uredba AIA deli AI sisteme na 4 nivoje rizičnosti (od minimalnega do nesprejemljivega nivoja rizika). Razumevanje specifik in definicij vseh štirih nivojev je ključno za razvijalce, uporabnike in na koncu tudi posameznike, katerih se odločitve AI sistemov dotikajo.
  • Poslovni subjekti, ki uporabljajo AI sisteme v svojem poslovnem procesu, se bodo morali opraviti samo-evalvacijo nivoja rizičnosti uporabe AI sistemov ter ustrezne podlage za kontinuiran proces. Samo-evalvacijo bo potrebno vgraditi v poslovno-organizacijske procese in vzpostaviti ustrezno verigo odgovornosti deležnikov.
  • Uporabniki AI sistemov je potrebno izobraziti in informirati o omejitvah in predpostavkah AI modelov, ki jih uporabljajo, da ga lahko na pravilen način umestimo v poslovno-organizacijski proces in tudi kasneje evalvirajo morebitne škodljive posledice uporabe.
  • Širšo javnost, ki kot pomemben generator podatkov in strank, sodeluje pri uvajanju AI tehnologij, je potrebno izobraziti na področjih, kaj je dovoljena in kako je regulirana uporaba podatkov s posebnim poudarkom na opredelitvi možnih posledic (pozitivnih in negativnih).
  • V izobraževalnem sistemu razvijalcev AI sistemov je potrebno vključiti dodatne vsebine, ki naslavljajo:
  1. širši etični pogled in možne implikacije nepravilnih ali “nepoštenih” odločitev AI sistemov (faireness and make no harm)
  2. nadgraditi dokumentacije AI sistemov, ki morajo vsebovati tudi opis učnih podatkov, predpostavke, morebitne etične pomisleke
  3. Razložljivost odločitev AI sistemov in transparentnost razvoja ter končnih rezultatov je potrebno dodatno naglasiti v sklopu obstoječih izobraževalnih vsebinah.
  • V celotnem procesu izobraževanje je potrebno smiselno vključiti nove vsebine, ki vključujejo potrebna znanja za uporabo AI sistemov (začenši pri osnovni šoli in smiselno vključevanje vsebin na vseh višjih nivojih izobraževanja).
  • Vzpostaviti je potrebno multidisciplinarni dialog z namenom premostitve razkoraka med razvijalci in uporabniki AI in pravno in regulatorno stroko
  • Podatki vladnih agencij morajo biti dostopni, primerni za strojno branje, dobre kvalitete in posodobljeni (glavni namen je razvoj javno dostopnih servisov in tudi nadaljnji razvoj AI področja v RS) z namenom da, omogočajo razvoj AI področja na področju znanosti in tudi gospodarstva.