Priporočila strokovnjakov:
- Prilagoditi razumevanja različnih deležnikov obstoječih pravnih okvirjev (npr. GDPR, Data Act) in širše poznavanje potrebnih omejitev za smiselno uporabo umetne inteligence v praksi.
- Deležniki morajo razumeti štiri nivoje rizičnosti umetne inteligence (od minimalnega do nesprejemljivega nivoja rizika), definirane v Aktu o umetni inteligenci EU.
- Vgraditi samooceno nivoja različnosti uporabe sistemov umetne inteligence v poslovno-organizacijske procese in vzpostaviti ustrezno verigo odgovornosti deležnikov.
- Izobraževanje uporabnikov o omejitvah in predpostavkah modelov umetne inteligence, da jih lahko na pravilen način umestimo v poslovno-organizacijski proces in ocenimo morebitne škodljive posledice uporabe.
- Izobraževanje širše javnosti, sodelujoče pri uvajanju tehnologij umetne inteligence, o dovoljeni in regulirani uporabi podatkov, s posebnim poudarkom na opredelitvi možnih posledic (pozitivnih in negativnih).
- V izobraževalni sistem razvijalcev AI sistemov vključiti dodatne vsebine, ki naslavljajo:
– Širši etični pogled in možne implikacije nepravilnih ali »nepoštenih« odločitev AI sistemov (angl. faireness and make no harm);
– Nadgraditev dokumentacije AI sistemov, ki mora vsebovati tudi opis učnih podatkov, predpostavke, morebitne etične pomisleke;
– V sklopu obstoječih izobraževalnih vsebin naslovitev razložljivosti odločitev sistemov umetne inteligence, transparentnosti razvoja in končnih rezultatov;
- V izobraževalni proces vključiti nove vsebine, ki vključujejo potrebna znanja za uporabo sistemov umetne inteligence.
- Vzpostavitev multidisciplinarnega dialoga z namenom premostitve razkoraka med razvijalci in uporabniki AI ter pravno in regulatorno stroko.
- Dostopni podatki vladnih agencij, primerni za strojno branje, dobre kvalitete in posodobljeni z namenom omogočanja razvoja področja umetne inteligence na področju znanosti in gospodarstva.