Skupina raziskovalcev Univerze v Ženevi (UNIGE), Ženevskih univerzitetnih bolnišnic (HUG) in Nacionalne univerze v Singapurju (NUS) je razvila nov pristop za ocenjevanje razumevanja tehnologij umetne inteligence.

Ta preboj omogoča večjo preglednost in verodostojnost diagnostičnih in napovednih orodij, ki jih poganja AI. Nova metoda razkriva skrivnostno delovanje tako imenovanih “črnih škatel” algoritmov AI, kar uporabnikom pomaga razumeti, kaj vpliva na rezultate, ki jih AI ustvarja, in ali jim je mogoče zaupati.

To je še posebej pomembno v scenarijih, ki imajo pomemben vpliv na človeško zdravje in blaginjo, na primer pri uporabi AI v medicinskem okolju. Raziskava ima poseben pomen v kontekstu prihajajočega Akta o umetni inteligenci Evropske unije, ki si prizadeva regulirati razvoj in uporabo AI v EU.

»Seveda so vložki, še posebej finančni, izjemno visoki. Ampak kako lahko zaupamo stroju, ne da bi razumeli osnovo njegovega sklepanja? Ta vprašanja so ključna, še posebej v sektorjih, kot je medicina, kjer lahko odločitve, ki jih poganja AI, vplivajo na zdravje in celo življenje ljudi, ter v financah, kjer lahko pripeljejo do ogromnih kapitalskih izgub,« pravi profesor Christian Lovis, direktor oddelka za radiologijo in medicinsko informatiko na Medicinski fakulteti UNIGE ter vodja oddelka za medicinsko informacijsko znanost na HUG in eden izmed avtorjev študije o razumevanju AI.

Celoten članek lahko preberete v Računalniških novicah.
European Commission svg Prejšnji prispevek

Poziv k predložitvi predlogov za sofinanciranje v okviru programa Digitalna Evropa

Businesspeople working finance SMALL Naslednji prispevek

Kako lahko finančne klinike zaženejo digitalizacijo Slovenije?