Objašnjiva veštačka inteligencija
From Wikipedia, the free encyclopedia
Remove ads
Remove ads
Objašnjiva veštačka inteligencija (engl. ), koji se često preklapa sa interpretabilnom veštačkom inteligencijom, ili objašnjivim mašinskim učenjem (XML), odnosi se bilo na sistem veštačke inteligencije nad kojim je ljudima moguće da zadrži intelektualni nadzor, ili na metode da se to postigne.[1] Glavni fokus je obično na obrazloženju odluka ili predviđanjima koje donosi veštačka inteligencija[2] koje su predstavljena na razumljiv i transparentan način.[3] XAI se suprotstavlja tendenciji mašinskog učenja u vidu „crne kutije「, gde čak ni dizajneri veštačke inteligencije ne mogu da objasne zašto je došao do određene odluke.[4][5]
Pristup objašnjive VI nastoji da pomogne korisnicima sistema sa veštačkom inteligencijom da rade efikasnije tako što će poboljšati njihovo razumevanje načina na koji ti sistemi rezonuju.[6] XAI može biti implementacija društvenog prava na objašnjenje.[7] Čak i ako ne postoji takvo zakonsko pravo ili regulatorni zahtev, XAI može poboljšati korisničko iskustvo proizvoda ili usluge pomažući krajnjim korisnicima da veruju da VI donosi dobre odluke. XAI ima za cilj da objasni šta je urađeno, šta se radi i šta će se dalje raditi, kao i da otkrije na kojim informacijama se ove akcije zasnivaju.[8] Ovo omogućava potvrđivanje postojećeg znanja, izazivanje postojećeg znanja i stvaranje novih pretpostavki.[9]
Algoritmi mašinskog učenja (ML) koji se koriste u VI mogu se kategorisati kao bela ili crna kutija.[10] Modeli bele kutije daju rezultate koji su razumljivi stručnjacima u ovoj oblasti. S druge strane, modele crne kutije je izuzetno teško objasniti i teško ih je razumeti čak i stručnjacima iz domena.[11] XAI algoritmi prate tri principa transparentnosti, interpretabilnosti i objašnjivosti. Model je transparentan „ako procesi koji izdvajaju parametre modela iz podataka obuke i generišu oznake iz podataka testiranja mogu biti opisani i motivisani od strane dizajnera pristupa.「[12] Interpretabilnost opisuje mogućnost razumevanja ML modela i predstavljanja osnove za donošenje odluka ML modela na način koji je razumljiv ljudima.[13][14][15] Objašnjivost je koncept koji je prepoznat kao važan, ali konsenzusna definicija nije dostupna.[12] Jedna od mogućnosti je „kolekcija karakteristika interpretabilnog domena koje su doprinele, za dati primer, donošenju odluke (npr. klasifikacija ili regresija)「.[16] Ako algoritmi ispunjavaju ove principe, oni pružaju osnovu za opravdavanje odluka, njihovo praćenje i na taj način verifikovanje, poboljšanje algoritama i istraživanje novih činjenica.[17]
Ponekad je takođe moguće postići rezultat visoke tačnosti pomoću ML algoritama bele kutije. Ovi algoritmi imaju interpretabilnu strukturu koja se može koristiti za objašnjenje predviđanja.[18] Koncept modela uskog grla, koji koriste apstrakcije da objasne razmišljanje modela, su primeri ovoga i može se primeniti u zadacima predviđanja slike[19] i teksta.[20] Ovo je posebno važno u domenima kao što su medicina, odbrana, finansije i pravo, gde je ključno razumeti odluke i izgraditi poverenje u algoritme.[8] Mnogi istraživači tvrde da je, barem za nadgledano mašinsko učenje, put napredka simbolička regresija, gde algoritam pretražuje prostor matematičkih izraza da pronađe model koji najbolje odgovara datom skupu podataka.[21][22][23]
Sistemi veštačke inteligencije optimizuju ponašanje kako bi zadovoljili matematički precizirani sistem ciljeva koji su odabrali dizajneri sistema, kao što je komanda „maksimizirajte tačnost procene koliko su pozitivne kritike filmova u skupu podataka testa「. VI može naučiti korisna opšta pravila iz skupa testova, kao što su „recenzije koje sadrže reč „užasno「 verovatno će biti negativne「. Međutim, može naučiti i neprikladna pravila, kao što su „recenzije koje sadrže 'Danijel Dej-Luis' su obično pozitivne「; takva pravila mogu biti nepoželjna ako postoji verovatnoća da neće uspeti da se generalizuju izvan skupa za obuku, ili ako ljudi smatraju da je pravilo „varanje「 ili „nepravedno「. Čovek može da revidira pravila u XAI-u da bi dobio predstavu o tome koliko je verovatno da će sistem generalizovati buduće podatke iz stvarnog sveta van testnog skupa.[24]
Remove ads
Reference
Literatura
Spoljašnje veze
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads