doktorska disertacija
Povzetek
Z uporabo algoritmov strojnega učenja je mogoče izvesti zapletene analize in pridobiti
globlje vpoglede na osnovi obsežnih količin podatkov, kar presega človeške zmožnosti.
Navedena značilnost je ključni dejavnik, zaradi katerega je strojno učenje vpeljano v
številne domene. Kljub številnim prednostim ni vedno možno integrirati strojnega učenja
na določena področja, predvsem zaradi tega, ker se za naprednimi metodami pogosto
skrivajo modeli tipa črne skrinje. Ti modeli uporabnikom ne omogočajo vpogleda v
logiko njihovega odločanja, kar lahko predstavlja oviro v kontekstih, kjer so odločitve
kritične in lahko napačna odločitev vodi v resne posledice. Z namenom ublažiti te
problematike smo razvili metodo strojnega učenja, temelječo na naravnem pojavu rečnih
kanjonov. Ta pojav lahko vizualiziramo v digitalni grafični obliki, kar omogoča intuitiven
prikaz logike odločanja. Rezultat je model strojnega učenja, ki generira globinske slike
gibanja podatkov za posamezen razred. V teh slikah je pripadnost posamezne instance
kanjonu prikazana s pomočjo barvno kodiranih grafov. Podatkovni kanjoni se zaradi
svojih lastnosti in metodologije lahko uporabljajo za potrebe razložljive umetne
inteligence, bodisi samostojno ali kot dopolnilni mehanizem drugim pristopom strojnega
učenja.
Ključne besede
razložljiva umetna inteligenca;strojno učenje;klasifikacija;razložljivost;zaupanje;
Podatki
Jezik: |
Slovenski jezik |
Leto izida: |
2023 |
Tipologija: |
2.08 - Doktorska disertacija |
Organizacija: |
UM FERI - Fakulteta za elektrotehniko, računalništvo in informatiko |
Založnik: |
[B. Žlahtič] |
UDK: |
004.85.021:004.6(043.3) |
COBISS: |
174856451
|
Št. ogledov: |
10 |
Št. prenosov: |
3 |
Ocena: |
0 (0 glasov) |
Metapodatki: |
|
Ostali podatki
Sekundarni jezik: |
Angleški jezik |
Sekundarni naslov: |
Data canyons, a machine learning approach for interpretable artificial intelligence |
Sekundarni povzetek: |
With machine learning algorithms avast amounts of data can be analyzed to gain profound insights beyond human capabilities. This quality is a key reason for incorporating machine learning across numerous domains. Although machine learning has various benefits aincorporating it into certain areas can be difficult due to the blackbox nature of advanced methods. These models do not grant users insight into their decision-making logic aposing challenges in contexts where decisions are critical and an erroneous decision might result in severe consequences. To address these issues awe developed a machine-learning method based on the natural phenomenon of river canyons. This phenomenon can be visualized in a digital graphical format aoffering an intuitive representation of decision-making logic. The outcome is a machine learning model that produces depth maps of data movement for individual classes. Within these maps athe affiliation of a particular instance to a canyon is denoted by color-coded graphs. |
Sekundarne ključne besede: |
explainable artificial intelligence;machine learning;classification;explanation;trust; |
Vrsta dela (COBISS): |
Doktorsko delo/naloga |
Komentar na gradivo: |
Dokt. disert., Univ. v Mariboru, Fak. za elektrotehniko, računalništvo in informatiko, Računalništvo in informacijske tehnologije |
Strani: |
VIII, 103 str. |
ID: |
19942812 |