magistrsko delo

Povzetek

S porastom uporabe modelov strojnega učenja in pospešenim razvojem kompleksnih modelov se pojavlja tudi potreba po učinkovitih rešitvah razložljive umetne inteligence, ki poskuša približati delovanje modelov človeškemu razumevanju. V tem delu predstavimo novo metodologijo razlaganja modelov, ki povezuje že uveljavljene metode luščenja najpomembnejših značilk z metodami gručenja in novim pristopom posploševanja razlag na podlagi strojno berljivega predznanja. Za demonstracijo delovanja zasnovane metode ustvarimo umetno domeno in jo ovrednotimo na dveh različnih realnih javno dostopnih podatkovnih množicah, s čimer prikažemo uporabnost metode in kompatibilnost z različnimi tipi podatkov. Za ocenjevanje kakovosti razlag pridobimo mnenje domenskih strokovnjakov. Posplošitve so ocenjene kot smiselne, vendar za potrebe strokovnjakov presplošne, zato predlagamo možnosti uporabe za druge skupine uporabnikov. Metodo implementiramo v obliki javno dostopne knjižnice Python.

Ključne besede

razložljiva umetna inteligenca;razlage modelov;posploševanje razlag;gručenje;procesiranje naravnega jezika;magisteriji;

Podatki

Jezik: Slovenski jezik
Leto izida:
Tipologija: 2.09 - Magistrsko delo
Organizacija: UL FRI - Fakulteta za računalništvo in informatiko
Založnik: [T. Stepišnik Perdih]
UDK: 004.85(043.2)
COBISS: 210383619 Povezava se bo odprla v novem oknu
Št. ogledov: 94
Št. prenosov: 108
Ocena: 0 (0 glasov)
Metapodatki: JSON JSON-RDF JSON-LD TURTLE N-TRIPLES XML RDFA MICRODATA DC-XML DC-RDF RDF

Ostali podatki

Sekundarni jezik: Angleški jezik
Sekundarni naslov: Explaining machine learning models using background knowledge generalization
Sekundarni povzetek: With the growing use of machine learning models and the accelerated development of complex models, there is a need for efficient solutions in the field of explainable artificial intelligence. In this work, we propose a new method of explaining models that couples state-of-the-art "most important" feature extraction methods with clustering methods and a new approach to feature generalization using machine-readable domain knowledge. We demonstrate the methodology on an artificially created domain and two different real domains. We evaluate the quality of explanations with the help of domain experts. Generalizations are evaluated as sensible but too general for researchers. We propose potential use cases for other groups of users. The implemented method is created as a publicly available Python library.
Sekundarne ključne besede: explainable AI;model explanations;explanation generalization;machine learning;clustering;natural language processi;computer science;master's degree;Umetna inteligenca;Računalništvo;Univerzitetna in visokošolska dela;
Vrsta dela (COBISS): Magistrsko delo/naloga
Študijski program: 1000471
Konec prepovedi (OpenAIRE): 1970-01-01
Komentar na gradivo: Univ. v Ljubljani, Fak. za računalništvo in informatiko
Strani: 1 spletni vir (1 datoteka PDF (69 str.))
ID: 25041095