diplomsko delo

Povzetek

S porastom uporabe kompleksnih modelov strojnega učenja so postale priljubljene post hoc razlagalne metode, kot sta SHAP in LIME. Te metode ustvarijo razlage v obliki prispevkov značilk za določeno napoved. Razlage na nivoju značilk zaradi nejasne povezave s predznanjem niso nujno razumljive človeškim strokovnjakom. V diplomskem delu predstavimo metodo ReEx (Sklepanje iz razlag), ki je združljiva z razlagami metod, ki delujejo na nivoju značilk, in z uporabo predznanja v obliki ontologij posploši razlage po principu najmanj splošne posplošitve. Rezultat so semantične razlage, ki so specifične za posamezne razrede in so potencialno bolj informativne, saj predstavijo ključne značilke v kontekstu predznanja. ReEx smo implementirali v obliki python knjižnice, kompatibilne z metodami, kot sta SHAP in LIME. Za ovrednotenje delovanja metode definiramo mere posploševanja in medsebojne povezanosti razlag. Metodo empirično ovrednotimo na treh tekstovnih podatkovnih množicah.

Ključne besede

razložljiva umetna inteligenca;razlage modelov;posploševanje razlag;razlage SHAP;računalništvo in informatika;univerzitetni študij;diplomske naloge;

Podatki

Jezik: Slovenski jezik
Leto izida:
Tipologija: 2.11 - Diplomsko delo
Organizacija: UL FRI - Fakulteta za računalništvo in informatiko
Založnik: [T. Stepišnik Perdih]
UDK: 004.8(043.2)
COBISS: 78873603 Povezava se bo odprla v novem oknu
Št. ogledov: 347
Št. prenosov: 47
Ocena: 0 (0 glasov)
Metapodatki: JSON JSON-RDF JSON-LD TURTLE N-TRIPLES XML RDFA MICRODATA DC-XML DC-RDF RDF

Ostali podatki

Sekundarni jezik: Angleški jezik
Sekundarni naslov: Background knowledge for better explanation of machine learning models
Sekundarni povzetek: With the wide adoption of complex black-box models, instance-based post hoc explanation tools, such as SHAP and LIME became popular. These tools produce explanations as contributions of features to a given prediction. The obtained explanations at the feature level are not necessarily understandable by human experts because of unclear connections with the background knowledge. We propose ReEx (Reasoning from Explanations), a method applicable to explanations generated by instance-level explainers. By using background knowledge in the form of ontologies, ReEx generalizes instance explanations with the least general generalization principle. The resulting symbolic descriptions are specific for individual classes and offer generalizations based on the explainer's output. The derived semantic explanations are potentially more informative, as they describe the key attributes in the context of background knowledge. ReEx is available as a python library and is compatible with explanation approaches such as SHAP and LIME. For the evaluation of ReEx's performance, we define measures of generalization and overlap of explanations. We conduct experiments on three textual datasets.
Sekundarne ključne besede: explainable AI;model explanations;explanation generalization;SHAP explanations;machine learning;computer and information science;diploma;Strojno učenje;Umetna inteligenca;Računalništvo;Univerzitetna in visokošolska dela;
Vrsta dela (COBISS): Diplomsko delo/naloga
Študijski program: 1000468
Konec prepovedi (OpenAIRE): 1970-01-01
Komentar na gradivo: Univ. v Ljubljani, Fak. za računalništvo in informatiko
Strani: 38 str.
ID: 13257841