master's thesis
Jaka Šircelj (Avtor), Danijel Skočaj (Mentor)

Povzetek

In this thesis we perform an experimental analysis and evaluation of different methods for creating adversarial examples, and learn how these affect different types of image classifiers, with the intent to obtain a better understanding of adversarial examples. The adversarial methods are hard to compare, since they use different types of parameters. We introduce a novel visualization technique, called accuracy-perturbation curve, that allows us to perform our comparison much more in depth, without the need to find optimal parameters. With this technique we also evaluate the successfulness of adversarial training as a defensive method. The results showed that radial basis function network classifiers possess an intrinsic property that makes them stronger on adversarial examples, compared to other classifiers, like CNNs, even though they perform poorly on clean images. Also, we noticed a weak correlation between the classifiers ability to generalize and its robustness against attacks.

Ključne besede

adversarial examples;neural networks;deep learning;image classification;computer science;computer and information science;master's degree;

Podatki

Jezik: Angleški jezik
Leto izida:
Tipologija: 2.09 - Magistrsko delo
Organizacija: UL FRI - Fakulteta za računalništvo in informatiko
Založnik: [J. Šircelj]
UDK: 004(043.2)
COBISS: 1538387139 Povezava se bo odprla v novem oknu
Št. ogledov: 738
Št. prenosov: 280
Ocena: 0 (0 glasov)
Metapodatki: JSON JSON-RDF JSON-LD TURTLE N-TRIPLES XML RDFA MICRODATA DC-XML DC-RDF RDF

Ostali podatki

Sekundarni jezik: Slovenski jezik
Sekundarni naslov: Eksperimentalno ovrednotenje nasprotniških primerov in načinov obrambe
Sekundarni povzetek: V tem delu opravimo eksperimentalno analizo in evalvacijo različnih metod generiranja nasprotniških primerov oz. evalviramo njihove vplive na različne tipe klasifikatorjev slik. Namen analize je bil pridobiti čim več znanja o nasprotniških primerih. Metode ustvarjanja nasprotniških primerov je zahtevno primerjati, ker vse uporabljajo drugačne tipe parametrov. Da se znebimo skrbi glede določanja optimalnih parametrov, uvedemo točnostno-perturbacijsko krivuljo, s katero lahko veliko bolj natančno ocenimo, koliko je klasifikator robusten pri obrambi oz. koliko je generator nasprotniških primerov uspešen pri napadu. S to krivuljo smo analizirali tudi obrambno metodo učenja na nasprotniških primerih. Rezultati kažejo, da so mreže z radialnimi baznimi funkcijami naravno bolj robustne proti takšnim napadom, tudi če v večini primerov niso primerne za klasifikacijo slik. Opazili smo še šibko korelacijo med zmožnostjo generalizacije klasifikatorjev ter njihovo odpornostjo pred nasprotniškimi primeri.
Sekundarne ključne besede: nasprotniški primeri;nevronske mreže;globoko učenje;klasifikacija slik;računalništvo;računalništvo in informatika;magisteriji;
Vrsta dela (COBISS): Magistrsko delo/naloga
Študijski program: 1000471
Konec prepovedi (OpenAIRE): 1970-01-01
Komentar na gradivo: Univ. v Ljubljani, Fak. za računalništvo in informatiko
Strani: VIII, 95 str.
ID: 11236302