magistrsko delo
Matej Kristan (Avtor), Uroš Lotrič (Mentor)

Povzetek

V magistrski nalogi realiziramo nevronsko mrežo večslojni perceptron in štiri različne učne algoritme. Nevronska mreža in učni algoritmi so modularni kar pomeni, da lahko preminjamo format realnih števil s katerimi računajo. Spreminjamo lahko med plavajočo vejico in fiksno vejico. Pri fiksni vejici nastavimo širino operandov, določimo položaj binarne vejice in izberemo množilnik s katerim izračunamo vse produkte. S fiksno vejico in s približnimi množilniki simuliramo učenje nevronskih mrež na manj zmogljivi strojni opremi. Pri fiksni vejici so vse aritmetične operacije realizirane tako, da so enostavno izvedljive s strojno opremo. Med seboj primerjamo delovanje različnih učnih algoritmov, pri različnih formatih in pri uporabi različnih množilnikov. Delovanje primerjamo s tremi različnimi nabori podatkov, od tega sta dva nabora iz zbirke Proben1 [1], tretji pa je nabor MNIST [2]. Primerjava je pokazala, da je najbolj primeren učni algoritem, za učenje nevronskih mrež na manj zmogljivi strojni opremi, metoda najstrmejšega sestopa.

Ključne besede

nevronske mreže;večslojni perceptron;učenje;fiksna vejica;približni množilnik;magisteriji;

Podatki

Jezik: Slovenski jezik
Leto izida:
Tipologija: 2.09 - Magistrsko delo
Organizacija: UL FRI - Fakulteta za računalništvo in informatiko
Založnik: [M. Kristan]
UDK: 004.8(043.2):004.032.26
COBISS: 72211715 Povezava se bo odprla v novem oknu
Št. ogledov: 393
Št. prenosov: 72
Ocena: 0 (0 glasov)
Metapodatki: JSON JSON-RDF JSON-LD TURTLE N-TRIPLES XML RDFA MICRODATA DC-XML DC-RDF RDF

Ostali podatki

Sekundarni jezik: Angleški jezik
Sekundarni naslov: Approximate multipliers in neural network training
Sekundarni povzetek: In the master’s thesis, we realize a neural network multilayer perceptron and four different learning algorithms. The neural network and learning algorithms are modular and allow to change the number format for operand representation. We can choose between floating-point and fixed-point formats. At a fixed point, we additionally set the width of operands, determine the position of the binary point and select the multiplier with which we compute the products. With fixed point and approximate multipliers, we simulate neural network training on less powerful hardware. We designed all arithmetic operations in a fixed point to be easily realizable in hardware. We compare neural network training with different learning algorithms in different number formats with different multipliers. We run experiments on three datasets, of which two are from the Proben1 [1] collection, and the third is the MNIST [2] dataset. The comparison shows that the most suitable learning algorithm for training neural networks on less powerful hardware is the method of steepest descent.
Sekundarne ključne besede: neural network;multilayer perceptron;learning;fixed point;approximate multiplier;computer science;master's degree;Umetna inteligenca;Univerzitetna in visokošolska dela;
Vrsta dela (COBISS): Magistrsko delo/naloga
Študijski program: 1000471
Konec prepovedi (OpenAIRE): 1970-01-01
Komentar na gradivo: Univ. v Ljubljani, Fak. za računalništvo in informatiko
Strani: 55 str.
ID: 13103390