delo diplomskega seminarja
Brina Ribič (Avtor), Jan Grošelj (Mentor)

Povzetek

V delu se ukvarjamo s problemom iskanja najmanjše vrednosti funkcije z orodji numerične optimizacije. Obravnavamo iterativne algoritme oziroma metode, za katere si želimo, da z visokim redom konvergence zanesljivo privedejo do rešitve. Na začetku izpeljemo metodo najstrmejšega spusta, ki pa ima v splošnem kvečjemu linearen red konvergence in se v praksi redko uporablja. Nato analiziramo Newtonovo metodo z višjim redom konvergence, a je njena pomanjkljivost v tem, da je za izvedbo treba računati Hessejevo matriko funkcije. Predstavimo še BFGS metodo, ki ima superlinearen red konvergence, hkrati pa ni računsko zahtevna. V zaključnem poglavju primerjamo BFGS metodo in metodo najstrmejšega spusta na primeru CAPM modela, pri katerem z linearno regresijo na podlagi podatkov preteklih let iščemo beta koeficient izbranega podjetja. Ugotovimo, da je BFGS metoda bolj zanesljiva in učinkovita kot metoda najstrmejšega spusta.

Ključne besede

matematika;neomejena optimizacija;metode usmerjenega spusta;

Podatki

Jezik: Slovenski jezik
Leto izida:
Tipologija: 2.11 - Diplomsko delo
Organizacija: UL FMF - Fakulteta za matematiko in fiziko
Založnik: [B. Ribič]
UDK: 519.6
COBISS: 120694787 Povezava se bo odprla v novem oknu
Št. ogledov: 423
Št. prenosov: 86
Ocena: 0 (0 glasov)
Metapodatki: JSON JSON-RDF JSON-LD TURTLE N-TRIPLES XML RDFA MICRODATA DC-XML DC-RDF RDF

Ostali podatki

Sekundarni jezik: Angleški jezik
Sekundarni naslov: Numerical optimization with line search methods
Sekundarni povzetek: In this work we study the problem of finding the minimum value of a function using numerical optimization tools. We seek for algorithms which have high rate of convergence and efficiently find solution. We start by deriving the steepest descent method which in general has at most linear rate of convergence and is rarely used in practice. Later on we analyze Newton's method with a higher rate of convergence, but its main drawback is that it requires the computation of the Hessian matrix of the function. We also introduce the BFGS method which has superlinear rate of convergence and has low computitonal complexity. At the end of this work we compare BFGS method and the steepest descent method on CAPM model. We use linear regression, where we search for beta coeficient based on data from previous years. We conclude that the BFGS method is more reliable and efficient than the steepest descent method.
Sekundarne ključne besede: mathematics;unconstrainted optimization;line search methods;
Vrsta dela (COBISS): Delo diplomskega seminarja/zaključno seminarsko delo/naloga
Študijski program: 0
Konec prepovedi (OpenAIRE): 1970-01-01
Komentar na gradivo: Univ. v Ljubljani, Fak. za matematiko in fiziko, Oddelek za matematiko, Finančna matematika - 1. stopnja
Strani: 28 str.
ID: 16363423