magistrsko delo
David Pandel (Avtor), Milan Ojsteršek (Mentor)

Povzetek

V okviru magistrskega dela je bila izdelana aplikacija, ki omogoča paralelno procesiranje masovnih kartičnih transakcij, t.i. avtorizacij. Programska rešitev temelji na odprtokodnem ogrodju Apache Hadoop, ki je namenjeno obdelovanju velikih količin podatkov (angl. big data). S pristopom Hadoop razbijemo vhodne podatke na več manjših delov, ki se paralelno procesirajo. Hadoop je sestavljen iz dveh glavnih komponent. MapReduce vhodni niz podatkov razdeli na med seboj neodvisne dele, ki se obdelajo paralelno. Datotečni sistem HDFS (angl. Hadoop distributed file system) je bil razvit v programskem jeziku Java in je implementiran za zagotavljanje prilagodljivega in zanesljivega shranjevanja podatkov na več med seboj povezanih računalnikih (angl. clusters of commodity servers). Glavna prednost uporabe Hadoopa je v porazdeljenem sistemu, sestavljenem iz več manj zmogljivih računalnikov in ne le enega zelo zmogljivega. Računalniki se lahko nahajajo na različnih lokacijah, zato ne potrebujemo dodatnega redundantnega sistema, ki služi za samo vzpostavitev sistema v primeru naravne katastrofe.

Ključne besede

finančna avtorizacija;aplikacije;procesiranje transakcij;diplomske naloge;

Podatki

Jezik: Slovenski jezik
Leto izida:
Tipologija: 2.09 - Magistrsko delo
Organizacija: UM FERI - Fakulteta za elektrotehniko, računalništvo in informatiko
Založnik: D. Pandel
UDK: 004.94:004.83(043.2)
COBISS: 22237974 Povezava se bo odprla v novem oknu
Št. ogledov: 687
Št. prenosov: 91
Ocena: 0 (0 glasov)
Metapodatki: JSON JSON-RDF JSON-LD TURTLE N-TRIPLES XML RDFA MICRODATA DC-XML DC-RDF RDF

Ostali podatki

Sekundarni jezik: Angleški jezik
Sekundarni naslov: Financial transaction processing with Hadoop
Sekundarni povzetek: Within the scope of this master thesis an application was developed, which enables parallel processing of large financial transactions or authorizations. The software solution is based on the Apache Hadoop open source framework, which is designed to handle big data as input. With the Hadoop approach, input data is broken down into several smaller parts and processed in parallel. The Hadoop framework contains two main components. MapReduce divides the input dataset into independent parts, processed in parallel. The Hadoop distributed file system (HDFS) was developed in the Java programming language and was implemented to provide a flexible and reliable way to store data on multiple clusters of commodity servers. The main advantage of using the Hadoop framework is in its distributed system approach which consists of several less powerful computers working in sync and not only one very powerful computer. Computers can be located in different locations, thus rendering the use of other redundant systems in the case of a natural disaster unnecessary.
Sekundarne ključne besede: transaction processing;applications;
URN: URN:SI:UM:
Vrsta dela (COBISS): Magistrsko delo/naloga
Komentar na gradivo: Univ. v Mariboru, Fak. za elektrotehniko, računalništvo in informatiko, Računalništvo in informacijske tehnologije
Strani: IX, 64 str.
ID: 11026088
Priporočena dela:
, magistrsko delo Organizacija in management informacijskih sistemov
, diplomsko delo visokošolskega strokovnega študijskega programa