magistrsko delo
Povzetek
V okviru magistrskega dela je bila izdelana aplikacija, ki omogoča paralelno procesiranje masovnih kartičnih transakcij, t.i. avtorizacij. Programska rešitev temelji na odprtokodnem ogrodju Apache Hadoop, ki je namenjeno obdelovanju velikih količin podatkov (angl. big data). S pristopom Hadoop razbijemo vhodne podatke na več manjših delov, ki se paralelno procesirajo. Hadoop je sestavljen iz dveh glavnih komponent. MapReduce vhodni niz podatkov razdeli na med seboj neodvisne dele, ki se obdelajo paralelno. Datotečni sistem HDFS (angl. Hadoop distributed file system) je bil razvit v programskem jeziku Java in je implementiran za zagotavljanje prilagodljivega in zanesljivega shranjevanja podatkov na več med seboj povezanih računalnikih (angl. clusters of commodity servers). Glavna prednost uporabe Hadoopa je v porazdeljenem sistemu, sestavljenem iz več manj zmogljivih računalnikov in ne le enega zelo zmogljivega. Računalniki se lahko nahajajo na različnih lokacijah, zato ne potrebujemo dodatnega redundantnega sistema, ki služi za samo vzpostavitev sistema v primeru naravne katastrofe.
Ključne besede
finančna avtorizacija;aplikacije;procesiranje transakcij;diplomske naloge;
Podatki
Jezik: |
Slovenski jezik |
Leto izida: |
2019 |
Tipologija: |
2.09 - Magistrsko delo |
Organizacija: |
UM FERI - Fakulteta za elektrotehniko, računalništvo in informatiko |
Založnik: |
D. Pandel |
UDK: |
004.94:004.83(043.2) |
COBISS: |
22237974
|
Št. ogledov: |
687 |
Št. prenosov: |
91 |
Ocena: |
0 (0 glasov) |
Metapodatki: |
|
Ostali podatki
Sekundarni jezik: |
Angleški jezik |
Sekundarni naslov: |
Financial transaction processing with Hadoop |
Sekundarni povzetek: |
Within the scope of this master thesis an application was developed, which enables parallel processing of large financial transactions or authorizations. The software solution is based on the Apache Hadoop open source framework, which is designed to handle big data as input. With the Hadoop approach, input data is broken down into several smaller parts and processed in parallel. The Hadoop framework contains two main components. MapReduce divides the input dataset into independent parts, processed in parallel. The Hadoop distributed file system (HDFS) was developed in the Java programming language and was implemented to provide a flexible and reliable way to store data on multiple clusters of commodity servers. The main advantage of using the Hadoop framework is in its distributed system approach which consists of several less powerful computers working in sync and not only one very powerful computer. Computers can be located in different locations, thus rendering the use of other redundant systems in the case of a natural disaster unnecessary. |
Sekundarne ključne besede: |
transaction processing;applications; |
URN: |
URN:SI:UM: |
Vrsta dela (COBISS): |
Magistrsko delo/naloga |
Komentar na gradivo: |
Univ. v Mariboru, Fak. za elektrotehniko, računalništvo in informatiko, Računalništvo in informacijske tehnologije |
Strani: |
IX, 64 str. |
ID: |
11026088 |