master's thesis
Boris Radovič (Avtor), Veljko Pejović (Mentor)

Povzetek

Federated learning (FL) is a distributed machine learning paradigm in which a model is collectively trained by using the data available on multiple devices without such devices exposing their data. This concept marks a significant stride towards decentralized AI. However, the challenge arises when dealing with non-independently and identically distributed (non-IID) data, as any kind of data heterogeneity among devices' datasets can hinder training convergence and worsen the predictive quality of the model being trained. Among the many techniques recently proposed for addressing such difficulties, there is clustering. Established clustering methods require the devices to possess a labelled dataset in order to assign the devices to a cluster, and this limits the applicability of such clustering approaches. In this thesis, we introduce a comprehensive framework and a suite of algorithms designed to cluster devices that lack a labelled dataset. Through experimentation, we demonstrate that our proposed algorithms yield results comparable to current state-of-the-art methods. An advantage of our approach is its capability to cluster devices that did not participate in the training stage. This includes cases where devices lack a labelled dataset or the devices' computational capabilities are limited.

Ključne besede

machine learning;deep learning;federated learning;computer science;master's thesis;

Podatki

Jezik: Angleški jezik
Leto izida:
Tipologija: 2.09 - Magistrsko delo
Organizacija: UL FRI - Fakulteta za računalništvo in informatiko
Založnik: [B. Radovič]
UDK: 004.8(043.2)
COBISS: 164990467 Povezava se bo odprla v novem oknu
Št. ogledov: 52
Št. prenosov: 10
Ocena: 0 (0 glasov)
Metapodatki: JSON JSON-RDF JSON-LD TURTLE N-TRIPLES XML RDFA MICRODATA DC-XML DC-RDF RDF

Ostali podatki

Sekundarni jezik: Slovenski jezik
Sekundarni naslov: Gručenje odjemalcev za izboljšanje zveznega učenja na heterogenih podatkih
Sekundarni povzetek: Zvezno učenje (ZU) je pristop, v katerem množica naprav sodeluje z namenom treniranja modela strojnega učenja. Pri tem si sodelujoče naprave ne izmenjujejo surovih podatkov, tako da ohranja postopek varnost in zasebnost uporabnikovih podatkov. Med težavami, s katerimi se ZU trenutno sooča, je učenje modelov v primerih, ko so podatki na sodelujočih napravah porazdeljeni neenakomerno. V primeru prisotnosti heterogenosti podatkov se kakovost končnih predikcij treniranega modela zmanjša in v najhujših primerih lahko model celo divergira. Med uveljavljenimi pristopi, ki skušajo omiliti negativne posledice heterogenosti podatkov, je gručenje naprav. Sodobne metode gručenja v ZU-ju zahtevajo, da imajo naprave označeno podatkovno množico, ta predpostavka pa omejuje uporabnost takšnih pristopov. V magistrski nalogi predstavimo torej celovito ogrodje in nabor algoritmov, ki omogočijo gručenje naprav, ki nimajo označene podatkovne množice. Poizkusi, ki jih izvedemo v magistrski, kažejo na dejstvo, da predlagani algoritmi dajejo rezultate, ki so primerljivi s tistimi, ki jih dosegajo uveljavljene metode gručenja v ZU-ju. V primerjavi z obstoječimi metodami pa razviti algoritmi omogočijo gručenje naprav, ki niso sodelovale med učenjem zaradi pomanjkanja označenih podatkov oz. zaradi omejenih računskih sposobnosti.
Sekundarne ključne besede: zvezno učenje;magisteriji;Globoko učenje (strojno učenje);Računalništvo;Univerzitetna in visokošolska dela;
Vrsta dela (COBISS): Magistrsko delo/naloga
Študijski program: 1000471
Konec prepovedi (OpenAIRE): 1970-01-01
Komentar na gradivo: Univ. v Ljubljani, Fak. za računalništvo in informatiko
Strani: X, 87 str.
ID: 19888176