EFFGAN: Ensemble av federerade GANs
15 november 2022, 08:11
Ebba Ekblom, Edvin Listo Zec och Olof Mogren
Federerad inlärning (FL) har fått stort genomslag som ett ramverk för att träna maskininlärningsmodeller på distribuerad data, men en av de fortsatt stora utmaningarna är hanteringen av en icke-homogen datafördelning mellan klienter. Dessutom har majoriteten av tidigare forskning på området fokuserat på övervakad inlärning, vilket har resulterat i att oövervakad inlärning är relativt outforskat inom FL. För att brygga det här gapet har vi studerat generativa adverseriella nätverk i en federerad miljö med icke-homogen datadistribution.
I artikeln föreslår vi en ny metod (EFFGAN) där ett GAN tränas federerat, med tillägget av en sista runda av lokal träning där modellerna specialiseras på de olika lokala datamängderna. Efteråt samlas alla de tränade modellerna som en ensemble på en central server, i kontrast till att aggregera dem till en global modell. För att sedan generera data slumpas först en modell fram ur ensemblen, och sedan genereras data från den valda modellen.
Vi jämför prestandan för EFFGAN med en aggregerad global model (FedGAN), och i både kvalitativa och kvantitativa analyser presterar EFFGAN bättre än baslinjen när datan är heterogent distribuerad över klienterna. Detta har lett till slutsatsen att EFFGAN hanterar fenomenet client drift bättre, och därmed genererar data med högre kvalité.
Artikeln är skriven på engelska. Se den engelska nyhetssidan, eller den fullständiga artikeln för ytterligare information.
2024-10-29
2024-09-09
2024-09-03
2024-09-02
2024-08-06
2024-04-30
2024-04-29
2024-03-19
2024-02-06
2023-11-15
2023-10-02
2023-09-12
2023-08-23
2023-06-19
2023-06-19
2023-06-02
2023-05-17
2023-05-09
2023-04-27
2023-04-05
2023-04-04
2023-04-04
2023-03-29
2023-03-16
2023-01-31
2023-01-30
2022-12-06
2022-11-15
2022-10-24
2022-10-21
2022-10-20
2022-10-19