Han Wang
Forsknings- och utvecklingsingenjör
Kontakta Han13 mars 2024, 08:00
I en exklusiv intervju med Han Wang, forskare inom cybersäkerhet vid RISE, specialiserad på AI och cybersäkerhet, får vi veta mer om fördelarna med federerad inlärning inom cybersäkerhet för att värna om människans integritet och skydda känsliga data.
Med införandet av nya integritetslagar, såsom GDPR, bör mängden data som delas alltid minimeras. Federerad inlärning har vuxit fram som en metod som gör det möjligt att träna AI-modeller i flera decentraliserade slutenheter, till exempel smartphones, IoT-enheter eller servrar, utan att utbyta rådata. Fördelarna är stora och blir allt vanligare i branscher som hanterar känsliga data, tex hälso- och sjukvård, finans och telekommunikation.
I stället för att skicka träningsdata till en centraliserad server skickas AI-modeller till slutenheterna, där den lär sig på lokala data. Endast uppdateringarna från dessa lokala AI-modeller sammanfogas på en central server, och inkluderas i den globala modellen. Processen gör det möjligt att träna modeller på känsliga eller storskaliga data utan att kompromissa med integriteten.
— Genom att använda federerat lärande inom cybersäkerhet kan organisationer dra nytta av den kollektiva intelligensen hos slutenheter samtidigt som de tar hänsyn till integritetsfrågor och upprätthåller datasuveränitet. Detta tillvägagångssätt möjliggör mer robusta och skalbara cybersäkerhetslösningar som kan anpassas till föränderliga hot och olika miljöer, berättar Han Wang som är som är forskare vid RISE.
Att integrera robusta cybersäkerhetsåtgärder i den här typen av inlärningssystem är avgörande för att skydda känsliga data, bevara integriteten och säkerställa tillförlitlighet och säkerheten hos AI-modeller som tränas så här.
Federerad inlärning kan användas för att minimera olika cyberattacker genom att utnyttja dess decentraliserade och integritetsbevarande natur.
Tillämpningsområdena är många, inklusive IoT-nätverk. I en smart byggnad kan det till exempel handla om de gateways där intrångsdetekteringssystem (IDS) används.
— Inom fordonsindustrin kan federerad inlärning användas för att träna intrångsdetekteringssystem för fordon. Lokala modeller tränas på data som samlats in från fordonssensorer, CAN-bussmeddelanden och andra inbyggda system, för att upptäcka avvikelser som tyder på cyberattacker eller försök till obehörig åtkomst, förklarar Han Wang.
— Även om det finns ett växande intresse och medvetenhet om fördelarna, varierar beredskapen baserat på teknisk kapacitet, regelefterlevnad, ekosystem för samarbete och säkerhetsöverväganden. Med framsteg och insatser för att ta itu med utmaningarna förväntas användningen öka, säger Han Wang.
Han Wang är för närvarande engagerad i två forskningsprojekt inom cybersäkerhet. Det ena strävar efter att utveckla ett innovativt ramverk för hantering av tillit, säkerhet och integritet för IoT-system, och det andra att utnyttja nya kryptografiska system för att främja kapaciteten för integritetsbevarande maskininlärning och federerad inlärning.
— Kärnan i min forskning ligger i att utnyttja AI och maskininlärning för att hantera frågor om IoT-säkerhet och förbättra säkerhets- och sekretessåtgärder. Jag vill stärka ramverket för federerad inlärning för att lösa säkerhetsproblem i IoT-nätverk och göra AI-modeller mer robusta mot skadliga handlingar, berättar Han Wang.
Federerad inlärning har fördelar men också utmaningar. Tre problem som Han Wang studerat:
— Resursbegränsningen för IoT slutenheter är också utmanande. Det kan handla om beräkningsresurser, lagringskapacitet eller batteritid, vilket gör det svårt att utföra komplexa uppgifter lokalt. Att utforma lätta AI-algoritmer och optimeringstekniker för att tillgodose resursbegränsade miljöer är avgörande för skalbara och effektiv produktionssättning.
För att läsa mer om Han Wangs forskning och projekt, besök hennes profil eller fördjupa dig via länkarna:
Vetenskapliga publikationer I ämnet:
Andra vetenskapliga publikationer:
2024-11-26
2024-11-18
2024-11-18
2024-10-21
2024-10-01
2024-08-05
2024-06-27
2024-06-10
2024-05-13
2024-04-15
2024-03-13
2024-02-08
2024-01-08
2024-01-08
2023-11-28
2023-11-20
2023-10-23
2023-10-10
2023-09-12
2023-08-22
2023-07-05
2023-06-11
2023-06-05
2023-05-31
2023-04-24
2023-04-03
2023-03-27
2023-02-20
2023-02-03
2023-02-02
2023-02-02
2023-02-02
2023-02-02
2023-01-25