1. Private Federated Submodel Learning keresztül Private Set Union(arXiv)

Szerző:Zhusheng Wang, Sennur Ulukus

Absztrakt : Megfontoljuk az egyesített almodell tanulás (FSL) problémáját, és olyan megközelítést javasolunk, amelyben az ügyfelek elméletileg privát módon frissíthetik a központi modellinformációkat. Megközelítésünk a privát halmazegyesítésen (PSU) alapul, amely a továbbiakban a többüzenet szimmetrikus privát információ-visszakeresésen (MM-SPIR) alapul. A szervernek két nem összefüggő adatbázisa van, amelyek replikált módon tartják a modellt. Sémánkkal a szerver a kliensek által frissített részmodellek részhalmazán kívül semmit nem tud meg: a szerver nem tud meg, hogy melyik kliens melyik almodellt frissítette, vagy semmit a helyi kliens adatokról. A Jia-Jafar és a Vithana-Ulukus korszerű privát FSL sémáihoz képest a mi rendszerünk nem igényli a modell zajos tárolását az adatbázisokban; és a Zhao-Sun biztonságos aggregációs sémájához képest a mi sémánk nem igényli az ügyféloldali közös véletlenszerűség előzetes elosztását, ehelyett a mi sémánk a szükséges kliensoldali közös véletlenszerűséget véletlenszerű SPIR-en és egyszeri padokon keresztül hozza létre. A protokoll egy közös véletlenszerűség generálási (CRG) fázissal kezdődik, ahol a két adatbázis közös véletlenszerűséget hoz létre a kliens oldalon RSPIR és egyszeri padok segítségével (ezt a fázist FSL-CRG-nek nevezik). Ezután a kliensek a kialakult kliensoldali közös véletlenszerűséget használják fel, hogy a kiszolgáló magántulajdonban határozza meg az almodellek indexeinek egyesülését, amelyet az ügyfelek együttesen frissítenek (ezt a fázist FSL-PSU-nak nevezik). Ezután a két adatbázis a beállított unióban lévő részmodellek aktuális verzióit sugározza az ügyfeleknek. Az ügyfelek frissítik az almodelleket a helyi képzési adataik alapján. Végül az ügyfelek az FSL-PSU egy változatát használják a frissítések privát visszaírására az adatbázisokba (ezt a fázist FSL-írásnak nevezik). Javasolt privát FSL-sémánk robusztus az ügyfelek lemorzsolódása, az ügyfelek késői érkezése és az adatbázis kiesése ellen.

2. Private Read Update Write (PRUW) a Federated Submodel Learning (FSL) programban: Hatékony kommunikációs rendszerek szűkítéssel és anélkül(arXiv)

Szerző:Sajani Vithana, Sennur Ulukus

Absztrakt:A privát olvasási frissítésírás (PRUW) problémáját vizsgáljuk a privát egyesített almodell tanulással (FSL) kapcsolatban, ahol a gépi tanulási modell több almodellre van felosztva a felhasznált különböző típusú adatok alapján. hogy betanítsa a modellt. A PRUW-ban minden felhasználó letölti a kívánt almodellt anélkül, hogy az olvasási fázisban felfedné az indexét, és feltölti az almodell frissítéseit anélkül, hogy az írási fázisban felfedné az almodell indexét vagy a frissítések értékeit. Ebben a munkában először egy alapvető kommunikációs hatékony PRUW sémát adunk meg, és további módszereket tanulmányozunk a kommunikációs költségek ritkítással történő csökkentésére. A gradiens ritkítása egy széles körben használt fogalom a tanulási alkalmazásokban, ahol csak a kiválasztott paraméterkészletet töltik le és frissítik, ami jelentősen csökkenti a kommunikációs költségeket. Ebben a cikkben azt tanulmányozzuk, hogy a ritkítás fogalmát hogyan lehet beépíteni a privát FSL-be azzal a céllal, hogy csökkentsék a kommunikációs költségeket, miközben garantálják a frissített almodell-index információelméleti adatvédelmét, valamint a frissítések értékeit. Ebből a célból két sémát vezetünk be: PRUW felső r ritkítással és PRUW véletlenszerű ritkítással. Az előbbi csak a legjelentősebb paramétereket/frissítéseket kommunikálja a szerverek és a felhasználók között, míg az utóbbi egy véletlenszerűen kiválasztott paraméter/frissítés készletet közöl. A két javasolt séma olyan új technikákat vezet be, mint például a paraméter/frissítés (zajos) permutáció a PRUW-ban a ritkítás által okozott további információszivárgás kezelésére. Mindkét rendszer jelentősen csökkenti a kommunikációs költségeket az alap (nem ritka) PRUW rendszerhez képest