高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于自适应模型剪枝的联邦遗忘学习方法研究

马振国 和孜轩 孙彦景 王博文 刘建春 徐宏力

马振国, 和孜轩, 孙彦景, 王博文, 刘建春, 徐宏力. 基于自适应模型剪枝的联邦遗忘学习方法研究[J]. 电子与信息学报, 2025, 47(11): 4515-4524. doi: 10.11999/JEIT250503
引用本文: 马振国, 和孜轩, 孙彦景, 王博文, 刘建春, 徐宏力. 基于自适应模型剪枝的联邦遗忘学习方法研究[J]. 电子与信息学报, 2025, 47(11): 4515-4524. doi: 10.11999/JEIT250503
MA Zhenguo, HE Zixuan, SUN Yanjing, WANG Bowen, LIU Jianchun, XU Hongli. Research on Federated Unlearning Approach Based on Adaptive Model Pruning[J]. Journal of Electronics & Information Technology, 2025, 47(11): 4515-4524. doi: 10.11999/JEIT250503
Citation: MA Zhenguo, HE Zixuan, SUN Yanjing, WANG Bowen, LIU Jianchun, XU Hongli. Research on Federated Unlearning Approach Based on Adaptive Model Pruning[J]. Journal of Electronics & Information Technology, 2025, 47(11): 4515-4524. doi: 10.11999/JEIT250503

基于自适应模型剪枝的联邦遗忘学习方法研究

doi: 10.11999/JEIT250503 cstr: 32379.14.JEIT250503
基金项目: 中央高校基本科研业务费专项资金(XJ2025012301),深圳市科技计划(KCXFZ20240903094204007)
详细信息
    作者简介:

    马振国:男,副教授,研究方向为边缘计算、联邦学习等

    和孜轩:男,博士生,研究方向为边缘计算、视频分析、深度强化学习等

    孙彦景:男,教授,博士生导师,研究方向为无线通信、物联网、嵌入式系统等

    王博文:男,副教授,硕士生导师,研究方向为应急无线通信、工业物联网等

    刘建春:男,副研究员,硕士生导师,研究方向为联邦学习、联邦大模型等

    徐宏力:男,教授,博士生导师,研究方向为软件定义网络、物联网、边缘计算、联邦学习等

    通讯作者:

    孙彦景 yjsun@cumt.edu.cn

  • 中图分类号: TN919; TP393

Research on Federated Unlearning Approach Based on Adaptive Model Pruning

Funds: The Fundamental Research Funds for the Central Universities (XJ2025012301), Shenzhen Science and Technology Program (KCXFZ20240903094204007)
  • 摘要: 随着物联网(IoT)设备数量的指数级增长和《个人信息保护法》等法规的相继实施,联邦遗忘学习在边缘计算(EC)中已成为保障数据“被遗忘权”的关键技术。然而,边缘节点普遍存在的资源异构性—计算能力、存储容量和网络带宽等差异,导致基于全局统一剪枝策略的类级遗忘方法(遗忘某类训练数据)面临训练效率下降的困境。为了应对上述挑战,该文针对类级遗忘场景,提出了一种基于自适应模型剪枝的联邦遗忘学习框架(FunAMP),通过降低节点之间的等待时间提高模型训练效率。首先,该文建立了模型训练时间、节点资源与模型剪枝比之间的定量关系,并据此给出自适应模型剪枝问题的形式化定义。随后,设计了一种基于贪心策略的剪枝比决策算法,根据每个节点的计算和通信资源为其分配合适的剪枝比,并分析该算法的近似比,为算法性能提供理论保证。接着,确立了一种基于词频-逆文频的相关性指标来衡量模型参数与目标类数据之间的关系,根据该指标和分配的剪枝比将与目标类数据相关的模型参数去除,从而在实现目标类数据遗忘的同时最大限度地降低模型训练时间。实验结果表明,FunAMP在达到相同准确率的情况下,相比现有方法最高可实现11.8倍的加速比。
  • 图  1  不同剪枝粒度的对比

    图  2  给定时间内的准确率对比

    图  3  不同异构程度下达到预设准确率的完成时间对比

    图  4  不同数据分布下给定训练时间的准确率对比

    1  FunAMP的算法流程

     输入:损失函数阈值$ \varepsilon $,待遗忘的全局模型$ {\boldsymbol{w}} $,待遗忘数据的类
     别$ l $,本地更新次数$ \tau $
     输出:全局模型$ {{\boldsymbol{w}}^E} $
     服务器:
     (1) 初始化全局模型$ {{\boldsymbol{w}}^0} = {\boldsymbol{w}} $,$ e = 0 $
     (2) 获取每个节点$ i \in [N] $的计算能力$ {C_i} $和通信带宽$ {B_i} $
     (3) While $ F({{\boldsymbol{w}}^e}) \gt \varepsilon $ do:
     (4)  调用算法2根据节点的资源为其分配合适的剪枝比
     (5)  将全局模型$ {{\boldsymbol{w}}^e} $和剪枝比$ \alpha _i^e $发送到对应的节点
     (6)  收集所有节点的本地模型并根据公式(5)更新全局模型
     (7)  调整更新轮次以开启下一轮训练$ e = e + 1 $
     (8) End While
     (9) 向所有节点发送“停止”指令,令$ {{\boldsymbol{w}}^E} = {{\boldsymbol{w}}^e} $并输出
     边缘节点$ i $:
     (1) 将自身的计算能力$ {C_i} $和通信带宽$ {B_i} $上传到服务器
     (2) While 没有收到服务器的“停止”指令 do:
     (3)  从服务器接收全局模型$ {{\boldsymbol{w}}^e} $和剪枝比$ \alpha _i^e $
     (4)  调用算法3根据剪枝比$ \alpha _i^e $对全局模型进行剪枝,从而剥离
        目标类$ l $的贡献
     (5)  将第$ e $轮初始的本地模型$ {\boldsymbol{w}}_i^{e,0} $指定为剪枝后的模型$ {{\boldsymbol{\tilde w}}^e} $
     (6)  For $ j = 1 $ to $ \tau $
     (7)   根据公式(4)利用除目标类$ l $之外的数据更新本地模型
     (8)  End For
     (9)  将更新后的本地模型$ {\boldsymbol{w}}_i^{e,\tau } $上传到服务器
     (10) End While
    下载: 导出CSV

    2  基于贪心策略的剪枝比决策算法

     输入:剪枝比调整粒度$ \theta \in (0,1) $,节点计算能力$ {C_i} $,通信带宽
     $ {B_i} $
     输出:各节点每轮剪枝比$ \alpha _i^e \in (0,1) $
     (1) 根据$ \theta $将剪枝区间离散化为$ {\varPhi _\theta } = \{ {\alpha _z} = z \cdot \theta |z = 1,2, \cdots ,k\} $,
     其中$ k = \left\lceil {(1 - \theta )/\theta } \right\rceil $
     (2) 对于每个节点$ i $,根据式(6)–式(8)计算其在剪枝比$ {\alpha _z} $下的时
     间$ T_{i,z}^e $
     (3) 初始化全局时间下界$ T_{{\text{low}}}^e $和上界$ T_{{\text{high}}}^e $分别为
     $ T_{{\text{low}}}^e = {\min _i}T_{i,1}^e $,$ T_{{\text{high}}}^e = {\text{ma}}{{\text{x}}_i}T_{i,z}^e $
     (4) While $ T_{{\text{high}}}^e \gt T_{{\text{low}}}^e $ do:
     (5)  令$ T_{{\text{mid}}}^e = (T_{{\text{high}}}^e + T_{{\text{low}}}^e)/2 $
     (6)  对于每个节点$ i $,选择最大的$ {z_i} $使得$ T_{i,{z_i}}^e \ge T_{{\text{mid}}}^e $
     (7)  若存在可行解(所有节点均能找到对应的$ {z_i} $),则更新
     $ T_{{\text{high}}}^e = T_{{\text{mid}}}^e $,否则更新$ T_{{\text{low}}}^e = T_{{\text{mid}}}^e $
     (8) End While
     (9) 将得到的可行$ T_{{\text{high}}}^e $记为$ {T^*} $
     (10) 对于每个节点$ i $,选择$ {z_i} = \arg {\max _z}\{ T_{i,z}^e \ge {T^*}\} $
     (11) 返回所有节点的剪枝比$ \{ {\alpha _{{z_1}}},{\alpha _{{z_2}}}, \cdots ,{\alpha _{{z_N}}}\} $
    下载: 导出CSV

    3  基于词频-逆文频的自适应模型剪枝算法

     输入:剪枝比$ \alpha _i^e $,待剪枝模型参数$ {{\boldsymbol{w}}^e} $,目标类$ l $
     输出:剪枝后的模型$ {{\boldsymbol{\tilde w}}^e} $
     (1) For $ m = 1 $ to $ M $
     (2)  根据式(10)–式(12)计算第$ m $层模型参数与目标类$ l $的
        TF-IDF分数
     (3) End For
     (4) 初始化累计剪枝比例$ r = 0 $
     (5) While $ r \lt \alpha _i^e $ do:
     (6)  逐步去除剩余参数中与目标类$ l $最相关的模型参数
     (7)  更新累计剪枝比例$ r $
     (8) End While
     (9) 返回剪枝后的模型$ {{\boldsymbol{\tilde w}}^e} $
    下载: 导出CSV

    表  1  给定训练时间内不同方法的准确率和遗忘效果对比(%)

    FMNIST CIFAR-100
    LeNet AlexNet VGG11 VGG16
    准确率 遗忘效果 准确率 遗忘效果 准确率 遗忘效果 准确率 遗忘效果
    FunAMP 76.48 00.00 83.60 00.00 46.93 00.00 55.69 00.00
    FunUMP 70.55 00.00 79.16 00.00 43.50 00.00 54.02 00.00
    ReTrain 60.48 00.00 72.68 00.00 39.82 00.00 44.95 00.00
    注:粗体表示所有方案中准确率的最高值
    下载: 导出CSV
  • [1] SHI Weisong, CAO Jie, ZHANG Quan, et al. Edge computing: Vision and challenges[J]. IEEE Internet of Things Journal, 2016, 3(5): 637–646. doi: 10.1109/JIOT.2016.2579198.
    [2] MCMAHAN B, MOORE E, RAMAGE D, et al. Communication-efficient learning of deep networks from decentralized data[C]. The 20th International Conference on Artificial Intelligence and Statistics, Fort Lauderdale, USA, 2017: 1273–1282.
    [3] 管桂林, 陶政坪, 支婷, 等. 面向医疗场景的去中心化联邦学习隐私保护方法[J]. 计算机应用, 2024, 44(S2): 112–117. doi: 10.11772/j.issn.1001-9081.2024030347.

    GUAN Guilin, TAO Zhengping, ZHI Ting, et al. Decentralized federated learning privacy protection method for medical scenarios[J]. Journal of Computer Applications, 2024, 44(S2): 112–117. doi: 10.11772/j.issn.1001-9081.2024030347.
    [4] 智慧, 段苗苗, 杨利霞, 等. 一种基于区块链和联邦学习融合的交通流预测方法[J]. 电子与信息学报, 2024, 46(9): 3777–3787. doi: 10.11999/JEIT240030.

    ZHI Hui, DUAN Miaomiao, YANG Lixia, et al. A traffic flow prediction method based on the fusion of blockchain and federated learning[J]. Journal of Electronics & Information Technology, 2024, 46(9): 3777–3787. doi: 10.11999/JEIT240030.
    [5] 郑润达, 张维, 张永杰, 等. 金融领域中的联邦学习研究[J]. 数智技术研究与应用, 2025, 1(1): 1–17. doi: 10.26917/j.cnki.issn.2097-597X.2025.01.001.

    ZHENG Runda, ZHANG Wei, ZHANG Yongjie, et al. Research on federated learning in the field of finance[J]. SmartTech Innovations, 2025, 1(1): 1–17. doi: 10.26917/j.cnki.issn.2097-597X.2025.01.001.
    [6] 肖雄, 唐卓, 肖斌, 等. 联邦学习的隐私保护与安全防御研究综述[J]. 计算机学报, 2023, 46(5): 1019–1044. doi: 10.11897/SP.J.1016.2023.01019.

    XIAO Xiong, TANG Zhuo, XIAO Bin, et al. A survey on privacy and security issues in federated learning[J]. Chinese Journal of Computers, 2023, 46(5): 1019–1044. doi: 10.11897/SP.J.1016.2023.01019.
    [7] LIU Ziyao, JIANG Yu, SHEN Jiyuan, et al. A survey on federated unlearning: Challenges, methods, and future directions[J]. ACM Computing Surveys, 2025, 57(1): 2. doi: 10.1145/3679014.
    [8] WU Leijie, GUO Song, WANG Junxiao, et al. Federated unlearning: Guarantee the right of clients to forget[J]. IEEE Network, 2022, 36(5): 129–135. doi: 10.1109/MNET.001.2200198.
    [9] WANG Zichen, GAO Xiangshan, WANG Cong, et al. Efficient vertical federated unlearning via fast retraining[J]. ACM Transactions on Internet Technology, 2024, 24(2): 11. doi: 10.1145/3657290.
    [10] SYROS G, YAR G, BOBOILA S, et al. Backdoor attacks in peer-to-peer federated learning[J]. ACM Transactions on Privacy and Security, 2025, 28(1): 8. doi: 10.1145/3691633.
    [11] WANG Junxiao, GUO Song, XIE Xin, et al. Federated unlearning via class-discriminative pruning[C]. The ACM Web Conference, Lyon, France, 2022: 622–632. doi: 10.1145/3485447.3512222.
    [12] WANG Lun, XU Yang, XU Hongli, et al. BOSE: Block-wise federated learning in heterogeneous edge computing[J]. IEEE/ACM Transactions on Networking, 2024, 32(2): 1362–1377. doi: 10.1109/TNET.2023.3316421.
    [13] JIANG Zhida, XU Yang, XU hongli, et al. Computation and communication efficient federated learning with adaptive model pruning[J]. IEEE Transactions on Mobile Computing, 2024, 23(3): 2003–2021. doi: 10.1109/TMC.2023.3247798.
    [14] MA Zhenguo, XU Yang, XU Hongli, et al. Adaptive batch size for federated learning in resource-constrained edge computing[J]. IEEE Transactions on Mobile Computing, 2023, 22(1): 37–53. doi: 10.1109/TMC.2021.3075291.
    [15] AIZAWA A. An information-theoretic perspective of tf–idf measures[J]. Information Processing & Management, 2003, 39(1): 45–65. doi: 10.1016/S0306-4573(02)00021-3.
    [16] XIAO Han, RASUL K, and VOLLGRAF R. Fashion-MNIST: A novel image dataset for benchmarking machine learning algorithms[J]. arXiv preprint arXiv: 1708.07747, 2017. doi: 10.48550/arXiv.1708.07747.
    [17] KRIZHEVSKY A, NAIR V, and HINTON G. The CIFAR-100 dataset[EB/OL]. http://www.cs.toronto.edu/~kriz/cifar.html, 2024.
    [18] PAN Zibin, WANG Zhichao, LI Chi, et al. Federated unlearning with gradient descent and conflict mitigation[C]. The 39th AAAI Conference on Artificial Intelligence, Philadelphia, USA, 2025: 19804–19812. doi: 10.1609/aaai.v39i19.34181.
  • 加载中
图(4) / 表(4)
计量
  • 文章访问数:  232
  • HTML全文浏览量:  105
  • PDF下载量:  25
  • 被引次数: 0
出版历程
  • 收稿日期:  2025-06-03
  • 修回日期:  2025-08-05
  • 网络出版日期:  2025-09-16
  • 刊出日期:  2025-11-10

目录

    /

    返回文章
    返回