FATT的个人博客

技术笔记和随笔

0%

去蜂窝

支持联邦学习的去蜂窝大规模MIMO 网络高效通信策略

1.背景介绍

为了给用户提供私人化、定制化的智能服务,集中式机器学习要求用户数据被发送到云端服务器作为训练人工智能模型的源数据集1。由于无线通信场景的开放性,用户的(个人词库, FedAvg2)(工业识别, Mm-FedAvg3)(智能监控, FedVision4)隐私数据上传到云服务器的过程中存在泄露风险,会给用户带来不必要的困扰和损失。联邦学习支持用户在本地训练模型,是保障用户隐私数据安全的新型机器学习范例。

为了保护用户的数据隐私,联邦学习提出用户仅需要上传本地模型的参数到云服务器。然而,将有海量智能设备通过无线通信链路更新模型参数,一方面,大量数据上传使得通信系统中的干扰水平提高,增加了通信开销;另一方面无线信道的复杂性使得用户设备的服务质量无法得到保证,无线信道质量较差的设备需要更长的上传时间,这降低了通信效率,并增加了全局训练时延。前者取决于通信系统的抗干扰能力,而后者则与用户设备的通信策略相关。在实际应用中,通信系统由工业电源供电,无须担心高功耗负载带来的续航问题,而无线设备通过锂电池供电,低通信效率将显著增加无线设备的能量消耗。


在大规模无线网络中,海量用户设备进行数据收发导致了无线信道的复杂性,因此总存在一部分用户受到严重干扰,使得这部分用户的通信效率降低。如图1所示,由于中心服务器需要等待所有参与联邦学习进程的用户设备接收训练更新,通信效率低的用户设备将导致参与训练的其他用户设备的功耗增加,这就是所谓的落后者效应。

落后者效应导致在每轮更新过程中,网络中总存在一部分用户在训练过程中的不必要的待机时间和功耗大大增加,

为了节省UE端的能耗,我们需要在联邦学习过程中抑制落后者效应。文献567中提出联邦学习在每次迭代中,只需要一个终端的子集而不是所有终端发送本地更新。通过特定的采样技术选择用户设备的子集,使训练更新的聚合是无偏的,从而使联邦学习过程收敛。使用用户设备采样的网络比不使用用户设备采样的网络有更小的落后者用户设备的概率。因此,在这个意义上,落后者效应得到了缓解。然而,抽样的某些用户设备可能是掉线的用户设备,因此,仅使用用户设备采样技术并不总是有效地缓解落后者效应。另一方面,文献89提出了用户选择方法来缓解落后者效应。文献10开发了一种在线方案,在每次迭代中选择用户设备以最小化训练时间,同时保证联邦学习过程的收敛性。文献11中设计了一种联合设计训练时间最小化的带宽分配和用户设备选择的次优方案。文献12中引入了一种联合联邦学习、资源分配和用户设备选择方案的新型联邦学习框架,以在达到一定联邦学习精度的同时最小化训练时间。但是,在时分多址、频分多址和正交频分多址网络中实现联邦学习,如1314,可能效率不高。在这些网络中,联邦学习训练时间显著增加,特别是当用户设备数量较大时。

近年来,无蜂窝的大规模多输入多输出(CFmMIMO)网络被认为是在15无线网络上支持联邦学习的绝佳选择。在CFmMIMO网络中,用户设备由大量的分布式接入点通过相同频段的无线链路同时提供服务,接入点通过回程链路连接到中央处理器。CFmMIMO网络提供了宏分集增益,从而为所有终端16提供高质量的服务。更重要的是,CFmMIMO网络提供了信道硬化17,即有效信道增益在一个大尺度相干时间内相当稳定。利用这一特性,文献18提出了一个联邦学习框架,使联邦学习过程的每次迭代发生在一个大尺度相干时间内。然而,现有工作仍未研究落后者效应对用户终端功耗的影响,因此用于减轻无细胞大规模 MIMO 网络上联邦学习的落后者效应的方法尚未被研究。

在联邦学习场景下,

如图1所示,联邦学习的步骤如下。

  • 服务器分发全局模型给参与联邦学习的用户。

  • 用户使用个人数据训练本地模型。

  • 用户上传本地模型。

  • 服务器汇聚多个用户的本地模型生成新的全局模型。

    联邦学习过程将持续进行直到全局模型收敛。


通常联邦学习训练模型的迭代过程将持续上千次,随着参与联邦学习的用户数量的增加,联邦学习训练过程传输的数据量使现有通信系统不堪重负。


【相关工作部分】

由于上述所有有前途的优势,FL已经吸引了开发者和研究人员的广泛关注。

目前的研究可以分为以下几类:

  • 提升模型收敛速度,降低全局通信轮次

    • 通过用户调度,提高模型收敛速度。

    • 通过优化云端魔性的聚合方式,获得更好的全局模型。

  • 降低每轮通信的通信消耗(训练时间、数据量)

    • 通过用户侧或基站侧的资源分配方案降低模型训练的时间
    • 通过压缩模型参数的方法,降低每轮次通信的数据量

【未来工作】

在无线网络中,大多数用户设备仅依靠电池维持工作,参与联邦学习的多轮次通信消耗对用户设备的续航时间影响很大,因此高能效的资源分配方案是必要的。基于上述原因,本文提出了一种用户设备的资源分配方案以支持在无蜂窝系统上进行联邦学习。通过建模用户设备在每轮次联邦学习过程中的计算时间、计算功耗、数据传输时间和数据传输功耗,最终在优化用户设备的本地模型精度、上行功率分配系数和CPU时钟频率等变量的基础上,最小化用户设备的能耗。


  1. Dong, S., Wang, P., & Abbas, K. (2021). A survey on deep learning and its applications. Computer Science Review, 40, 100379.↩︎

  2. McMahan, B., Moore, E., Ramage, D., Hampson, S., & y Arcas, B. A. (2017, April). Communication-efficient learning of deep networks from decentralized data. In Artificial intelligence and statistics (pp. 1273-1282). PMLR.↩︎

  3. Zhao, Y., Barnaghi, P., & Haddadi, H. (2022, May). Multimodal Federated Learning on IoT Data. In 2022 IEEE/ACM Seventh International Conference on Internet-of-Things Design and Implementation (IoTDI) (pp. 43-54). IEEE.↩︎

  4. Deng, Y., Han, T., & Ansari, N. (2020). FedVision: Federated video analytics with edge computing. IEEE Open Journal of the Computer Society, 1, 62-72.↩︎

  5. McMahan, B., Moore, E., Ramage, D., Hampson, S., & y Arcas, B. A. (2017, April). Communication-efficient learning of deep networks from decentralized data. In Artificial intelligence and statistics (pp. 1273-1282). PMLR.↩︎

  6. X. Li, K. Huang, W. Yang, S. Wang, and Z. Zhang, “On the convergence of FedAvg on Non-IID data,” in Proc. Int. Conf. Learning Representations (ICLR), 2020.↩︎

  7. Haddadpour, F., & Mahdavi, M. (2019). On the convergence of local descent methods in federated learning. arXiv preprint arXiv:1910.14425.↩︎

  8. Xia, W., Quek, T. Q., Guo, K., Wen, W., Yang, H. H., & Zhu, H. (2020). Multi-armed bandit-based client scheduling for federated learning. IEEE Transactions on Wireless Communications, 19(11), 7108-7123.↩︎

  9. Vu, T. T., Ngo, D. T., Ngo, H. Q., Dao, M. N., Tran, N. H., & Middleton, R. H. (2022). Joint Resource Allocation to Minimize Execution Time of Federated Learning in Cell-Free Massive MIMO. IEEE Internet of Things Journal.↩︎

  10. Xia, W., Quek, T. Q., Guo, K., Wen, W., Yang, H. H., & Zhu, H. (2020). Multi-armed bandit-based client scheduling for federated learning. IEEE Transactions on Wireless Communications, 19(11), 7108-7123.↩︎

  11. Vu, T. T., Ngo, D. T., Ngo, H. Q., Dao, M. N., Tran, N. H., & Middleton, R. H. (2022). Joint Resource Allocation to Minimize Execution Time of Federated Learning in Cell-Free Massive MIMO. IEEE Internet of Things Journal.↩︎

  12. M. Chen, H. V. Poor, W. Saad, and S. Cui, “Convergence time minimization of federated learning over wireless networks,” in Proc. IEEE Int. Conf. Commun. (ICC), 2020, pp. 1–6.↩︎

  13. Xia, W., Quek, T. Q., Guo, K., Wen, W., Yang, H. H., & Zhu, H. (2020). Multi-armed bandit-based client scheduling for federated learning. IEEE Transactions on Wireless Communications, 19(11), 7108-7123.↩︎

  14. M. Chen, H. V. Poor, W. Saad, and S. Cui, “Convergence time minimization of federated learning over wireless networks,” in Proc. IEEE Int. Conf. Commun. (ICC), 2020, pp. 1–6.↩︎

  15. T. T. Vu, D. T. Ngo, N. H. Tran, H. Q. Ngo, M. N. Dao, and R. H. Middleton, “Cell-free massive MIMO for wireless federated learning,” IEEE Trans. Wireless Commun., 2020.↩︎

  16. H. Q. Ngo, A. Ashikhmin, H. Yang, E. G. Larsson, and T. L. Marzetta, “Cell-free massive MIMO versus small cells,”IEEE Trans. Wireless Commun., vol. 16, no. 3, pp. 1834–1850, Mar. 2017.↩︎

  17. T. L. Marzetta, E. G. Larsson, H. Yang, and H. Q. Ngo, Fundamentals of Massive MIMO. Cambridge University Press, 2016. 因此本文的研究目标在于通过缓解无蜂窝网络中进行联邦学习的落后者效应,降低用户设备的功耗。↩︎

  18. T. T. Vu, D. T. Ngo, N. H. Tran, H. Q. Ngo, M. N. Dao, and R. H. Middleton, “Cell-free massive MIMO for wireless federated learning,” IEEE Trans. Wireless Commun., 2020.↩︎