欢迎光临
我们一直在努力

联邦学习:去中心化数据下的深度网络优化

每个客户端都有一个永不上传的本地数据集,成千上万个客户端与全局大模型将会有同步拉取、本地计算和更新推送三个动作,其中同步拉取和更新推送才会涉及到与中心化服务器通讯。解耦模型训练需求与直连原始数据。

赞(0)
未经允许不得转载:小狮博客 » 联邦学习:去中心化数据下的深度网络优化
分享到: 更多 (0)