首页 家电百科 实时讯息 常识

我国科学家发明混合并行新算法,训练AI速度近乎翻倍

0次浏览     发布时间:2025-05-29 10:39:00    

IT之家 5 月 29 日消息,中国科学报今天(5 月 29 日)报道,我国科学家联合发明混合并行新算法 GroPipe,首次融合流水线模型并行与数据并行,训练 AI 速度近乎实现翻倍。

IT之家援引博文介绍,该算法由西北农林科技大学信息工程学院智能计算与农业信息系统团队刘斌教授带领,携手美国纽约州立大学和云南大学,相关论文联合发表在国际计算机体系结构领域权威期刊《IEEE Transactions on Computers》(TC,CCF A 类期刊)上。

西北农林科技大学信息工程学院教授刘斌担任第一作者,纪泽宇老师与云南大学副教授何臻力共同担任通讯作者,纽约州立大学教授李克勤(欧洲科学院院士,并行与分布式计算领域公认的顶尖学者,国家特聘教授)作为重要合作者。

研究指出,在训练大型深度卷积神经网络(DCNNs)方面,使用越来越大的数据集来提高模型精度已变得非常耗时,数据并行(DP)和流水线模型并行(PMP)等分布式训练方法虽然提供了可行解决方案,但面临负载不平衡和显著的通信开销等挑战。

为此团队提出了 GroPipe 算法架构,协同整合 PMP 和 DP,采用了基于性能预测技术的自动模型分割算法,确保负载平衡并便于在 PMP 中进行定量性能评估。

GroPipe 方法整体框架图。西北农林科技大学供图

该方法首次将流水线模型并行与数据并行相融合,构建“组内流水线 + 组间数据并行”的分层训练架构,并通过自动模型划分算法(AMPA)实现计算负载的动态均衡调度,大幅提升 GPU 资源利用率。

在一台 8-GPU 服务器上广泛测试后,发现在 ImageNet 数据集上,GroPipe 方法相较于主流方案(如 DP、Torchgpipe、DAPPLE 和 DeepSpeed)表现出卓越优势:ResNet 系列平均加速比达 42.2%,VGG 系列达 79.2%;在 BERT-base 模型训练中,性能提升最高可达 51%。

IT之家附上参考地址

相关文章:

我国科学家发明混合并行新算法,训练AI速度近乎翻倍05-29

市检察院:智能化赋能法律监督能力提升05-26

英伟达为RTX 5060/Ti发布兼容性固件更新,解决黑屏与重启问题05-24

不甘于工具,谷歌、微软重注AI Agent05-22

破解数据资产化“最后一公里”瓶颈!数据价值化创新路径实践论坛在郑州举办05-21

数聚梅州 智创未来!广州数据交易所(梅州)服务基地揭牌05-21

面壁智能宣布完成新一轮数亿元融资 推动端侧大模型规模化应用05-21

陕西省数据知识产权试点工作获评全国优秀等次05-21