中国教育家协会诚邀学校教育机构广泛联盟,多赢合作共谋发展!

本站首页 广告服务 旧版回顾 会员注册 会员服务 申请友情连接

全国优秀研究生院校报考指南 中国教育第一网欢迎您!今天是

用户登陆口

首页 教育新闻 院校大全 高考招生 考研招生 留学移民 电脑培训 中考信息
各省动态 少儿教育 家庭教育 远程教育 特殊教育 职成教育 就业中心 教育家
教学技术 教学产品 科技发展 高校后勤 教育论坛 热点资讯 国际交际 教育博客
资讯搜索:

聚焦大模型训练效率提升 北大依托昇腾突破细粒度混合并行技术

--------------------------------------------------------------------------------
点击次数:639  发布时间:2025-8-1 16:30:01

 

在人工智能大模型迅猛发展的当下,大模型参数和计算量呈指数级增长,大规模深度学习模型的训练离不开多硬件设备的分布式计算。在鲲鹏昇腾科教创新卓越中心的算力支持下,北京大学计算机学院崔斌教授团队创新研发了面向大模型的高效分布式训练框架,大幅提升了大规模分布式训练模型的效率。

针对模型训练任务的多样性和复杂性所带来的负载不均问题,研究团队创新设计出了细粒度模型切分与并行策略搜索算法。此方法依托昇腾强大的计算资源管理能力,及算子优化技术对训练策略的适配,完成了统一训练接口到智能切分策略的全过程。首先通过总结多种大模型训练的共同特点,设计出统一的接口来启动和管理不同任务负载的模型训练任务,对训练时所花费的算力、内存、网络通信等进行精确地计算。接着基于这些数据细致拆解庞大且复杂的大模型,根据不同模块分配不同的训练策略以适应各模块的负载差异,实现训练任务的高效并行。目前,该方案已实现比分片数据并行、3D 并行等全局模版化并行方案提升15% 的训练效率。

除此之外,团队还解决了分布式计算所涉及的硬件间通信传输效率问题。结合昇腾高速互联总线技术的高带宽低时延优势,系统会很根据不同的通信需求,对硬件设备进行分组以优化组队时间,运用计算通信重叠技术让“计算”和“通信”同步进行,提高训练流水线的效率,并在模型切分的决策时考虑计算通信重叠的性能影响,综合多方面因素选取最适合的分布式运行方案,最终实现数据传输效率和资源利用率的最大化。

该研究成果不仅为模型大规模训练提供了高效的解决方案,更展现了自主算力在分布式计算领域的巨大潜力。目前,研究成果已在国际顶级学术会议NeurIPS、ICLR、AAAI发表3篇论文,为国内AI技术突破提供了理论支撑与实践范式。

北京大学 鲲鹏昇腾科教创新卓越中心的这一突破彰显了校企协同创新的显著成效。未来,中心将持续加速AI前沿技术在自主计算平台的深度落地,为我国人工智能产业的自主化突破提供强劲动能。


 


—— 信息源自:

 
产品推荐


中国教育家协会 版权所有
中华人民共和国 京ICP证000045号-83
项目合作:010-64803353
邮箱:bj64801986@126.com

香港通讯地址:香港兴发街邮政局38062信箱
中国香港政府注册登记号:18159887-038-01-06-0
咨询电话:010-64803658 香港电话:852-2915.7428 传真:852-2915.6313