期刊文献+
共找到68篇文章
< 1 2 4 >
每页显示 20 50 100
分布式训练系统及其优化算法综述 被引量:8
1
作者 王恩东 闫瑞栋 +1 位作者 郭振华 赵雅倩 《计算机学报》 EI CAS CSCD 北大核心 2024年第1期1-28,共28页
人工智能利用各种优化技术从海量训练样本中学习关键特征或知识以提高解的质量,这对训练方法提出了更高要求.然而,传统单机训练无法满足存储与计算性能等方面的需求.因此,利用多个计算节点协同的分布式训练系统成为热点研究方向之一.本... 人工智能利用各种优化技术从海量训练样本中学习关键特征或知识以提高解的质量,这对训练方法提出了更高要求.然而,传统单机训练无法满足存储与计算性能等方面的需求.因此,利用多个计算节点协同的分布式训练系统成为热点研究方向之一.本文首先阐述了单机训练面临的主要挑战.其次,分析了分布式训练系统亟需解决的三个关键问题.基于上述问题归纳了分布式训练系统的通用框架与四个核心组件.围绕各个组件涉及的技术,梳理了代表性研究成果.在此基础之上,总结了基于并行随机梯度下降算法的中心化与去中心化架构研究分支,并对各研究分支优化算法与应用进行综述.最后,提出了未来可能的研究方向. 展开更多
关键词 分布式训练系统 (去)中心化架构 中心化架构算法 (异)同步算法 并行随机梯度下降 收敛速率
在线阅读 下载PDF
支持大模型分布式训练的光传输网络技术探索
2
作者 李俊杰 刘宇旸 霍晓莉 《信息通信技术》 2024年第6期4-13,共10页
随着人工智能技术的发展,大型语言模型(LLM,例如Chat-GPT等)在多个应用场景中展现出卓越的应用前景,得到了迅猛发展。然而,随着模型规模的不断增大,训练这些大规模模型所需的计算资源和时间也呈现爆炸式增长,智算中心集群规模向着十万... 随着人工智能技术的发展,大型语言模型(LLM,例如Chat-GPT等)在多个应用场景中展现出卓越的应用前景,得到了迅猛发展。然而,随着模型规模的不断增大,训练这些大规模模型所需的计算资源和时间也呈现爆炸式增长,智算中心集群规模向着十万卡级甚至百万卡级加速演进。在此情况下,多数据中心的分布式训练成为重要的发展方向。光传输网络由于其超大带宽、超高可靠与超低时延等特性成为了分布式训练中海量数据的承载底座。文章从大模型训练的需求分析出发,介绍主流公司的训练能力与现状,并针对适用于多数据中心分布式训练的光传输网络技术进行分析与展望。 展开更多
关键词 大模型 分布式训练 智算中心 光传输网络 800Gbit/s 多波段
在线阅读 下载PDF
基于混合并行的分布式训练优化研究
3
作者 徐金龙 李鹏飞 +3 位作者 李嘉楠 陈飙元 高伟 韩林 《计算机科学》 CSCD 北大核心 2024年第12期120-128,共9页
大型神经网络训练是深度学习领域的一个热点话题,而分布式训练是基于多节点实现大型神经网络训练的最佳方法之一。分布式训练通常包含数据并行、层间并行和层内并行3种并行方法。然而现有的框架在层间并行时只能对模型进行手动切分,增... 大型神经网络训练是深度学习领域的一个热点话题,而分布式训练是基于多节点实现大型神经网络训练的最佳方法之一。分布式训练通常包含数据并行、层间并行和层内并行3种并行方法。然而现有的框架在层间并行时只能对模型进行手动切分,增加了模型设计的抽象复杂度,对此提出了节点约束关系搜索算法,实现了模型的自动切分。另外,在传统的数据并行和层间并行中,由于模型的复杂约束关系和通信操作的需要,计算和通信往往受到严格的序列化限制,为此引入了同步优化算法,实现了计算和通信的重叠,有效提高了整体训练的效率。实验对不同规模的GPT-2,AlexNet,VGG16和ResNet50模型进行训练,使用同步优化算法在6节点条件下可以将GPT2-XL,GPT2-LARGE和GPT2-MEDIUM模型的训练性能分别提升1.14倍、1.18倍和1.23倍,在1节点条件下将AlexNet,VGG16和ResNet50模型的训练性能分别提升1.31倍、1.14倍和1.03倍。实验结果表明,同步优化算法能够提升混合并行中的训练效率。 展开更多
关键词 分布式训练 混合并行 自动切分 通信优化 梯度同步
在线阅读 下载PDF
面向深度行情因子挖掘的分布式训练关键技术研究
4
作者 赵鑫博 陆忠华 《计算机工程与科学》 CSCD 北大核心 2024年第9期1554-1565,共12页
深度行情数据是沪深交易所的新一代实时行情数据产品,是普通基础行情数据的升级版,是目前国内信息密度最高、蕴含信息量最大、挖掘最不充分的行情数据,对挖掘证券市场潜在风险具有重要价值。但是,现有研究缺少基于深度行情数据面向证券... 深度行情数据是沪深交易所的新一代实时行情数据产品,是普通基础行情数据的升级版,是目前国内信息密度最高、蕴含信息量最大、挖掘最不充分的行情数据,对挖掘证券市场潜在风险具有重要价值。但是,现有研究缺少基于深度行情数据面向证券市场的风险度量和计算分析,且全市场深度行情数据规模大,用于提取信息的深度学习模型也越来越复杂,尽管当下硬件的计算能力也在一直不断地发展与提高,但仍然无法解决训练耗时长、效率低等问题。因此,基于沪深300成分股深度行情数据,利用深度学习等方法挖掘高频波动率因子,构建了基于TabNet与LightGBM的高频波动率预测模型。同时,提出了一种基于并行差分进化的分布式训练算法Parallel_DE,用于模型分布式训练过程中的参数计算,并详细阐述了其场景映射方案与整体流程设计。针对上述2项工作基于自有分布式训练平台进行充分验证,实验结果表明,高频波动率预测模型可以对已实现波动率进行高精度预测,且效果相较于其他方法具有一定优越性;Parallel_DE算法可以在一定程度保留参数多样性的同时,有效减少本地参数在测试集上的误差,从而高效率分布式地训练出性能优良的深度学习模型,为证券市场的风险识别提供了面向深度行情数据的相关技术与方法。 展开更多
关键词 深度行情 已实现波动率 分布式训练 差分进化
在线阅读 下载PDF
基于大数据分析的人工神经网络分布式训练方法
5
作者 向冲 张赛 《微型电脑应用》 2024年第4期182-185,共4页
为了降低人工神经网络训练时的复杂度并减少传统分布式训练方法的通信开销,提出了基于大数据分析的人工神经网络分布式训练方法。具体来讲,使用动态模型平均方法,仅在局部模型显著偏离全局模型时才对局部模型进行同步,因此与基于周期平... 为了降低人工神经网络训练时的复杂度并减少传统分布式训练方法的通信开销,提出了基于大数据分析的人工神经网络分布式训练方法。具体来讲,使用动态模型平均方法,仅在局部模型显著偏离全局模型时才对局部模型进行同步,因此与基于周期平均的分布式训练框架相比,减少了通信方面的不必要开销。实验部分,基于实际场景中的大型数据集和深度全卷积神经网络,证明了模型同步所需的通信时间明显缩短,且动态模型平均的方法可以达到与静态周期平均方法相当的精度,此外以证明其随着计算节点的增加而可横向扩展,这些夯实了本文方法的有效性。 展开更多
关键词 大数据分析 人工神经网络 分布式训练
在线阅读 下载PDF
基于HLA的某型机动指挥分布式训练模拟系统设计 被引量:4
6
作者 夏薇 慕晓冬 +1 位作者 魏鸿毅 梁洪波 《火力与指挥控制》 CSCD 北大核心 2009年第6期135-137,140,共4页
在分析某型机动指挥系统的操作规程和部队需求的基础上,将训练模拟器和先进的计算机仿真技术结合起来,设计了基于HLA的训练、考核和管理仿真系统,以较小的代价解决部队的实际训练需求。针对该武器装备操作训练的特点,重点介绍了仿真联... 在分析某型机动指挥系统的操作规程和部队需求的基础上,将训练模拟器和先进的计算机仿真技术结合起来,设计了基于HLA的训练、考核和管理仿真系统,以较小的代价解决部队的实际训练需求。针对该武器装备操作训练的特点,重点介绍了仿真联邦的设计以及成员对象模型SOM和联邦对象模型FOM的设计与实现。 展开更多
关键词 高层体系结构 分布式训练模拟 对象模型模板
在线阅读 下载PDF
分布式训练异构任务调度算法研究 被引量:1
7
作者 杨坚伟 孟敏 +1 位作者 黄家乐 武继刚 《计算机工程与科学》 CSCD 北大核心 2021年第7期1160-1167,共8页
分布式机器学习中的工作结点在训练过程中经常需要处理异构任务,但任务发布者可能无法根据有效的先验知识确定边缘服务器集群中哪些是处于训练状态的工作结点。针对边缘服务器集群无法同时满足训练性能与服务质量最大化的问题,对异构任... 分布式机器学习中的工作结点在训练过程中经常需要处理异构任务,但任务发布者可能无法根据有效的先验知识确定边缘服务器集群中哪些是处于训练状态的工作结点。针对边缘服务器集群无法同时满足训练性能与服务质量最大化的问题,对异构任务调度算法进行了研究。首先在集群资源约束下分析了分布式训练收敛性能的影响因素;其次建立了最大化训练性能的优化目标;最后转化为多维多选择背包问题进行求解。仿真结果表明,所提异构任务调度算法能够在保证服务质量的同时,最大化分布式训练性能。 展开更多
关键词 分布式训练 训练性能 异构任务调度 多维多选择背包 收敛分析
在线阅读 下载PDF
降低分布式训练通信的梯度稀疏压缩方法 被引量:2
8
作者 陈世达 刘强 韩亮 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2021年第2期386-394,共9页
针对现有的梯度稀疏压缩技术在实际应用中面临时间开销大的问题,基于分布式训练中残差梯度压缩算法提出低复杂度、能快速选取top-k稀疏梯度通信集的方法.采用Wasserstein距离确定梯度分布特征符合Laplacian分布;利用Laplacian分布曲线... 针对现有的梯度稀疏压缩技术在实际应用中面临时间开销大的问题,基于分布式训练中残差梯度压缩算法提出低复杂度、能快速选取top-k稀疏梯度通信集的方法.采用Wasserstein距离确定梯度分布特征符合Laplacian分布;利用Laplacian分布曲线面积关系确定关键点,并通过最大似然估计简化特征参数;估计稀疏梯度top-k阈值,并结合二分搜索对阈值修正.该方法避免了现有随机抽样方法的不稳定性和数据排序之类的复杂操作.为了评估所提方法的有效性,在图形处理器(GPU)平台采用CIFAR-10和CIFAR-100数据集对图像分类深度神经网络进行训练.结果显示,与radixSelect和层级选择方法相比,在达到相同训练精度的情况下,本研究方法最高分别实现了1.62、1.30倍的加速. 展开更多
关键词 深度神经网络 分布式训练 残差梯度压缩 top-k阈值 分布估计 二分搜索
在线阅读 下载PDF
卷积神经网络的分布式训练在表情识别中的应用 被引量:4
9
作者 董飞艳 《软件》 2020年第1期160-164,共5页
为了解决目前流行的人脸识别系统存在问题(如:面部遮挡,姿态改变,光线扭曲等),根据人的表情做出准确情感判断,提出了如下的卷积神经网络的分布式训练识别系统:由两部分构成:第一部分借鉴YOLO(You Only Look Once)算法实现目标检测,准确... 为了解决目前流行的人脸识别系统存在问题(如:面部遮挡,姿态改变,光线扭曲等),根据人的表情做出准确情感判断,提出了如下的卷积神经网络的分布式训练识别系统:由两部分构成:第一部分借鉴YOLO(You Only Look Once)算法实现目标检测,准确定位复杂背景图像中人脸的位置;第二部分使用基于VGGnet的改良结构,对已定位到的面部表情进行分类。相比于端到端的模型,可以引入更多的可控的人类学习经验与有效训练数据,从而得到更优秀的分类结果。实验结果表明该系统的可行性,在FER2013数据集上产生了较优异的结果,总正确率达69.83%。相对于现有算法,具有容易训练、准确度高、实时性强、鲁棒性好与易增添后续功能等优点,未来有很大提升空间。 展开更多
关键词 表情识别 卷积神经网络 分布式训练 YOLO算法 VGGNet结构
在线阅读 下载PDF
一种深度神经网络的分布式训练方法 被引量:1
10
作者 原野 田园 蒋七兵 《电子技术应用》 2023年第3期48-53,共6页
深度神经网络在高维数据的分类和预测中取得了巨大成功。训练深度神经网络是数据密集型的任务,需从多个数据源收集大规模的数据。这些数据中通常包含敏感信息时,使得深度神经网络的训练过程容易泄露数据隐私。针对训练过程中的数据隐私... 深度神经网络在高维数据的分类和预测中取得了巨大成功。训练深度神经网络是数据密集型的任务,需从多个数据源收集大规模的数据。这些数据中通常包含敏感信息时,使得深度神经网络的训练过程容易泄露数据隐私。针对训练过程中的数据隐私和通信代价问题,提出了一种深度神经网络的分布式训练方法,允许基于多个数据源共同训练深度神经网络。首先,提出了分布式训练架构,由1个计算中心和多个代理组成。其次,提出了基于多代理的分布式训练算法,允许代理在数据不出本地和减少通信代价的情况下,通过切割深度神经网络,实现分布式地共同训练模型。然后,分析了算法的正确性。最后,实验结果表明该方法是有效的。 展开更多
关键词 深度神经网络 分布式训练 监督学习 隐私保护
在线阅读 下载PDF
大模型分布式训练方法研究综述
11
作者 蒋丰泽 《深圳信息职业技术学院学报》 2023年第6期9-15,共7页
随着ChatGPT的问世,各种大模型(Large Language Model,LLM)产品不断涌现,一个属于大模型的时代正在来临。然而,由于大模型面临着参数规模大、训练时间长的难点,现有传统机器学习模型训练方法并不适用于大模型的训练,亟需探索新的分布式... 随着ChatGPT的问世,各种大模型(Large Language Model,LLM)产品不断涌现,一个属于大模型的时代正在来临。然而,由于大模型面临着参数规模大、训练时间长的难点,现有传统机器学习模型训练方法并不适用于大模型的训练,亟需探索新的分布式训练方法与策略。针对这些问题,从三个方面综述大模型分布式训练方法在过去十几年里的进展,包含分布式训练的架构并行加速策略以及内存和计算优化方面的内容,最后提出了未来可以探索的研究方向。 展开更多
关键词 大模型 分布式训练 并行处理
在线阅读 下载PDF
神经网络分布式训练的现状及发展
12
作者 郭炳均 王思晗 《信息与电脑》 2020年第21期50-51,共2页
随着深度学习的规模越来越大,神经网络的结构越来越复杂,分布式训练在研究和实践中变得越来越重要。而如何提高分布式训练的效率就成了研究的热点,本文主要介绍了当下分布式训练的现状以及所用到的方法,同时对提升分布式训练效率的未来... 随着深度学习的规模越来越大,神经网络的结构越来越复杂,分布式训练在研究和实践中变得越来越重要。而如何提高分布式训练的效率就成了研究的热点,本文主要介绍了当下分布式训练的现状以及所用到的方法,同时对提升分布式训练效率的未来趋势和所面临的挑战进行了展望,以更好地了解神经网络的分布式训练。 展开更多
关键词 神经网络 分布式训练 训练效率
在线阅读 下载PDF
面向人工智能物联网的分布式训练通信优化策略
13
作者 赵晓杰 陈晔 《西安文理学院学报(自然科学版)》 2022年第4期27-31,共5页
为了提高物联网中人工智能模型的训练效率,提出了一种基于阈值划分的梯度选择策略,以解决分布式训练过程中节点间通信开销高的问题.通过研究主流的模型来分析梯度参数的分布.根据梯度的分布特点,该策略将梯度分为关键区域和稀疏区域.结... 为了提高物联网中人工智能模型的训练效率,提出了一种基于阈值划分的梯度选择策略,以解决分布式训练过程中节点间通信开销高的问题.通过研究主流的模型来分析梯度参数的分布.根据梯度的分布特点,该策略将梯度分为关键区域和稀疏区域.结合梯度分布的信息熵,该策略确定合理的阈值对分区内的梯度值进行选择,仅选择大于阈值的梯度值参与训练.实验评估结果表明,该策略可以有效地减少传输的参数量,并确保了模型训练的准确性. 展开更多
关键词 人工智能物联网 分布式训练 梯度选择
在线阅读 下载PDF
分布式策略下的解码端增强图像压缩网络
14
作者 张静 吴慧雪 +1 位作者 张少博 李云松 《西安电子科技大学学报》 北大核心 2025年第1期1-13,共13页
随着多媒体的快速发展,大规模的图像数据对网络带宽和存储空间造成了巨大压力。目前,基于深度学习的图像压缩方法仍然存在重建图像有压缩伪影和训练速度慢等问题。针对上述问题,提出了分布式策略下的解码端增强图像压缩网络,用于减少重... 随着多媒体的快速发展,大规模的图像数据对网络带宽和存储空间造成了巨大压力。目前,基于深度学习的图像压缩方法仍然存在重建图像有压缩伪影和训练速度慢等问题。针对上述问题,提出了分布式策略下的解码端增强图像压缩网络,用于减少重建图像压缩伪影和提高训练速度。一方面,原有的信息聚合子网不能有效利用超先验解码器的输出信息,不可避免地会在重建图像中产生压缩伪影。因此,使用解码端增强模块预测重建图像中的高频分量,减少压缩伪影。随后,为了进一步提高网络的非线性能力,引入了特征增强模块,进一步提高重建图像质量。另一方面,采用分布式训练解决单个节点训练速度较慢的问题,通过使用分布式训练有效缩短了训练时间。然而,分布式训练过程中梯度同步会产生大量通信开销,将梯度稀疏算法加入了分布式训练,每个节点按照概率将重要的梯度传递到主节点进行更新,进一步提高了训练速度。实验结果表明,分布式训练可以在保证重建图像质量的基础上加速训练。 展开更多
关键词 分布式训练 解码端增强 深度学习 图像压缩
在线阅读 下载PDF
无线算力网络中面向AI任务的分布式通信计算协同研究
15
作者 张申虎 杨蕊侨 +1 位作者 谢云菁 闫实 《移动通信》 2025年第3期37-45,共9页
通过汇聚通信、计算与模型能力,6G网络主动式能够提供分布式的高效、实时且节能的AI服务能力。无线算力网络作为其基础底座,通过按需适时的算力服务和合理的分布式通信计算协同设计,有望成为未来移动AI业务极高算力需求的重要支撑方案... 通过汇聚通信、计算与模型能力,6G网络主动式能够提供分布式的高效、实时且节能的AI服务能力。无线算力网络作为其基础底座,通过按需适时的算力服务和合理的分布式通信计算协同设计,有望成为未来移动AI业务极高算力需求的重要支撑方案。首先对典型的协同模式进行分类与分析,包括集中式模式、分层分簇模式、去中心式模式和边缘分布式协同模式;其次,综述了主要的分布式训练与推理方法,涵盖联邦学习、拆分学习、模型优化与协同推理以及多智能体深度强化学习;最后,从AI任务准确率、时延、密度及能效等方面设计了评价指标体系,为移动AI任务的性能研究与评估提供重要参考。 展开更多
关键词 6G 移动AI任务 分布式训练 协同推理
在线阅读 下载PDF
面向深度神经网络大规模分布式数据并行训练的MC^(2)能耗模型
16
作者 魏嘉 张兴军 +2 位作者 王龙翔 赵明强 董小社 《计算机研究与发展》 EI CSCD 北大核心 2024年第12期2985-3004,共20页
深度神经网络(deep neural network,DNN)在许多现代人工智能(artificial intelligence,AI)任务中取得了最高的精度.近年来,使用高性能计算平台进行大规模分布式并行训练DNN越来越普遍.能耗模型在设计和优化DNN大规模并行训练和抑制高性... 深度神经网络(deep neural network,DNN)在许多现代人工智能(artificial intelligence,AI)任务中取得了最高的精度.近年来,使用高性能计算平台进行大规模分布式并行训练DNN越来越普遍.能耗模型在设计和优化DNN大规模并行训练和抑制高性能计算平台过量能耗方面起着至关重要的作用.目前,大部分的能耗模型都是从设备的角度出发对单个设备或多个设备构成的集群进行能耗建模,由于缺乏从能耗角度对分布式并行DNN应用进行分解剖析,导致罕有针对分布式DNN应用特征进行建模的能耗模型.针对目前最常用的DNN分布式数据并行训练模式,从DNN模型训练本质特征角度出发,提出了“数据预处理(materials preprocessing)-前向与反向传播(computing)-梯度同步与更新(communicating)”三阶段MC^(2)能耗模型,并通过在国产E级原型机天河三号上使用最多128个MT节点和32个FT节点训练经典的VGG16和ResNet50网络以及最新的Vision Transformer网络验证了模型的有效性和可靠性.实验结果表明,MC^(2)与真实能耗测量结果相差仅为2.84%,相较4种线性比例能耗模型以及AR,SES,ARIMA时间预测模型准确率分别提升了69.12个百分点,69.50个百分点,34.58个百分点,13.47个百分点,5.23个百分点,22.13个百分点,10.53个百分点.通过使用的模型可以在超算平台得到DNN模型的各阶段能耗和总体能耗结果,为评估基于能耗感知的DNN大规模分布式数据并行训练及推理各阶段任务调度、作业放置、模型分割、模型裁剪等优化策略的效能提供了基础. 展开更多
关键词 深度神经网络 能耗模型 大规模分布式训练 数据并行 超级计算机
在线阅读 下载PDF
分布式模型训练中的通信优化方法:现状及展望
17
作者 赵海燕 易庆奥 +2 位作者 汤敬华 钱诗友 曹健 《小型微型计算机系统》 CSCD 北大核心 2024年第12期2964-2978,共15页
在进行大模型训练时,采用分布式训练是解决单个GPU卡或单个节点无法处理庞大模型参数和数据集的有效方法.通过将训练任务分配给多个节点,分布式模型训练实现了计算资源的并行利用,从而提高了训练效率.然而,随着模型规模的迅速增大,通信... 在进行大模型训练时,采用分布式训练是解决单个GPU卡或单个节点无法处理庞大模型参数和数据集的有效方法.通过将训练任务分配给多个节点,分布式模型训练实现了计算资源的并行利用,从而提高了训练效率.然而,随着模型规模的迅速增大,通信成为制约分布式训练性能的瓶颈.近年来,许多研究者对分布式训练中的通信问题进行了深入的研究,本文对相关研究进行全面的综述,从5个不同角度对分布式训练中的通信问题进行了分析,并总结了相应的优化方法.这些优化方法包括但不限于通信拓扑优化、梯度压缩技术、同步和异步算法、重叠通信与计算、以及通信库及硬件的优化.最后,本文对未来的研究方向进行了分析与展望. 展开更多
关键词 大模型 分布式训练 并行 通信优化
在线阅读 下载PDF
Cloudless-Training:基于serverless的高效跨地域分布式ML训练框架
18
作者 谭文婷 吕存驰 +1 位作者 史骁 赵晓芳 《高技术通讯》 CAS 北大核心 2024年第3期219-232,共14页
跨地域分布式机器学习(ML)训练能够联合多区域的云资源协作训练,可满足许多新兴ML场景(比如大型模型训练、联邦学习)的训练需求。但其训练效率仍受2方面挑战的制约。首先,多区域云资源缺乏有效的弹性调度,这会影响训练的资源利用率和性... 跨地域分布式机器学习(ML)训练能够联合多区域的云资源协作训练,可满足许多新兴ML场景(比如大型模型训练、联邦学习)的训练需求。但其训练效率仍受2方面挑战的制约。首先,多区域云资源缺乏有效的弹性调度,这会影响训练的资源利用率和性能;其次,模型跨地域同步需要在广域网(WAN)上高频通信,受WAN的低带宽和高波动的影响,会产生巨大通信开销。本文提出Cloudless-Training,从3个方面实现高效的跨地域分布式ML训练。首先,它基于serverless计算模式实现,使用控制层和训练执行层的2层架构,支持多云区域的弹性调度和通信。其次,它提供一种弹性调度策略,根据可用云资源的异构性和训练数据集的分布自适应地部署训练工作流。最后,它提供了2种高效的跨云同步策略,包括基于梯度累积的异步随机梯度下降(ASGD-GA)和跨云参数服务器(PS)间的模型平均(MA)。Cloudless-Training是基于OpenFaaS实现的,并被部署在腾讯云上评估,实验结果表明Cloudless-Training可显著地提高跨地域分布式ML训练的资源利用率(训练成本降低了9.2%~24.0%)和同步效率(训练速度最多比基线快1.7倍),并能保证模型的收敛精度。 展开更多
关键词 跨地域分布式机器学习(ML)训练 跨云ML训练 分布式训练框架 serverless 跨云模型同步
在线阅读 下载PDF
基于深度学习冻结机制的分布式多GPU并行训练加速技术
19
作者 赖鑫琳 翁财善 《广东通信技术》 2024年第11期61-64,共4页
针对现有的分布式并行训练技术无法充分利用深度神经网络的冻结机制加速深度神经网络训练的问题,提出了一种基于深度学习冻结机制的分布式多GPU 并行训练加速技术。该技术利用深度学习的冻结机制,在深度神经网络训练过程中冻结部分模型... 针对现有的分布式并行训练技术无法充分利用深度神经网络的冻结机制加速深度神经网络训练的问题,提出了一种基于深度学习冻结机制的分布式多GPU 并行训练加速技术。该技术利用深度学习的冻结机制,在深度神经网络训练过程中冻结部分模型的层,并通过设计负载均衡的模型划分算法,确保在层冻结之后能有效地实施流水线式并行的模型划分与任务放置。进而,使用流水线并行进行模型训练。实验结果表明, 在GPU 集群中,基于深度学习冻结机制的分布式多GPU 并行训练加速技术可以提高分布式训练的速度。 展开更多
关键词 深度学习 冻结机制 分布式训练 流水线并行
在线阅读 下载PDF
基于计算机技术的遥感大数据分布式管理与训练云平台设计 被引量:1
20
作者 陈霞 《中国设备工程》 2024年第5期235-237,共3页
随着遥感技术的发展,遥感数据类型从数据量小、处理周期短的数据发展到大容量、处理周期长的数据,对大数据技术的依赖日益突出。近年来,基于云计算的分布式计算技术逐渐应用于大数据领域,将其与云存储、云服务器、云应用系统有机结合起... 随着遥感技术的发展,遥感数据类型从数据量小、处理周期短的数据发展到大容量、处理周期长的数据,对大数据技术的依赖日益突出。近年来,基于云计算的分布式计算技术逐渐应用于大数据领域,将其与云存储、云服务器、云应用系统有机结合起来,实现了在资源池中动态分配和调度大数据计算任务。在遥感大数据的处理中,通过分布式计算技术,将计算任务分散到各个计算节点上,实现对遥感数据的分布式处理和管理。同时,通过训练云计算平台中的大数据应用框架以及机器学习算法等技术来提高训练效率。 展开更多
关键词 基于计算机技术 遥感大数据分布式管理与训练 云平台
在线阅读 下载PDF
上一页 1 2 4 下一页 到第
使用帮助 返回顶部