• 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏吧

十行代码让你的单机“影分身”,分布式训练速度快到飞起

互联网 diligentman 4周前 (01-31) 15次浏览

工程师十行代码让你的单机“影分身”,分布式训练速度快到飞起:“在你辉煌的时刻,让我为你唱首歌,我的好兄弟,心里有苦你对我说。”

计算机十行代码让你的单机“影分身”,分布式训练速度快到飞起:“哥啊,那我可就说了,我是真的苦啊,现在一个模型动辄好几亿参数,数据集也是大的吓人,兄弟我内存都快被掏空了,实在训练不动了呀。”

工程师十行代码让你的单机“影分身”,分布式训练速度快到飞起:“前方大路一起走,哪怕是河也一起过…”

计算机十行代码让你的单机“影分身”,分布式训练速度快到飞起:“你怎么还唱啊,兄弟我真的坚持不住了。”

工程师十行代码让你的单机“影分身”,分布式训练速度快到飞起:“担心啥,哥有的是办法救你,就这招吧——分布式训练之参数服务器!”

计算机十行代码让你的单机“影分身”,分布式训练速度快到飞起:“分布式训练?参数服务器?真的很好用吗?”

工程师十行代码让你的单机“影分身”,分布式训练速度快到飞起:“好吧,接下来我们就来看看什么是分布式训练参数服务器功能。”

下载安装命令

什么是分布式训练

何谓分布式训练呢?大家想想《火影忍者》中鸣人搓螺旋丸的方法,要知道鸣人一个人可搓不出来,他是怎么做的呢?对!影分身,再变出两个分身来帮他一起搓丸子,分布式训练其实用的是相同的原理。通俗的讲就是把原先交给一台计算机上完成的训练任务改为交由多台计算机完成。每台计算机上都会有一个或多个计算单元,例如CPU、GPU、AI芯片等,合作的计算机越多,参与训练的计算单元也就越多。可想而知那速度肯定是噌噌的!

什么是参数服务器

如图1站长交易所示,参数服务器是分布式训练领域普遍采用的编程架构,主要包含Server和Worker两个部分,其中Server负责参数的存储和更新,而Worker负责训练的参数服务器功能也是基于这种经典的架构进行设计和开发的,同时在这基础上进行了SGD(Stochastic Gradient Descent)算法的创新(Geometric Stochastic Gradient Descent)。当前经过大量的实验验证,最佳的方案是每台机器上启动Server和Worker两个进程,而一个Worker进程中可以包含多个用于训练的线程。

什么是参数服务器

如图1所示,参数服务器是分布式训练领域普遍采用的编程架构,主要包含Server和Worker两个部分,其中Server负责参数的存储和更新,而Worker负责训练。的参数服务器功能也是基于这种经典的架构进行设计和开发的,同时在这基础上进行了SGD(Stochastic Gradient Descent)算法的创新(Geometric Stochastic Gradient Descent)。当前经过大量的实验验证,最佳的方案是每台机器上启动Server和Worker两个进程,而一个Worker进程中可以包含多个用于训练的线程。

什么是参数服务器

如图1所示,参数服务器是分布式训练领域普遍采用的编程架构,主要包含Server和Worker两个部分,其中Server负责参数的存储和更新,而Worker负责训练。的参数服务器功能也是基于这种经典的架构进行设计和开发的,同时在这基础上进行了SGD(Stochastic Gradient Descent)算法的创新(Geometric Stochastic Gradient Descent)。当前经过大量的实验验证,最佳的方案是每台机器上启动Server和Worker两个进程,而一个Worker进程中可以包含多个用于训练的线程。

异步训练模式:如图3所示,在训练一个batch的数据后,Worker的每个线程会发送梯度给Server。而Server不会等待接收所有节点的梯度,而是直接基于已收到的梯度进行参数更新。异步训练去除了训练过程中的等待机制,训练速度得到了极大的提升,但是缺点也很明显,那就是Loss下降不稳定,容易发生抖动。建议在个性化推荐(召回、排序)、语义匹配等数据量大的场景使用。

尤其是推荐领域的点击率预估场景,该场景可能会出现千亿甚至万亿规模的稀疏特征,而稀疏参数也可以达到万亿数量级,且需要小时级或分钟级流式增量训练。如果使用异步训练模式,可以很好的满足该场景的online-learning需求。


喜欢 (0)