Skip to content

Commit b4be45b

Browse files
committed
add ps quick start
1 parent a21215e commit b4be45b

File tree

2 files changed

+200
-0
lines changed

2 files changed

+200
-0
lines changed
Lines changed: 199 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,199 @@
1+
.. _cluster_quick_start_ps:
2+
3+
快速开始-参数服务器
4+
-------------------------
5+
6+
搜索推荐场景经常面临两个问题:
7+
8+
1. 海量训练数据:单机训练太慢,需要增加训练节点数。
9+
2. 特征维度高且稀疏化:模型稀疏参数过多,单机内存无法容纳,需要采用分布式存储。
10+
11+
参数服务器(ParameterServer)模式采用了一种将模型参数中心化管理的方式来实现模型参数的分布式存储和更新。该模式下的节点有两种不同的角色:
12+
13+
1. 训练节点:该节点负责完成数据读取、从服务节点拉取参数、前向计算、反向梯度计算等过程,并将计算出的梯度上传至服务节点。
14+
2. 服务节点:在收到所有训练节点传来的梯度后,该节点会将梯度聚合并更新参数,供训练节点拉取进行下一轮的训练。
15+
16+
因此参数服务器模式对于存储超大规模模型参数的训练场景十分友好,常被用于训练拥有海量稀疏参数的搜索推荐领域模型。
17+
18+
2.1 任务介绍
19+
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
20+
21+
本节将采用推荐领域非常经典的模型wide_and_deep为例,介绍如何使用飞桨分布式完成参数服务器训练任务,本次快速开始的完整示例代码位于 https://github.com/PaddlePaddle/FleetX/tree/develop/examples/wide_and_deep_dataset。
22+
在编写分布式训练程序之前,用户需要确保已经安装PaddlePaddle2.3及以上版本的飞桨开源框架。
23+
24+
2.2 操作方法
25+
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
26+
27+
参数服务器训练的基本代码主要包括如下几个部分:
28+
29+
1. 导入分布式训练需要的依赖包。
30+
2. 定义分布式模式并初始化分布式训练环境。
31+
3. 加载模型。
32+
4. 构建dataset加载数据
33+
5. 定义参数更新策略及优化器。
34+
6. 开始训练。
35+
36+
下面将逐一进行讲解。
37+
38+
2.2.1 导入依赖
39+
""""""""""""
40+
41+
导入必要的依赖,例如分布式训练专用的Fleet API(paddle.distributed.fleet)。
42+
43+
.. code-block:: python
44+
45+
import paddle
46+
import paddle.distributed.fleet as fleet
47+
48+
2.2.2 定义分布式模式并初始化分布式训练环境
49+
""""""""""""
50+
51+
通过 ``fleet.init()`` 接口,用户可以定义训练相关的环境,注意此环境是用户预先在环境变量中配置好的,包括:训练节点个数,服务节点个数,当前节点的序号,服务节点完整的IP:PORT列表等。
52+
53+
.. code-block:: python
54+
55+
# 当前参数服务器模式只支持静态图模式, 因此训练前必须指定 ``paddle.enable_static()``
56+
paddle.enable_static()
57+
fleet.init(is_collective=False)
58+
59+
2.2.3 加载模型
60+
""""""""""""
61+
62+
.. code-block:: python
63+
64+
# 模型定义参考 examples/wide_and_deep_dataset 中 model.py
65+
from model import WideDeepModel
66+
67+
model = WideDeepModel()
68+
model.net(is_train=True)
69+
70+
2.2.4 构建dataset加载数据
71+
""""""""""""
72+
73+
.. code-block:: python
74+
75+
# 具体数据处理参考examples/wide_and_deep_dataset中reader.py
76+
dataset = paddle.distributed.QueueDataset()
77+
thread_num = 1
78+
dataset.init(use_var=model.inputs,
79+
pipe_command="python reader.py",
80+
batch_size=batch_size,
81+
thread_num=thread_num)
82+
83+
train_files_list = [os.path.join(train_data_path, x)
84+
for x in os.listdir(train_data_path)]
85+
dataset.set_filelist(train_files_list)
86+
87+
备注:dataset具体用法参见\ `使用InMemoryDataset/QueueDataset进行训练 <https://fleet-x.readthedocs.io/en/latest/paddle_fleet_rst/parameter_server/performance/dataset.html>`_\。
88+
89+
90+
2.2.5 定义同步训练 Strategy 及 Optimizer
91+
""""""""""""
92+
93+
在Fleet API中,用户可以使用 ``fleet.DistributedStrategy()`` 接口定义自己想要使用的分布式策略。
94+
95+
其中 ``a_sync`` 选项用于定义参数服务器相关的策略,当其被设定为 ``False`` 时,分布式训练将在同步的模式下进行。反之,当其被设定成 ``True`` 时,分布式训练将在异步的模式下进行。
96+
97+
.. code-block:: python
98+
99+
# 定义异步训练
100+
dist_strategy = fleet.DistributedStrategy()
101+
dist_strategy.a_sync = True
102+
103+
optimizer = paddle.optimizer.SGD(learning_rate=0.0001)
104+
optimizer = fleet.distributed_optimizer(optimizer, dist_strategy)
105+
optimizer.minimize(model.loss)
106+
107+
2.2.6 开始训练
108+
""""""""""""
109+
110+
完成模型及训练策略以后,我们就可以开始训练模型了。因为在参数服务器模式下会有不同的角色,所以根据不同节点分配不同的任务。
111+
112+
对于服务器节点,首先用 ``init_server()`` 接口对其进行初始化,然后启动服务并开始监听由训练节点传来的梯度。
113+
114+
同样对于训练节点,用 ``init_worker()`` 接口进行初始化后, 开始执行训练任务。运行 ``exe.train_from_dataset()`` 接口开始训练。
115+
116+
.. code-block:: python
117+
118+
if fleet.is_server():
119+
fleet.init_server()
120+
fleet.run_server()
121+
else:
122+
exe = paddle.static.Executor(paddle.CPUPlace())
123+
exe.run(paddle.static.default_startup_program())
124+
125+
fleet.init_worker()
126+
127+
for epoch_id in range(1):
128+
exe.train_from_dataset(paddle.static.default_main_program(),
129+
dataset,
130+
paddle.static.global_scope(),
131+
debug=False,
132+
fetch_list=[train_model.cost],
133+
fetch_info=["loss"],
134+
print_period=1)
135+
136+
fleet.stop_worker()
137+
138+
备注:Paddle2.3版本及以后,ParameterServer训练将废弃掉dataloader + exe.run()方式,请切换到dataset + exe.train_from_dataset()方式。
139+
140+
141+
2.3 运行训练脚本
142+
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
143+
144+
定义完训练脚本后,我们就可以用 ``fleetrun`` 指令运行分布式任务了。其中 ``server_num`` , ``worker_num`` 分别为服务节点和训练节点的数量。在本例中,服务节点有1个,训练节点有2个。
145+
146+
.. code-block:: bash
147+
148+
fleetrun --server_num=1 --trainer_num=2 train.py
149+
150+
您将在执行终端看到如下日志信息:
151+
152+
.. code-block:: bash
153+
154+
LAUNCH INFO 2022-05-18 11:27:17,761 ----------- Configuration ----------------------
155+
LAUNCH INFO 2022-05-18 11:27:17,761 devices: None
156+
LAUNCH INFO 2022-05-18 11:27:17,761 elastic_level: -1
157+
LAUNCH INFO 2022-05-18 11:27:17,761 elastic_timeout: 30
158+
LAUNCH INFO 2022-05-18 11:27:17,761 gloo_port: 6767
159+
LAUNCH INFO 2022-05-18 11:27:17,761 host: None
160+
LAUNCH INFO 2022-05-18 11:27:17,761 job_id: default
161+
LAUNCH INFO 2022-05-18 11:27:17,761 legacy: False
162+
LAUNCH INFO 2022-05-18 11:27:17,761 log_dir: log
163+
LAUNCH INFO 2022-05-18 11:27:17,761 log_level: INFO
164+
LAUNCH INFO 2022-05-18 11:27:17,762 master: None
165+
LAUNCH INFO 2022-05-18 11:27:17,762 max_restart: 3
166+
LAUNCH INFO 2022-05-18 11:27:17,762 nnodes: 1
167+
LAUNCH INFO 2022-05-18 11:27:17,762 nproc_per_node: None
168+
LAUNCH INFO 2022-05-18 11:27:17,762 rank: -1
169+
LAUNCH INFO 2022-05-18 11:27:17,762 run_mode: collective
170+
LAUNCH INFO 2022-05-18 11:27:17,762 server_num: 1
171+
LAUNCH INFO 2022-05-18 11:27:17,762 servers:
172+
LAUNCH INFO 2022-05-18 11:27:17,762 trainer_num: 2
173+
LAUNCH INFO 2022-05-18 11:27:17,762 trainers:
174+
LAUNCH INFO 2022-05-18 11:27:17,762 training_script: train.py
175+
LAUNCH INFO 2022-05-18 11:27:17,762 training_script_args: []
176+
LAUNCH INFO 2022-05-18 11:27:17,762 with_gloo: 0
177+
LAUNCH INFO 2022-05-18 11:27:17,762 --------------------------------------------------
178+
LAUNCH INFO 2022-05-18 11:27:17,772 Job: default, mode ps, replicas 1[1:1], elastic False
179+
LAUNCH INFO 2022-05-18 11:27:17,775 Run Pod: evjsyn, replicas 3, status ready
180+
LAUNCH INFO 2022-05-18 11:27:17,795 Watching Pod: evjsyn, replicas 3, status running
181+
182+
同时,在log目录下,会生成服务节点和训练节点的日志文件。
183+
服务节点日志:default.evjsyn.ps.0.log,日志中须包含以下内容,证明服务节点启动成功,可以提供服务。
184+
185+
.. code-block:: bash
186+
187+
I0518 11:27:20.730531 177420 brpc_ps_server.cc:73] running server with rank id: 0, endpoint: IP:PORT
188+
189+
训练节点日志:default.evjsyn.trainer.0.log,日志中打印了训练过程中的部分变量值。
190+
191+
.. code-block:: bash
192+
193+
time: [2022-05-18 11:27:27], batch: [1], loss[1]:[0.666739]
194+
time: [2022-05-18 11:27:27], batch: [2], loss[1]:[0.690405]
195+
time: [2022-05-18 11:27:27], batch: [3], loss[1]:[0.681693]
196+
time: [2022-05-18 11:27:27], batch: [4], loss[1]:[0.703863]
197+
time: [2022-05-18 11:27:27], batch: [5], loss[1]:[0.670717]
198+
199+
备注:启动相关问题,请参考\ `launch <https://www.paddlepaddle.org.cn/documentation/docs/zh/api/paddle/distributed/launch_cn.html>`_\。

docs/guides/06_distributed_training/index_cn.rst

Lines changed: 1 addition & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -5,6 +5,7 @@
55
您可以通过以下内容,了解飞桨分布式训练的特性和使用指南:
66

77
- `分布式训练快速开始 <./cluster_quick_start_cn.html>`_ : 使用飞桨框架快速开始分布式训练。
8+
- `快速开始-参数服务器 <./cluster_quick_start_ps_cn.html>`_ : 使用飞桨参数服务器快速开始分布式训练。
89
- `使用FleetAPI进行分布式训练 <./fleet_api_howto_cn.html>`_ : 使用飞桨框架FleetAPI完成分布式训练。
910

1011
.. toctree::

0 commit comments

Comments
 (0)