megengine.distributed

>>> import megengine.distributed as dist

backend

Get or set backend of collective communication.

分组(Group)

Group

Include ranked nodes running collective communication (See distributed).

init_process_group

初始化分布式进程组,并且指定在当前进程中使用的设备。

new_group

构造一个包含特定序号的子通信组。

is_distributed

如果分布式进程组已完成初始化则返回True。

get_backend

获取字符串形式表示的后端。

get_client

获取 python XML RPC 服务器的客户端。

get_mm_server_addr

获取 C++ mm_server 的主机IP和端口。

get_py_server_addr

获取 python XML RPC 服务器的主机IP和端口。

get_rank

返回当前进程的 Rank(进程序号)。

get_world_size

获取的参与任务的进程总数。

group_barrier

阻止调用,直到组中的所有进程达到这个障碍点。

运行器(Launcher)

launcher

在单机多卡环境下启动多个进程进行训练的装饰器。

客户端与服务端(C/S)

Client

分布式训练的分布式客户端。

Server

Distributed Server for distributed training.

辅助功能(Helper)

bcast_list_

在指定通信组间广播张量列表。

synchronized

Decorator.

make_allreduce_cb

alias of megengine.distributed.helper.AllreduceCallback

helper.AllreduceCallback

具有张量融合优化的 Allreduce 回调函数。