Skip to content

Monarch下一代分布式 AI 框架

像编写单机程序一样,轻松编排大规模 GPU 集群

Monarch Logo

🚀 立即安装

需要 Python 3.8+ 与 PyTorch 2.0+

$ pip install monarch-distributed
# 或者从源码安装
$ git clone https://github.com/meta-pytorch/monarch.git
$ pip install .
核心理念

重新定义分布式编程

Meshes 架构

将集群资源抽象为可编程数组。 无需关心 Rank ID,像操作 Tensor 一样操作整片 GPU 网格,实现代码的极致简洁与可扩展性。

Monarch Meshes Architecture
高性能架构

双语言混合引擎

Python 前端

符合直觉的 API 设计,无缝集成 PyTorch 生态

简单易用动态调试

Rust 后端

Hyperactor 引擎提供无畏并发与内存安全

零成本抽象RDMA 优化
生产环境验证

超大规模训练实战

16k+
GPU 集群规模
PyTorch
官方团队背书
Llama
大模型预训练
高效调度与容错管理
🛡️显著降低系统中断成本
🚀大规模分布式训练首选

Monarch中文教程