Mesh LLM
AI工具将多台机器的闲置GPU组成分布式推理网格,跑超大模型不再需要单卡80G
💰 开源📱 cli, mac, linux👁 1 次浏览🔗 0 次点击📅 2026/4/6 收录
📖 详细介绍
Mesh LLM 是一个开源的分布式 LLM 推理工具,能将多台机器上的闲置 GPU 算力整合为统一的推理资源池,暴露为 OpenAI 兼容 API(localhost:9337)。密集模型自动使用流水线并行分层到各节点,MoE 模型使用专家分片实现零跨节点推理流量。支持零传输 GGUF 加载(模型加载从 111 秒降至 5 秒)、Speculative Decoding(代码生成吞吐量提升 38%)、多模态请求(视觉+音频)。提供 Web 控制台查看拓扑和 VRAM 状态。支持公共网格自动发现或创建私有命名网格进行团队协作。基于 Rust + TypeScript 构建,使用修改版 llama.cpp 作为底层推理引擎。
✅ 核心功能
- ✓多机GPU池化
- ✓OpenAI兼容API
- ✓流水线并行
- ✓专家分片MoE
- ✓零传输GGUF加载
- ✓Web控制台