Omni-Infer 超大规模 MoE 模型推理加速技术

授权协议:None操作系统:None 开发语言:None
Omni-Infer 是一套专为昇腾硬件平台定制的强大推理加速工具集,完全兼容业界目前主流的开源大模型推理框架(比如 vLLM 等),旨在提供高性能、企业级推理能力,具备原生支持且功能集持续扩展...