酷码编程入门
酷码开源项目
酷码AI工具集
登录
注册
收藏
Omni-Infer 超大规模 MoE 模型推理加速技术
授权协议:
None
操作系统:
None
开发语言:
None
Omni-Infer 是一套专为昇腾硬件平台定制的强大推理加速工具集,完全兼容业界目前主流的开源大模型推理框架(比如 vLLM 等),旨在提供高性能、企业级推理能力,具备原生支持且功能集持续扩展...
软件文档
源码下载
本周排行
本月排行
dsDBS 鼎石数据存储系统
xiaoniu_socketio_server 简易 socketio 推送服务
CacheLib 可插入的进程内缓存引擎
OSS Browser 阿里云开发的图形化管理工具
ZNBase NewSQL 分布式数据库
HStreamDB EMQ 流数据库
Extensible Storage Engine 可扩展存储引擎
xm-pic 文件存储/图床客户端
PDCache Java 数据缓存工具
FastCFS 基于块存储的通用分布式文件系统
dsDBS 鼎石数据存储系统
xiaoniu_socketio_server 简易 socketio 推送服务
CacheLib 可插入的进程内缓存引擎
OSS Browser 阿里云开发的图形化管理工具
ZNBase NewSQL 分布式数据库
HStreamDB EMQ 流数据库
Extensible Storage Engine 可扩展存储引擎
xm-pic 文件存储/图床客户端
PDCache Java 数据缓存工具
FastCFS 基于块存储的通用分布式文件系统
项目咨讯