Mini Inference Engine
Mini Inference Engine 面向“从基础 GEMM kernel 学到工程化 CUDA 推理组件”的学习场景,围绕 7 级 GEMM 优化、轻量级推理引擎、性能分析与配套文档组织内容。
项目定位
这是一个把渐进式 CUDA GEMM 优化、推理运行时组件与性能实验串起来的学习型仓库。README 现在只承担仓库入口,这个页面负责提供文档导读、阅读顺序和关键页面导航。
适合谁
- 想按阶段学习 GEMM 优化从 Naive 到 Tensor Core 演进路线的开发者
- 想快速定位架构、性能调优与 API 文档的工程师
- 需要从基准测试、推理 Demo 和文档中继续维护项目的贡献者
从哪里开始
推荐阅读路径
我只想先编译并跑基准
我想先理解系统怎么组织
我准备继续开发或调优
核心文档
| 类别 | 页面 | 说明 |
|---|---|---|
| 概览 | README | 仓库定位、最小构建命令与文档链接 |
| 快速开始 | 快速开始 | 环境准备、构建步骤与首个运行流程 |
| 架构设计 | 架构设计 | 系统分层、核心组件与数据流 |
| 使用指南 | GEMM 优化详解 | 7 级优化技术路线与实现思路 |
| 参考 | API 参考 | 公共接口与核心数据结构 |
| 开发指南 | CONTRIBUTING.md / docs/CONTRIBUTING.md | 协作流程、代码规范与详细贡献说明 |
| 归档 | CHANGELOG / changelog/ | 版本记录与 Pages / 工作流调整记录 |
相关入口
- GitHub 仓库:
https://github.com/LessUp/mini-inference-engine - 在线文档:
https://lessup.github.io/mini-inference-engine/ - CI 状态:
https://github.com/LessUp/mini-inference-engine/actions