Skip to the content.

Mini Inference Engine

GitHub Pages CI License: MIT CUDA C++

Mini Inference Engine 面向“从基础 GEMM kernel 学到工程化 CUDA 推理组件”的学习场景,围绕 7 级 GEMM 优化、轻量级推理引擎、性能分析与配套文档组织内容。

项目定位

这是一个把渐进式 CUDA GEMM 优化、推理运行时组件与性能实验串起来的学习型仓库。README 现在只承担仓库入口,这个页面负责提供文档导读、阅读顺序和关键页面导航。

适合谁

从哪里开始

  1. 先看 README,完成最小构建与基准运行。
  2. 再看 快速开始架构设计,理解运行方式和模块边界。
  3. 想深入实现时,继续阅读 GEMM 优化详解性能调优API 参考

推荐阅读路径

我只想先编译并跑基准

我想先理解系统怎么组织

我准备继续开发或调优

核心文档

类别 页面 说明
概览 README 仓库定位、最小构建命令与文档链接
快速开始 快速开始 环境准备、构建步骤与首个运行流程
架构设计 架构设计 系统分层、核心组件与数据流
使用指南 GEMM 优化详解 7 级优化技术路线与实现思路
参考 API 参考 公共接口与核心数据结构
开发指南 CONTRIBUTING.md / docs/CONTRIBUTING.md 协作流程、代码规范与详细贡献说明
归档 CHANGELOG / changelog/ 版本记录与 Pages / 工作流调整记录

相关入口