Skip to the content.

Tiny-LLM 文档

Tiny-LLM 的文档首页聚焦在“从哪里开始读”:先帮你完成一次最小构建,再指向 API、更新历史和贡献入口。

项目定位

Tiny-LLM 是一个面向学习与工程实验的轻量级 LLM 推理引擎,核心关注点是 W8A16 量化、CUDA Kernel、KV Cache 增量解码,以及模块化的 Transformer 推理链路。

适合谁

从哪里开始

  1. 先看下面的“快速开始”,确认构建环境并跑通测试。
  2. 然后阅读 API 参考,了解 InferenceEngineKVCacheManager 与配置结构。
  3. 如需了解项目演进和修改背景,继续查看 更新日志
  4. 准备提交改动时,再阅读 贡献指南

快速开始

系统要求

构建与测试

mkdir build && cd build
cmake .. -DCMAKE_BUILD_TYPE=Release
make -j$(nproc)
ctest --output-on-failure

推荐阅读路径

我想先把工程跑起来

我想先理解接口和模块边界

我想了解最近都改了什么

核心文档

类别 页面 说明
概览 当前页 项目定位、快速开始与阅读路径
参考 API 参考 公共类型、核心类与 CUDA Kernel 接口
开发指南 贡献指南 开发流程与参与方式
归档 更新日志 版本历史与调整背景