Skip to the content.
2025-02-13 — 项目基础设施优化
Lightweight LLM Inference Engine — W8A16 quantization, KV Cache, multi-sampling strategies
View on GitHub
2025-02-13 项目基础设施优化
新增
添加 MIT LICENSE 文件
添加
.editorconfig
(统一代码格式)
README 添加标准化 badges(License、CUDA、C++、CMake)