一本面向工程实践和面试准备的《Efficient LLM Inference》口袋笔记。原文在: drive.google.com/file/d/1mfTzOnwn8yx4eKObjPvpd-B_toGkQ_tu/view
该笔记介绍大语言模型推理中的核心问题与优化方法。覆盖面广、偏工程落地、每章配有面试问答,内容更像一份高密度的推理系统复习手册。具体内容包括推理瓶颈、GPU/边缘硬件、Transformer 推理机制、KV Cache、量化、Speculative Decoding、FlashAttention、vLLM、MoE、长上下文、生产服务架构、可观测性与成本建模等主题。适合 AI/ML 系统工程师、LLM 推理平台开发者、准备相关岗位面试的人,以及想从“能调用模型”进阶到“能高效部署和优化模型”的技术读者。
不方便下载的可私我发送。AI创造营How I AI

