培训对象: AI运维工程师、大模型应用开发者、算法工程师、需要私有化部署大模型的技术人员。
培训目标:
理解大模型推理的性能瓶颈和优化策略。
掌握vLLM的PagedAttention原理和部署方法。
熟练使用TGI(Text Generation Inference)部署大模型。
具备大模型量化、并发优化和监控运维能力。
培训内容介绍:
二、 vLLM核心原理-PagedAttention: 深入理解PagedAttention如何解决显存碎片化问题,提升推理吞吐量。
三、 vLLM安装与部署: 安装vLLM,加载LLaMA、Qwen等模型,配置并发参数和最大输入长度。
四、 vLLM API服务化: 使用vLLM启动OpenAI兼容的API服务,配置并发请求队列和超时策略。
五、 vLLM性能调优: 调整批处理大小、最大并行请求数,监控显存使用和推理延迟,优化吞吐量。
六、 TGI架构与特性: 了解HuggingFace TGI的架构设计,掌握其连续批处理、张量并行、模型分片等特性。
七、 TGI部署实战: 使用Docker部署TGI服务,加载各种大模型,配置环境变量和启动参数。
八、 模型量化技术: 使用GPTQ、AWQ、GGUF等量化技术压缩模型,降低显存需求,提升推理速度。
九、 量化模型部署: 在vLLM/TGI中加载量化模型,对比量化前后的精度和性能差异。
十、 多GPU并行推理: 配置张量并行(Tensor Parallelism)在多张GPU上分布模型,支持更大模型部署。
十一、 监控与日志管理: 使用Prometheus+Grafana监控推理服务指标(QPS、延迟、显存),配置告警规则。
十二、 实战项目:企业级大模型私有化部署: 根据企业需求选择模型,使用vLLM或TGI部署高并发推理服务,提供API供业务调用。