大模型(LLM)微调与应用开发培训课程(如ChatGLM/Llama 2本地化部署)
【培训对象】
AI算法工程师、应用开发工程师、技术负责人,希望利用开源大模型构建企业专属应用的相关人员。
【培训目标】
一、 理解大型语言模型(LLM)的基本原理、架构特点和主流开源模型(如Llama 2, ChatGLM, Qwen)的差异。
二、 掌握在本地或私有云环境部署开源LLM的方法,解决数据安全和隐私顾虑。
三、 学会使用高效微调技术(如LoRA, P-Tuning)在自有数据上微调LLM,使其适应特定领域任务。
四、 掌握提示工程(Prompt Engineering)核心技术,并能够基于微调后的模型开发AI应用(如聊天机器人、文档问答)。
【培训内容介绍】
一、 大语言模型(LLM)基础与发展:从Transformer到GPT、BERT,LLM的涌现能力,主流开源LLM介绍与对比。
二、 LLM本地化部署(一):环境准备、硬件要求(GPU/内存)、模型下载、使用Transformers库加载和运行LLM。
三、 LLM本地化部署(二):使用量化技术(如GPTQ, AWQ, GGUF)降低显存占用,加速推理,实现消费级GPU运行LLM。
四、 提示工程(Prompt Engineering):设计有效提示的原则、零样本/少样本学习、思维链(CoT)提示、提示模板管理。
五、 检索增强生成(RAG)原理与实战:解决LLM知识有限和幻觉问题,结合向量数据库(如Chroma, FAISS)构建外部知识库,实现文档问答系统。
六、 高效微调(PEFT)技术概述:全量微调与高效微调的对比,Adapter Tuning, Prefix Tuning, P-Tuning, LoRA原理。
七、 LoRA微调实战(一):准备特定领域的数据集(指令-回答对),数据预处理与格式化。
八、 LoRA微调实战(二):使用PEFT库对基座LLM(如Llama 2-Chat或ChatGLM3)进行LoRA微调,调整关键超参数。
九、 模型评估与对比:评估微调后模型在特定任务上的表现,与基座模型和商业模型进行对比。
十、 模型推理服务化:将微调后的LLM封装成高性能API服务(使用FastAPI, vLLM, TGI等框架),支持并发请求。
十一、 LLM应用开发实践:结合微调模型和RAG,开发一个完整的智能问答应用,包含前端交互界面。
十二、 实战演练:使用开源LLM,结合企业自有文档数据,搭建并微调一个具备领域知识的私有化智能问答机器人。