培训对象: 面向希望掌握大模型底层原理与应用开发的软件开发人员、售前工程师、在咨询顾问及业务人员。也适合需要为企业培养数字化人才梯队的团队负责人。
培训目标: 提供大语言模型知识体系,帮助学员全面了解中外前沿科技、方法工具和业内最佳实践。通过全过程案例讲解,掌握大模型的原理和基于大模型驱动的企业级应用架构设计,在边做边学中增强解决实际问题的能力。
培训内容介绍:
大模型基础知识与演进:学习GPT模型的前世今生(GPT-1、GPT-2、GPT-3模型解读),了解Transformer架构的革命性意义与自注意力机制的核心原理。
大模型底层核心原理:深入剖析大模型的结构设计、编解码器原理,通过代码演示理解模型工作机制,结合工业界应用场景对核心技术建立系统性认识。
Function Calling技术深度剖析:学习Function Calling的应用场景、使用GPT生成函数的参数、自然语言生成数据库查询脚本及Function Calling稳定性保障。
文档嵌入技术:理解Embedding能够解决的问题及在大模型中的应用,学习如何计算相似度和进行语义搜索,通过知识问答、审计预警等案例掌握应用方法。
向量数据库技术:学习向量数据库的应用场景、底层原理、搜索算法及索引技术,掌握向量数据库在大模型应用中的关键作用。
检索增强生成技术:深入理解RAG技术原理,学习模型微调与RAG的适用场景边界,掌握多模态数据的RAG适配方案。
LangChain开发框架:学习LangChain的核心能力、应用场景及核心模块(Model I/O、Chains、Memory、Retrieval、Agent、Callbacks)的实现原理与代码实战。
基于LangChain的应用开发:通过论文翻译助手、知识问答助手等案例,掌握LangChain框架的实际应用开发方法。
智能体技术深度解读:学习Agent的设计原理、应用场景及ReAct框架解读,掌握Agent的计划能力、行动能力与工具能力。
开源Agents源码解读:学习AutoGPT、MetaGPT等项目定位、技术方案及各模块代码实现,通过线路规划师等案例掌握Agents开发。
私有化大模型部署实战:学习HuggingFace开源社区使用指南,掌握常见开源大模型介绍、私有化部署环境准备,通过ChatGLM-6B私有化部署案例实战演练。
大模型微调技术:学习大模型微调的三要素(微调数据、算法模型、算力资源),掌握指令微调技术、参数高效微调技术(LoRA、P-Tuning)及基于DeepSpeed的微调实战。