深度学习(CV/NLP)专项培训(图像识别/自然语言处理)
【培训对象】
具备一定机器学习基础,希望深入计算机视觉或自然语言处理特定领域的算法工程师、研究人员、AI应用开发者。
【培训目标】
一、 深入理解计算机视觉(CV)和自然语言处理(NLP)的核心任务、经典模型与前沿技术。
二、 掌握使用深度学习框架(TensorFlow/PyTorch)实现图像分类、目标检测、图像分割等CV任务。
三、 掌握使用深度学习框架实现文本分类、序列标注、文本生成、机器翻译等NLP任务。
四、 具备在特定业务场景下,选择和调优CV/NLP模型,解决实际问题的能力。
【培训内容介绍】
一、 深度学习在CV和NLP中的应用概述:CV和NLP的主要任务、发展历程、Transformer架构的跨界影响。
二、 卷积神经网络(CNN)进阶:经典CNN架构(AlexNet, VGG, ResNet, DenseNet)详解与代码复现。
三、 图像分类实战:使用预训练模型进行迁移学习,实现高精度图像分类,模型微调技巧。
四、 目标检测(一):两阶段检测器(Faster R-CNN系列)原理与实现。
五、 目标检测(二):单阶段检测器(YOLO, SSD)原理与实现,目标检测模型评估指标(mAP)。
六、 图像分割:语义分割(FCN, U-Net, DeepLab)与实例分割(Mask R-CNN)原理与应用。
七、 循环神经网络(RNN)与序列建模:RNN/LSTM/GRU原理、梯度消失与爆炸、双向RNN。
八、 词向量与预训练语言模型:Word2Vec, GloVe, ELMo, BERT原理,上下文无关与上下文相关的词表示。
九、 自然语言理解任务实战(一):文本分类、情感分析,使用BERT进行微调。
十、 自然语言理解任务实战(二):命名实体识别(NER)、关系抽取,序列标注模型实现。
十一、 自然语言生成(NLG)与Transformer:注意力机制、Transformer架构详解,GPT系列模型原理,文本生成任务实践。
十二、 实战演练:选择一个CV任务(如工业缺陷检测)和一个NLP任务(如客服意图识别),完成从数据处理、模型选型、训练调优到评估的全流程。