Hadoop/Spark/Flink大数据平台实战培训课程(分布式计算与批流一体)
【培训对象】
大数据平台工程师、数据开发工程师、解决方案架构师,希望系统掌握以Hadoop/Spark/Flink为核心的大数据技术栈。
【培训目标】
一、 深入理解Hadoop生态系统(HDFS、YARN)的核心组件,能够搭建和维护稳定的大数据基础平台。
二、 掌握Spark Core、Spark SQL、Spark Streaming的核心编程模型和性能调优技巧。
三、 熟悉Flink作为新一代流处理引擎的优势,掌握其DataStream API和SQL进行流式处理。
四、 理解批流一体的概念,能够根据业务需求,融合使用Hadoop/Spark/Flink构建统一的数据处理平台。
【培训内容介绍】
一、 大数据平台概述与技术演进:Hadoop生态圈回顾,Spark与Flink的崛起,批流一体趋势。
二、 HDFS分布式文件系统:HDFS架构(NameNode, DataNode)、数据读写流程、副本机制、高可用(HA)与联邦(Federation)配置。
三、 YARN资源调度器:YARN架构(ResourceManager, NodeManager)、调度器(FIFO, Capacity, Fair)原理与配置,应用提交与资源隔离。
四、 Hadoop集群管理与运维:集群规划、搭建、监控、安全(Kerberos)、故障排查。
五、 Spark Core基础:Spark应用提交流程、RDD概念与算子、依赖关系与DAG生成、Shuffle过程。
六、 Spark SQL:DataFrame/Dataset API、Catalyst优化器、与Hive集成、性能调优。
七、 Spark Streaming:DStream模型、微批处理原理、与Kafka集成、状态管理与Exactly-Once保证。
八、 Flink核心概念回顾与进阶:状态、时间、容错机制,DataStream API深度实践。
九、 Flink SQL与流批一体:使用Flink SQL统一处理有界(批)和无界(流)数据,实现流批一体架构。
十、 Spark与Flink对比与选型:引擎适用场景对比、如何根据业务需求选择计算引擎。
十一、 平台整合实践:数据统一存储在HDFS/对象存储,通过YARN调度Spark/Flink任务,使用Hive Metastore作为元数据管理中心。
十二、 实战演练:搭建一套包含Hadoop、Spark、Flink的大数据平台,分别用Spark和Flink实现一个批处理任务和一个流处理任务。