培训对象:适合具备Linux系统管理基础,希望进入大数据运维领域的系统管理员、运维工程师及大数据平台技术人员。
培训目标:完成本课程后,学员将能够深入理解Hadoop生态体系的核心架构与各组件作用。熟练掌握Hadoop完全分布式集群的部署、配置与管理方法。掌握HDFS、YARN、MapReduce、Hive、Flume、Kafka等核心组件的运维技术。具备独立搭建和维护企业级大数据平台的能力。
培训内容:
(1)大数据技术概述:了解Hadoop生态体系的发展历程与核心组件。掌握Hadoop分布式集群架构的设计思想。学习大数据运维工程师的职业要求。
(2)开发环境准备:掌握Vmware、Xshell、Xftp、IDEA等软件的安装配置。学习Linux操作系统环境配置与SSH免密码登录配置。
(3)Hadoop分布式集群搭建:掌握JDK安装配置,学习HDFS集群与YARN集群的完整配置流程。实践完成Hadoop完全分布式集群环境搭建。
(4)HDFS运维管理:掌握HDFS shell命令行操作,学习HDFS客户端开发环境配置。掌握HDFS API基本操作与故障排查。
(5)MapReduce基础:理解MapReduce的原理与工作流程。掌握MapReduce编程模型,实践完成词频统计案例。
(6)Hive数据仓库:掌握MySQL环境配置与Hive环境配置。学习Hive与MySQL整合及Hive服务启动,掌握HQL语句基本操作。
(7)数据采集Flume:掌握Flume的基本原理与安装部署。学习Flume脚本设计,实现数据采集与消费。
(8)数据迁移Sqoop:掌握Sqoop原理及安装部署,学习Sqoop数据迁移案例。实践实现MySQL与HDFS/Hive间的数据迁移。
(9)Zookeeper集群搭建:掌握Zookeeper集群环境搭建方法。理解Zookeeper在分布式协调中的核心作用。
(10)Kafka集群运维:掌握Kafka集群环境搭建,学习Kafka常用命令及使用。实践实现Flume-Kafka-Flume数据采集架构。
(11)离线数仓设计:掌握离线数据仓库的分层架构(ODS、DWD、DWS、ADS)。学习各层的数据表设计与数据加载方法。
(12)综合项目实战:以"电商平台用户行为数据分析"为实战项目,完成Hadoop平台部署、数据采集、离线数仓构建、数据可视化的全流程。