hadoop在大数据技术体系中的地位至关重要,hadoop是大数据技术的基础,对hadoop基础知识的掌握的扎实程度,会决定在大数据技术道路上走多远。
这是一篇入门文章,hadoop的学习方法很多,网上也有很多学习路线图。本文的思路是:以安装部署apache hadoop2.x版本为主线,来介绍hadoop2.x的架构组成、各模块协同工作原理、技术细节。安装不是目的,通过安装认识hadoop才是目的。
本文分为五个部分、十三节、四十九步。
hadoop是运行在linux,虽然借助工具也可以运行在windows上,但是建议还是运行在linux系统上,第一部分介绍linux环境的安装、配置、java jdk安装等。
hadoop本地模式只是用于本地开发调试,或者快速安装体验hadoop,这部分做简单的介绍。
学习hadoop一般是在伪分布式模式下进行。这种模式是在一台机器上各个进程上运行hadoop的各个模块,伪分布式的意思是虽然各个模块是在各个进程上分开运行的,但是只是运行在一个操作系统上的,并不是真正的分布式。
完全分布式模式才是生产环境采用的模式,hadoop运行在服务器集群上,生产环境一般都会做ha,以实现高可用。
ha是指高可用,为了解决hadoop单点故障问题,生产环境一般都做ha部署。这部分介绍了如何配置hadoop2.x的高可用,并简单介绍了ha的工作原理。
安装过程中,会穿插简单介绍涉及到的知识。希望能对大家有所帮助。
最后,我真的按这些步骤安装了,然而发现这门槛不一般,需要学习整个生态,所以去淘宝买了个几块钱的视频教程,个人感觉讲的还可以,还有项目什么的,才几块钱,有需要的可以去找找,这里给个我买的链接
一、vmware网络模式介绍
参考:
二、nat模式配置
nat是网络地址转换,是在宿主机和虚拟机之间增加一个地址转换服务,负责外部和虚拟机之间的通讯转接和ip转换。
我们部署hadoop集群,这里选择nat模式,各个虚拟机通过nat使用宿主机的ip来访问外网。
我们的要求是集群中的各个虚拟机有固定的ip、可以访问外网,所以进行如下设置:
1、 vmware安装后,默认的nat设置如下:
2、 默认的设置是启动dhcp服务的,nat会自动给虚拟机分配ip,但是我们需要将各个机器的ip固定下来,所以要取消这个默认设置。
3、 为机器设置一个子网网段,默认是192.168.136网段,我们这里设置为100网段,将来各个虚拟机ip就为 192.168.100.*。
4、 点击nat设置按钮,打开对话框,可以修改网关地址和dns地址。这里我们为nat指定dns地址。
5、 网关地址为当前网段里的.2地址,好像是固定的,我们不做修改,先记住网关地址就好了,后面会用到。
三、vmware上安装linux系统
1、 文件菜单选择新建虚拟机
2、 选择经典类型安装,下一步。
3、 选择稍后安装操作系统,下一步。
4、 选择linux系统,版本选择centos 64位。
5、 命名虚拟机,给虚拟机起个名字,将来显示在vmware左侧。并选择linux系统保存在宿主机的哪个目录下,应该一个虚拟机保存在一个目录下,不能多个虚拟机使用一个目录。
6、 指定磁盘容量,是指定分给linux虚拟机多大的硬盘,默认20g就可以,下一步。
7、 点击自定义硬件,可以查看、修改虚拟机的硬件配置,这里我们不做修改。
8、 点击完成后,就创建了一个虚拟机,但是此时的虚拟机还是一个空壳,没有操作系统,接下来安装操作系统。
9、 点击编辑虚拟机设置,找到dvd,指定操作系统iso文件所在位置。
10、 点击开启此虚拟机,选择第一个回车开始安装操作系统。
11、 设置root密码。
12、 选择desktop,这样就会装一个xwindow。
13、 先不添加普通用户,其他用默认的,就把linux安装完毕了。
四、设置网络
因为vmware的nat设置中关闭了dhcp自动分配ip功能,所以linux还没有ip,需要我们设置网络各个参数。
1、 用root进入xwindow,右击右上角的网络连接图标,选择修改连接。
2、 网络连接里列出了当前linux里所有的网卡,这里只有一个网卡system eth0,点击编辑。
3、 配置ip、子网掩码、网关(和nat设置的一样)、dns等参数,因为nat里设置网段为100.*,所以这台机器可以设置为192.168.100.10网关和nat一致,为192.168.100.2
4、 用ping来检查是否可以连接外网,如下图,已经连接成功。
五、修改hostname
1、 临时修改hostname
[root@localhost desktop]# hostname bigdata-senior01.chybinmy.com
这种修改方式,系统重启后就会失效。
2、 永久修改hostname
想永久修改,应该修改配置文件 /etc/sysconfig/network。
命令:[root@bigdata-senior01 ~] vim /etc/sysconfig/network
打开文件后,
六、配置host
七、关闭防火墙
学习环境可以直接把防火墙关闭掉。
(1) 用root用户登录后,执行查看防火墙状态。
[root@bigdata-senior01 hadoop]# service iptables status
(2) 用[root@bigdata-senior01 hadoop]# service iptables stop关闭防火墙,这个是临时关闭防火墙。
(3) 如果要永久关闭防火墙用。
[root@bigdata-senior01 hadoop]# chkconfig iptables off
关闭,这种需要重启才能生效。
八、关闭selinux
selinux是linux一个子安全机制,学习环境可以将它禁用。
[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim /etc/sysconfig/selinux
九、安装java jdk
1、 查看是否已经安装了java jdk。
[root@bigdata-senior01 desktop]# java –version
注意:hadoop机器上的jdk,最好是oracle的java jdk,不然会有一些问题,比如可能没有jps命令。
如果安装了其他版本的jdk,卸载掉。
2、 安装java jdk
(1) 去下载oracle版本java jdk:jdk-7u67-linux-x64.tar.gz
(2) 将jdk-7u67-linux-x64.tar.gz解压到/opt/modules目录下
[root@bigdata-senior01 /]# tar -zxvf jdk-7u67-linux-x64.tar.gz -c /opt/modules
(3) 添加环境变量
设置jdk的环境变量 java_home。需要修改配置文件/etc/profile,追加
修改完毕后,执行 source /etc/profile
(4)安装后再次执行 java –version,可以看见已经安装完成。
hadoop部署模式有:本地模式、伪分布模式、完全分布式模式、ha完全分布式模式。
区分的依据是namenode、datanode、resourcemanager、nodemanager等模块运行在几个jvm进程、几个机器。
模式名称 | 各个模块占用的jvm进程数 | 各个模块运行在几个机器数上 |
---|---|---|
本地模式 | 1个 | 1个 |
伪分布式模式 | n个 | 1个 |
完全分布式模式 | n个 | n个 |
ha完全分布式 | n个 | n个 |
十、本地模式介绍
本地模式是最简单的模式,所有模块都运行与一个jvm进程中,使用的本地文件系统,而不是hdfs,本地模式主要是用于本地开发过程中的运行调试用。下载hadoop安装包后不用任何设置,默认的就是本地模式。
十一、解压hadoop后就是直接可以使用
1、 创建一个存放本地模式hadoop的目录
[hadoop@bigdata-senior01 modules]$ mkdir /opt/modules/hadoopstandalone
2、 解压hadoop文件
[hadoop@bigdata-senior01 modules]$ tar -zxf /opt/sofeware/hadoop-2.5.0.tar.gz -c /opt/modules/hadoopstandalone/
3、 确保java_home环境变量已经配置好
十二、运行mapreduce程序,验证
我们这里用hadoop自带的wordcount例子来在本地模式下测试跑mapreduce。
1、 准备mapreduce输入文件wc.input
2、 运行hadoop自带的mapreduce demo
[hadoop@bigdata-senior01 hadoopstandalone]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /opt/data/wc.input output2
这里可以看到job id中有local字样,说明是运行在本地模式下的。
3、 查看输出文件
本地模式下,mapreduce的输出是输出到本地。
输出目录中有_success文件说明job运行成功,part-r-00000是输出结果文件。
十三、hadoop所用的用户设置
1、 创建一个名字为hadoop的普通用户
2、 给hadoop用户sudo权限
[root@bigdata-senior01 ~]# vim /etc/sudoers
设置权限,学习环境可以将hadoop用户的权限设置的大一些,但是生产环境一定要注意普通用户的权限限制。
注意:如果root用户无权修改sudoers文件,先手动为root用户添加写权限。
[root@bigdata-senior01 ~]# chmod u+w /etc/sudoers
3、 切换到hadoop用户
4、 创建存放hadoop文件的目录
[hadoop@bigdata-senior01 ~]$ sudo mkdir /opt/modules
5、 将hadoop文件夹的所有者指定为hadoop用户
如果存放hadoop的目录的所有者不是hadoop,之后hadoop运行中可能会有权限问题,那么就讲所有者改为hadoop。
[hadoop@bigdata-senior01 ~]# sudo chown -r hadoop:hadoop /opt/modules
十四、解压hadoop目录文件
1、 复制hadoop-2.5.0.tar.gz到/opt/modules目录下。
2、 解压hadoop-2.5.0.tar.gz
十五、配置hadoop
1、 配置hadoop环境变量
[hadoop@bigdata-senior01 hadoop]# vim /etc/profile
追加配置:
执行:source /etc/profile 使得配置生效
验证hadoop_home参数:
2、 配置 hadoop-env.sh、mapred-env.sh、yarn-env.sh文件的java_home参数
[hadoop@bigdata-senior01 ~]$ sudo vim ${hadoop_home}/etc/hadoop/hadoop-env.sh
3、 配置core-site.xml
[hadoop@bigdata-senior01 ~]{hadoop_home}/etc/hadoop/core-site.xml
(1) fs.defaultfs参数配置的是hdfs的地址。
(2) hadoop.tmp.dir
配置的是hadoop临时目录,比如hdfs的namenode数据默认都存放这个目录下,查看*-default.xml
等默认配置文件,就可以看到很多依赖${hadoop.tmp.dir}
的配置。
默认的hadoop.tmp.dir
是/tmp/hadoop-${user.name}
,此时有个问题就是namenode会将hdfs的元数据存储在这个/tmp目录下,如果操作系统重启了,系统会清空/tmp目录下的东西,导致namenode元数据丢失,是个非常严重的问题,所有我们应该修改这个路径。
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo mkdir -p /opt/data/tmp
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo chown –r hadoop:hadoop /opt/data/tmp
十六、配置、格式化、启动hdfs
1、 配置hdfs-site.xml
[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim ${hadoop_home}/etc/hadoop/hdfs-site.xml
dfs.replication配置的是hdfs存储时的备份数量,因为这里是伪分布式环境只有一个节点,所以这里设置为1。
2、 格式化hdfs
[hadoop@bigdata-senior01 ~]$ hdfs namenode –format
格式化是对hdfs这个分布式文件系统中的datanode进行分块,统计所有分块后的初始元数据的存储在namenode中。
格式化后,查看core-site.xml里hadoop.tmp.dir(本例是/opt/data目录)指定的目录下是否有了dfs目录,如果有,说明格式化成功。
注意:
格式化时,这里注意hadoop.tmp.dir目录的权限问题,应该hadoop普通用户有读写权限才行,可以将/opt/data的所有者改为hadoop。
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo chown -r hadoop:hadoop /opt/data
查看namenode格式化后的目录。
[hadoop@bigdata-senior01 ~]$ ll /opt/data/tmp/dfs/name/current
fsimage是namenode元数据在内存满了后,持久化保存到的文件。
fsimage*.md5
是校验文件,用于校验fsimage的完整性。
seen_txid
是hadoop的版本
vession文件里保存:
namespaceid:namenode的唯一id。
clusterid:集群id,namenode和datanode的集群id应该一致,表明是一个集群。
3、 启动namenode
4、 启动datanode
5、 启动secondarynamenode
6、 jps命令查看是否已经启动成功,有结果就是启动成功了。
7、 hdfs上测试创建目录、上传、下载文件
hdfs上创建目录
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/bin/hdfs dfs -mkdir /demo1
上传本地文件到hdfs上
读取hdfs上的文件内容
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/bin/hdfs dfs -cat /demo1/core-site.xml
从hdfs上下载文件到本地
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -get /demo1/core-site.xml
1、 配置mapred-site.xml
默认没有mapred-site.xml文件,但是有个mapred-site.xml.template配置模板文件。复制模板生成mapred-site.xml。
[hadoop@bigdata-senior01 hadoop-2.5.0]# cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
添加配置如下:
指定mapreduce运行在yarn框架上。
2、 配置yarn-site.xml
添加配置如下:
yarn.nodemanager.aux-services配置了yarn的默认混洗方式,选择为mapreduce的默认混洗算法。
yarn.resourcemanager.hostname指定了resourcemanager运行在哪个节点上。
3、 启动resourcemanager
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/sbin/yarn-daemon.sh start resourcemanager
4、 启动nodemanager
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/sbin/yarn-daemon.sh start nodemanager
5、 查看是否启动成功
可以看到resourcemanager、nodemanager已经启动成功了。
6、 yarn的web页面
yarn的web客户端端口号是8088,通过可以查看。
十八、运行mapreduce job
在hadoop的share目录里,自带了一些jar包,里面带有一些mapreduce实例小例子,位置在share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar,可以运行这些例子体验刚搭建好的hadoop平台,我们这里来运行最经典的wordcount实例。
1、 创建测试用的input文件
创建输入目录:
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -mkdir -p /wordcountdemo/input
创建原始文件:
在本地/opt/data目录创建一个文件wc.input,内容如下。
将wc.input文件上传到hdfs的/wordcountdemo/input目录中:
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -put /opt/data/wc.input /wordcountdemo/input
2、 运行wordcount mapreduce job
3、 查看输出结果目录
output目录中有两个文件,_success文件是空文件,有这个文件说明job执行成功。
part-r-00000文件是结果文件,其中-r-说明这个文件是reduce阶段产生的结果,mapreduce程序执行时,可以没有reduce阶段,但是肯定会有map阶段,如果没有reduce阶段这个地方有是-m-。
一个reduce会产生一个part-r-开头的文件。
查看输出文件内容。
结果是按照键值排好序的。
十九、停止hadoop
二十、 hadoop各个功能模块的理解
1、 hdfs模块
hdfs负责大数据的存储,通过将大文件分块后进行分布式存储方式,突破了服务器硬盘大小的限制,解决了单台机器无法存储大文件的问题,hdfs是个相对独立的模块,可以为yarn提供服务,也可以为hbase等其他模块提供服务。
2、 yarn模块
yarn是一个通用的资源协同和任务调度框架,
如对本文有疑问, 点击进行留言回复!!
HBase Filter 过滤器之FamilyFilter详解
去 HBase,Kylin on Parquet 性能表现如何?
如何找到Hive提交的SQL相对应的Yarn程序的applicationId
网友评论