本人微信公众号,欢迎扫码关注!
1)hadoop是一个由apache基金会所开发的分布式系统基础架构
2)主要解决,海量数据的存储和海量数据的分析计算问题。
3)广义上来说,hadoop通常是指一个更广泛的概念——hadoop生态圈
1)lucene--doug cutting开创的开源软件,用java书写代码,实现与google类似的全文搜索功能,它提供了全文检索引擎的架构,包括完整的查询引擎和索引引擎
2)2001年年底成为apache基金会的一个子项目
3)对于大数量的场景,lucene面对与google同样的困难
4)学习和模仿google解决这些问题的办法 :微型版nutch
5)可以说google是hadoop的思想之源(google在大数据方面的三篇论文)
6)2003-2004年,google公开了部分gfs和mapreduce思想的细节,以此为基础doug cutting等人用了2年业余时间实现了dfs和mapreduce机制,使nutch性能飙升
7)2005 年hadoop 作为 lucene的子项目 nutch的一部分正式引入apache基金会。2006 年 3 月份,map-reduce和nutch distributed file system (ndfs) 分别被纳入称为 hadoop 的项目中
8)名字来源于doug cutting儿子的玩具大象
9)hadoop就此诞生并迅速发展,标志这云计算时代来临
apache、cloudera、hortonworks
1)apache版本最原始(最基础)的版本,对于入门学习最好。
2)cloudera在大型互联网企业中用的较多。
3)hortonworks文档较好。
1)高可靠性:因为hadoop假设计算元素和存储会出现故障,因为它维护多个工作数据副本,在出现故障时可以对失败的节点重新分布处理。
2)高扩展性:在集群间分配任务数据,可方便的扩展数以千计的节点。
3)高效性:在mapreduce的思想下,hadoop是并行工作的,以加快任务处理速度。
4)高容错性:自动保存多份副本数据,并且能够自动将失败的任务重新分配。
1)namenode(nn):存储文件的元数据,如文件名,文件目录结构,文件属性(生成时间、副本数、文件权限),以及每个文件的块列表和块所在的datanode等。
2)datanode(dn):在本地文件系统存储文件块数据,以及块数据的校验和。
3)secondary namenode(2nn):用来监控hdfs状态的辅助后台程序,每隔一段时间获取hdfs元数据的快照。
1)resourcemanager(rm):处理客户端请求、启动/监控applicationmaster、监控nodemanager、资源分配与调度。
2)nodemanager(nm):单个节点上的资源管理、处理来自resourcemanager的命令、处理来自applicationmaster的命令。
3)applicationmaster:数据切分、为应用程序申请资源,并分配给内部任务、任务监控与容错。
4)container:对任务运行环境的抽象,封装了cpu、内存等多维资源以及环境变量、启动命令等任务运行相关的信息。
mapreduce将计算过程分为两个阶段:map和reduce
1)map阶段并行处理输入数据
2)reduce阶段对map结果进行汇总
如对本文有疑问, 点击进行留言回复!!
去 HBase,Kylin on Parquet 性能表现如何?
如何找到Hive提交的SQL相对应的Yarn程序的applicationId
如何在 HBase Shell 命令行正常查看十六进制编码的中文?哈哈~
网友评论