Hadoop
Hadoop核心
Hadoop的核心就是HDFS和MapReduce,而两者只是理论基础,不是具体可使用的高级应用,Hadoop旗下有很多经典子项目,比如HBase、Hive等,这些都是基于HDFS和MapReduce发展出来的。要想了解Hadoop,就必须知道HDFS和MapReduce是什么。
HDFS
HDFS(Hadoop Distributed File System,Hadoop分布式文件系统),它是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,适合那些有着超大数据集(large data set)的应用程序。
MapReduce
通俗说MapReduce是一套从海量·源数据提取分析元素最后返回结果集的编程模型,将文件分布式存储到硬盘是第一步,而从海量数据中提取分析我们需要的内容就是MapReduce做的事了。
HBase
HBase是一个分布式的、面向列的开源数据库,由Apache基金会开发。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。 它基于列的而不是基于行的模式。用户存储数据行在一个表里。一个数据行拥有一个可选择的键和任意数量的列。用户可根据键访问行,以及对于一系列的行进行扫 描和过滤。HBase一个可以横向扩张的表存储系统,能够为大规模数据提供速度极快的低等级更新。主要用于需要随机访问,实时读写大数据(Big Data)。这正是信息系统所需要的功能。
Hive(数据仓库工具)
hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
Hive是建立在 Hadoop 上的数据仓库基础构架。它提供了一系列的工具,可以用来进行数据提取转化加载(ETL),这是一种可以存储、查询和分析存储在 Hadoop 中的大规模数据的机制。Hive 定义了简单的类 SQL 查询语言,称为 HQL,它允许熟悉 SQL 的用户查询数据。同时,这个语言也允许熟悉 MapReduce 开发者的开发自定义的 mapper 和 reducer 来处理内建的 mapper 和 reducer 无法完成的复杂的分析工作。
面对“大数据”,Hadoop为揭示深奥的企业与外部数据的关键内幕提供了基础。从技术上看,Hadoop分布式文件系统(HDFS)保证了大数据的可靠存储,而另一Hadoop核心组件MapReduce则提供高性能并行数据处理服务。这两项服务提供了一个使对结构化和复杂“大数据”的快速、可靠分析变为现实的基础。
虽然Hadoop是用java写的,但是Hadoop提供了Hadoop流,Hadoop流提供一个API, 允许用户使用任何语言编写map函数和reduce函数.
Hadoop流使用UNIX标准流作为程序与Hadoop之间的接口。因此,任何程序只要可以从标准输入流中读取数据,并且可以把数据写入标准输出流中,那么就可以通过Hadoop流使用任何语言编写MapReduce程序的map函数和reduce函数。
Storm
一、简要介绍
对于大数据的处理,在离线方面,Hadoop很完美地解决了,对于实时数据的处理则无能为力。
Storm是一个开源的分布式实时计算系统,可以简单、可靠地处理大量的数据流。
Storm有很多使用场景,如实时分析、在线机器学习、持续计算、分布式RPC、ETL等。
Storm支持水平扩展,具有高容错性,保证每个消息都会得到处理,而且处理速度很快(在一个小集群中,每个节点每秒可以处理数以百万计的消息)。
Storm的部署和运维都很便捷,而且更为重要的是可以使用任意编程语言来开发应用。
二、系统特性
1、编程模型简单
Storm为大数据的实时计算提供了一些简单优美的原语,这大大降低了开发并行实时处理任务的复杂性,帮助你快速、高效的开发应用。
2、可扩展
在Storm集群中真正运行Topology的主要有三个实体:工作进程、线程和任务。
Storm集群中的每台机器上都可以运行多个工作进程,每个工作进程又可创建多个线程,每个线程可以执行多个任务,任务是真正进行数据处理的实体,Spout、Bolt被开发出来就是作为一个或者多个任务的方式执行的。
3、高可靠性
Storm可以保证Spout发出的每条消息都能被“完全处理”,Spout发出的消息后续可能会触发产生成千上万条消息,可以形象地理解为一棵消息树,其中Spout发出的消息为树根,Storm会跟踪这个消息树的处理情况,只有这棵树中的所有消息被处理了才认为“完全处理”了,否则Spout会重发消息。
4、高容错性
如果在消息处理过程中出现了一些异常,Storm会重新部署这个出问题的处理单元。Storm保证一个处理单元永远运行(除非你显示的结束这个处理单元)。
5、支持多种编程语言
除了用Java实现Spout和Bolt,你还可以使用任何你熟悉的编程语言来完成这项工作,这一切得益于Storm所谓的多语言协议。
多语言协议是Storm内部的一种特殊协议,允许Spout或者Bolt使用标准输入和标准输出来进行消息传递,传递的消息为单行文本或者JSON编码的多行。
6、支持本地模式
Storm有一种“本地模式”,也就是在进程中模拟一个Storm集群的所有功能,以本地模式运行Topology跟在集群上运行Topology类似,这对于我们开发和测试来说非常有用。
7、高效
用ZeroMQ作为底层消息队列,保证消息能快速被处理。
8、运维和部署简单
Storm计算任务是以“拓扑”为基本单位的,每个拓扑完成特定的业务指标,拓扑中的每个逻辑业务节点实现特定的逻辑,并通过消息相互协作。
实际部署时,仅需要根据情况配置逻辑节点的并发数,而不需要关心部署到集群中的哪台机器,Storm支持动态增加节点但不会自动负载均衡。
9、图形化监控
图形界面,可以监控各个拓扑的信息,包括每个处理单元的状态和处理消息的数量。
三、类似系统
这里主要将Yahoo!S4和IBM InfoSphere Streams与Storm进行对比。
1、Yahoo!S4
(1)系统模型:通过把任务分解为尽可能小的处理单元,各处理单元之间形成流水线,从而提高并发度和吞吐量,处理单元的粒度由开发者自行把握,这点与Storm相似,不同的是S4内置的处理单元PE还可以处理count、join和aggregate等常见任务需求。
(2)开发:S4使用Java开发,模块高度可定制化。
(3)通信协议:S4节点间通信采用POJOs(Plain Old Java Objects)模式,底层通信协议采用UDP。
(4)高可用:S4集群中所有节点对等,无单点问题。
(5)运维与部署:S4不支持动态部署和动态增删节点,这两点Storm都支持。
2、IBM InfoSphere Streams
(1)系统模型:通过把任务分解为尽可能小的处理单元,各处理单元之间形成流水线,从而提高并发度和吞吐量,各处理单元只能完成预定的操作(如:join、merge等),强制限制每个处理单元的粒度。
(2)开发:定制的开发环境Eclipse-SPL(Steam Programming Language)。
(3)高可用:与S4和Storm一样支持故障转移。
(4)运维与部署:部署半自动化,支持动态增加节点,且根据负载自动均衡,这点Storm不支持。
四、应用模式
1、海量数据处理
Storm由于其高效、可靠、可扩展、易部署、高容错及实时性高等特点,对于海量数据的实时处理非常合适。
比如:统计网站的页面浏览量(如:Page View即PV)指标,Storm可以做到实时接收到点击数据流,并实时计算出结果。
2、中间状态存储与查询
对于Storm实时计算出的中间结果,可以实时写入MySQL或者HBase,以便于用户查询。
3、数据增量更新
对于PV指标的计算,如果直接实时修改HBase,则HBase压力会很大。
可以将数据在Storm内计算短暂的一段时间后,增量地合并到HBase,以牺牲一定查询结果的实时性换取HBase压力的减轻。
4、结合概率算法实时计算复杂指标
Storm实时处理数据,相对离线处理而言需要大量内存存储中间状态,为了减少内存的消耗,可以根据业务特点(如:Unique Visitor即UV)采用概率算法近似计算结果。
数据的度量单位
最小的基本单位是Byte,按顺序给出所有单位:bit、Byte、KB、MB、GB、TB、PB、EB、ZB、YB、BB、NB、DB,它们按照进率1024(2的十次方)来计算:
1 Byte = 8 bit
1 KB = 1,024 Bytes
1 MB = 1,024 KB = 1,048,576 Bytes
1 GB = 1,024 MB = 1,048,576 KB
1 TB = 1,024 GB = 1,048,576 MB
1 PB = 1,024 TB = 1,048,576 GB
1 EB = 1,024 PB = 1,048,576 TB
1 ZB = 1,024 EB = 1,048,576 PB
1 YB = 1,024 ZB = 1,048,576 EB
1 BB = 1,024 YB = 1,048,576 ZB
1 NB = 1,024 BB = 1,048,576 YB
1 DB = 1,024 NB = 1,048,576 BB

