分布式离线的计算框架,是一个分布式运算程序的编程框架,是用户开发基于hadoop的数据分析应用的核心框架,mapreduce的核心功能是将用户编写的业务逻辑代码和自带的默认组件整合成一个完整的分布式运算程序,并发运行在一个hadoop集群上。
hdfs–解决的是海量数据的存储问题。
mapreduce—解决的是海量数据的计算以及索引问题。
下图是一个典型的,互联网分层架构:
同一个层次的内部,例如端上的APP,以及web-server,也都会进行MVC分层:
工程师骨子里,都潜移默化的实施着分层架构设计。
如果我们仔细思考会发现,不管是跨进程的分层架构,还是进程内的MVC分层,都是一个“数据移动”,然后“被处理”和“被呈现”的过程。
如上图所示:
数据处理和呈现,需要CPU计算,而CPU是固定不动的:
而数据是移动的:
归根结底一句话:互联网分层架构,是一个CPU固定,数据移动的架构。
假如MapReduce也使用类似的的分层架构模式:
提前部署服务:
当用户提交作业时:
(1) 把数据数据传输给map服务集群;
(2) map服务集群产出结果后,把数据传输给reduce服务集群;
(3) reduce服务集群把结果传输给用户;
将有大量的时间浪费在大量数据的网络传输上。
画外音:输入给map,map给reduce,reduce给用户。
会发现,“固定CPU,移动数据”的架构并不适合。
问了减少数据量的传输:
(1) 输入数据,被分割为M块后,master会尽量将执行map函数的worker实例,启动在输入数据所在的服务器上;
画外音:不需要网络传输了。
(2) map函数的worker实例输出的的结果,会被分区函数划分成R块,写到worker实例所在的本地磁盘;
画外音:不需要网络传输了。
(3) reduce函数,由于有M个输入数据源(M个map的输出都有一部分数据可能对应到一个reduce的输入数据),所以,master会尽量将执行reduce函数的worker实例,启动在离这些输入数据源尽可能“近”的服务器上;
画外音:目的也是最小化网络传输;
服务器之间的“近”,可以用内网IP地址的相似度衡量。
所以,对于MapReduce系统架构,“固定数据,移动CPU”更为合理。
互联网在线业务的特点是:
这类业务,使用“固定CPU,移动数据”的分层架构是合理的。
MapReduce离线业务的特点是:
这类业务,使用“固定数据,移动CPU”的分层架构是合理的。
任何脱离业务的架构设计,都是耍流氓。