Hadoop框架的两个核心组件是HDFS 和MapReduce并行计算框架。
第1题:
第2题:
hadoop和spark的都是并行计算,两者都是用mr模型来进行并行计算,hadoop的一个作业称为job,job里面分为maptask和reducetask,每个task都是在自己的进程中运行的,当task结束时,进程也会结束
第3题:
与spark基于内存相比,mapreduce是基于()运行的计算框架
第4题:
mapreduce是基于()运行的计算框架
第5题:
Spark可以使用Hadoop的YARN和ApacheMesos作为它的资源管理和调度器,并且可以处理所有Hadoop支持的数据,包括HDFS、HBase和Cassandra等
第6题:
Hadoop是一个处理、存储和分析海量的分布式、非结构化数据的开源框架。
第7题:
第8题:
对
错
第9题:
核心数据框架
核心动画框架
核心运动框架
核心网络框架
第10题:
对
错
第11题:
第12题:
NameNode
DataNode
ZooKeeper
JobTraoker
第13题:
创建并显示框架的步骤中,错误的是()
第14题:
hadoop中的hdfs是分布式()
第15题:
hadoop中的mapreduce是基于什么运行的计算框架()
第16题:
以下哪个选项是spark的核心框架?()
第17题:
SG-UAP平台核心框架中用来配置逻辑组件中的事务管理的标签()
第18题:
第19题:
第20题:
Hive最终将数据存储在HDFS中
HiveSQL其本质是执行MapReduce任务
Hive是Hadoop平台的数据仓库工具
Hive对HBase有强依赖
第21题:
第22题:
HDFS
HBase
ZooKeeper
MapReduce
第23题:
迭代计算
离线计算
实时交互计算
流式计算
第24题:
Main()函数
Web服务
命名空间
公共语言运行时