Hadoop中,HDFS用来存储数据,MapReduce用来处理数据。
第1题:
新型显示记录仪表组成中有,只读存储器ROM,它是用来固化程序;随机存储器RAM,它是用来随时读取数据、随时存储被测量信息,随时存储计算后的数据,存储CPU处理后的历史数据。
第2题:
工作表是Excel用来()的最主要表格。
第3题:
Hadoop分布式文件系统(HDFS)具有()的特性。
第4题:
Hive架构建立在Hadoop之上的,所有Hive中数据都是存储在HDFS中
第5题:
下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是().
第6题:
Excel 2010用来存储和处理数据的最主要的文档是()。
第7题:
奇迹指带有输入数据的并不用来产生输出数据的处理或数据存储。
第8题:
数据存储
数据流
外部实体
处理逻辑
第9题:
Hive最终将数据存储在HDFS中
HiveSQL其本质是执行MapReduce任务
Hive是Hadoop平台的数据仓库工具
Hive对HBase有强依赖
第10题:
它主要是用来存储数据
它主要用来把数据绑定到组件上
它主要用来解析数据
它主要用来存储xml数据
第11题:
大量小文件存储
流式数据访问
随机写入
低延迟读取
第12题:
对
错
第13题:
关于适配器的说法正确的有()。
第14题:
在Bigtable中,()主要用来存储子表数据以及一些日志文件
第15题:
Hive?是建立在Hadoop?之上的,所有?Hive?的数据都是存储在HDFS?中的
第16题:
Spark可以使用Hadoop的YARN和ApacheMesos作为它的资源管理和调度器,并且可以处理所有Hadoop支持的数据,包括HDFS、HBase和Cassandra等
第17题:
随着谷歌()和()的发布,大数据不再仅用来描述大量的数据,还涵盖了处理数据的速度。
第18题:
决策树是用来描述DFD中()的。
第19题:
在excel中用来存储并处理数据的文件叫做工作表
第20题:
大量小文件存储
高容错,高吞吐量
低延迟读取
流式数据访问
第21题:
适合数据批量处理
数据处理能力极强
最大化吞吐率
允许计算向数据迁移
适合多线程问题
第22题:
修改数据
存储和处理数据
缓存处理数据
备份数据
第23题:
NameNode
DataNode
ZooKeeper
JobTraoker
第24题:
FSDataInputStream扩展了DataInputStream以支持随机读
为实现细粒度并行,输入分片应该越小越好
一台机器可能被指派从输入文件的任意位置开始处理一个分片
输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割