spark本身能够读取到hdfs中的数据
第1题:
A SERIALIZABLE
B READ UNCOMMITTED
C READ COMMITTED
D REPEATABLE READ
参考答案:B
第2题:
通过什么方式能够获取到控制投影机的串口数据?
第3题:
spark中如果想要获取hdfs中的数据,则需要使用哪个系统()
第4题:
spark能够通过jdbc读取mysql数据库中的数据
第5题:
spark进行数据切分的时候,划分完成的partition个数和hdfs中block个数一致
第6题:
下列选项中是spark组件的有?()
第7题:
spark本身自带读取hdfs数据的方法
第8题:
spark中的rdd不存储数据,存储的是()
第9题:
对
错
第10题:
第11题:
NameNode
DataNode
ZooKeeper
JobTraoker
第12题:
( 难度:中等)以下关于hdfs说法不正确的是
A.hdfs是分布式存储,因此文件越多性能越好
B.hdfs适合存储海量的缩略图
C.hdfs能够快速地从许多大文件中搜索一段文字
D.hdfs不能在一个大文件中随机位置插入一段文字
答案:ABC
第13题:
A.一次写入,少次读
B.多次写入,少次读
C.多次写入,多次读
D.一次写入,多次读
第14题:
saveAsText算子将数据集的元素以textfile的形式保存到HDFS文件系统或者其他支持的文件系统,对于每个元素,Spark将会调用toString方法,将它装换为文件中的文本
第15题:
spark读取hdfs数据是调用哪个技术实现的()
第16题:
以下选项中可以在spark中编写sql的框架是()
第17题:
spark程序无法连接和访问mysql中的数据
第18题:
Hive架构建立在Hadoop之上的,所有Hive中数据都是存储在HDFS中
第19题:
Spark可以使用Hadoop的YARN和ApacheMesos作为它的资源管理和调度器,并且可以处理所有Hadoop支持的数据,包括HDFS、HBase和Cassandra等
第20题:
下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是().
第21题:
Flink能够支持Yarn,能够从HDFS和HBase中获取数据
能够使用所有的Hadoop的格式化输入和输出
能够使用Hadoop原有的Mappers和Reducers,但不能与Flink的操作混合使用
能够更快的运行Hadoop的作业
第22题:
eMBB
spark SQL
ETC
spark streaming
第23题:
(难度:中等)可以使用Flume将MySQL中的数据写入hdfs中
答案:(yes)