更多“spark本身能够读取到hdfs中的数据”相关问题
  • 第1题:

    ( ) 是事务中最低的级别,该级别下的事务可以读取到另一个事务中未提交的数据,即脏读。

    A SERIALIZABLE

    B READ UNCOMMITTED

    C READ COMMITTED

    D REPEATABLE READ


    参考答案:B

  • 第2题:

    通过什么方式能够获取到控制投影机的串口数据?


    正确答案:将投影机输出的串口连接到PC机的串口上,打开串口调试助手,将波特率设置成投影机的波特率,并设置成十六机制显示,在此情况下打开投影机,串口调试助手可以显示投影机的串口数据。

  • 第3题:

    spark中如果想要获取hdfs中的数据,则需要使用哪个系统()

    • A、spark?core
    • B、spark?streaming
    • C、mapreduce
    • D、Grophx

    正确答案:C

  • 第4题:

    spark能够通过jdbc读取mysql数据库中的数据


    正确答案:正确

  • 第5题:

    spark进行数据切分的时候,划分完成的partition个数和hdfs中block个数一致


    正确答案:正确

  • 第6题:

    下列选项中是spark组件的有?()

    • A、spark core
    • B、spark streaming
    • C、Grophx
    • D、spark sql

    正确答案:A,B,C,D

  • 第7题:

    spark本身自带读取hdfs数据的方法


    正确答案:错误

  • 第8题:

    spark中的rdd不存储数据,存储的是()

    • A、业务逻辑
    • B、物理数据
    • C、数据库数据
    • D、物理逻辑

    正确答案:A

  • 第9题:

    判断题
    Spark是基于内存的计算,所有的Spark程序运行过程中的数据只能存储在内存中。
    A

    B


    正确答案:
    解析: 暂无解析

  • 第10题:

    问答题
    试述HDFS中的名称节点和数据节点的具体功能。

    正确答案: 名称节点负责管理分布式文件系统系统的命名空间,记录分布式文件系统中的每个文件中各个块所在的数据节点的位置信息;
    数据节点是分布式文件系统HDFS的工作节点,负责数据的存储和读取,会根据客户端或者是名称节点的调度来进行数据的存储和检索,并向名称节点定期发送自己所存储的块的列表。
    Hadoop fs -ls  显示指定的文件的详细信息
    Hadoop fs -cat  将指定的文件的内容输出到标准输出
    Hadoop fs -mkdir  创建指定的文件夹
    Hadoop fs -get [-ignorecrc] [-crc]  复制指定的文件到本地文件系统指定的文件或文件夹。-ignorecrc选项复制CRC校验失败的文件。使用-crc选项复制文件以及CRC信息。
    Hadoop fs -put  从本地文件系统中复制指定的单个或多个源文件到指定的目标文件系统中。也支持从标准输入(stdin)中读取输入写入目标文件系统。
    Hadoop fs -rmr  删除指定的文件夹及其的所有文件。
    解析: 暂无解析

  • 第11题:

    单选题
    Hadoop中哪个模块负责HDFS的数据存储?()
    A

    NameNode

    B

    DataNode

    C

    ZooKeeper

    D

    JobTraoker


    正确答案: B
    解析: 暂无解析

  • 第12题:

    ( 难度:中等)以下关于hdfs说法不正确的是
    A.hdfs是分布式存储,因此文件越多性能越好
    B.hdfs适合存储海量的缩略图
    C.hdfs能够快速地从许多大文件中搜索一段文字
    D.hdfs不能在一个大文件中随机位置插入一段文字

    答案:ABC

  • 第13题:

    HDFS是基于流数据模式访问和处理超大文件的需求而开发的,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是( )。

    A.一次写入,少次读

    B.多次写入,少次读

    C.多次写入,多次读

    D.一次写入,多次读


    正确答案:D

  • 第14题:

    saveAsText算子将数据集的元素以textfile的形式保存到HDFS文件系统或者其他支持的文件系统,对于每个元素,Spark将会调用toString方法,将它装换为文件中的文本


    正确答案:正确

  • 第15题:

    spark读取hdfs数据是调用哪个技术实现的()

    • A、spark?core
    • B、spark?streaming
    • C、mapreduce
    • D、Grophx

    正确答案:C

  • 第16题:

    以下选项中可以在spark中编写sql的框架是()

    • A、spark core
    • B、spark streaming
    • C、mlbase
    • D、spark sql

    正确答案:D

  • 第17题:

    spark程序无法连接和访问mysql中的数据


    正确答案:错误

  • 第18题:

    Hive架构建立在Hadoop之上的,所有Hive中数据都是存储在HDFS中


    正确答案:正确

  • 第19题:

    Spark可以使用Hadoop的YARN和ApacheMesos作为它的资源管理和调度器,并且可以处理所有Hadoop支持的数据,包括HDFS、HBase和Cassandra等


    正确答案:正确

  • 第20题:

    下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是().

    • A、FSDataInputStream扩展了DataInputStream以支持随机读
    • B、为实现细粒度并行,输入分片应该越小越好
    • C、一台机器可能被指派从输入文件的任意位置开始处理一个分片
    • D、输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割

    正确答案:B

  • 第21题:

    单选题
    下面关于Hadoop兼容性错误的是()。
    A

    Flink能够支持Yarn,能够从HDFS和HBase中获取数据

    B

    能够使用所有的Hadoop的格式化输入和输出

    C

    能够使用Hadoop原有的Mappers和Reducers,但不能与Flink的操作混合使用

    D

    能够更快的运行Hadoop的作业


    正确答案: A
    解析: 暂无解析

  • 第22题:

    单选题
    大数据中spark生态支持的组件有:()和spark streaming。
    A

    eMBB

    B

    spark SQL

    C

    ETC

    D

    spark streaming


    正确答案: C
    解析: 暂无解析

  • 第23题:

    (难度:中等)可以使用Flume将MySQL中的数据写入hdfs中

    答案:(yes)