1
您的位置: 线上活动  >  在线答题  >  答题题库

证书

2025-05-22 15:13:47.226.0.64087

证书 在线考试 答题题目
1、 6. (单选题)获取DataFrame中所有数据,并返回一个数组对象,使用的方法是( )。
  • A、A. describe()
  • B、B. collect()
  • C、C. collectAsList()
  • D、D. 以上三种都是


  • 2、(填空题) 24. (填空题)使用____方法可以实现数据过滤


  • 3、(判断题) 15. (判断题)Spark SQL与Hive不兼容
  • A、正确
  • B、错误


  • 4、(填空题) 18. (填空题)在RDD操作中,可使用___ 方法收集查询数据


  • 5、(填空题) 12. (填空题)在spark-shell下进入粘贴模式的命令为


  • 6、 8. (单选题)以下选项中不能对DataFrame列名进行重命名的方法是( )。
  • A、A. selectExpr()
  • B、B. rename()
  • C、C. withColumnRenamed()
  • D、D. alias()


  • 7、 1. (单选题)下列说法正确的是哪一项?( )
  • A、A. Spark SQL的前身是Hive
  • B、B. DataFrame其实就是RDD
  • C、C. HiveContext继承了SqlContext
  • D、D. HiveContext只支持SQL语法解析器


  • 8、(判断题) 21. (判断题)Spark SQL与Hive相互不兼容。
  • A、正确
  • B、错误


  • 9、 6. (单选题)关于sortBy(方法的三个可输入参数,以下选项中描述错误的是 ( )
  • A、A. 第一个可输入参数是一个函数f:(T)=>K,左边是被排序对象中的每一个元素,右边返回的值是元素中要进行排序的值
  • B、B. 第二个可输入参数决定RDD里的元素是升序排列还是降序排列,默认是降序排列
  • C、C. 第三个可输入参数是numPartitions,该参数决定排序后的RDD的分区个数
  • D、D. 第一个参数是必须输入的


  • 10、(判断题) 29. (判断题)Scala语言是一种面向过程编程的语言。
  • A、正确
  • B、错误


  • 11、 9. (单选题)下列选项中,哪个不是Spark生态系统中的组件?
  • A、A. Spark Streaming
  • B、B. Spark Mlib
  • C、C. Spark Graphx
  • D、D. Spark R


  • 12、 5. (单选题)DataFrame的show()方法默认输出( )条数据。
  • A、A. 10
  • B、B. 15
  • C、C. 20
  • D、D. 30


  • 13、(填空题) 10. (填空题)在Spark MLlib库中,经常用于将对象分到高度相似的类中的一种无监督学习算法的是


  • 14、 1. (单选题)机器学习可以分为( )。
  • A、A. 有监督学习、无监督学习和半监督学习
  • B、B. 有监督学习、无监督学习和强化学习
  • C、C. 有监督学习和强化学习
  • D、D. 无监督学习和强化学习


  • 15、 11. (单选题)在Scala语言中,关于列表的定义,不正确的是( )
  • A、A. val list:List[Int] = List(1,2,3)
  • B、B. val list=List[Int](1,2,3)
  • C、C. val list=List[String]('a','b','c')
  • D、D. val list=List[String]()


  • 16、 14. (单选题)定义类Counter,并通过new关键字实例化出counter对象,代码如下,以下选项的操作正确的是( )。 class Counter(name:String){val a = 1var b ="counter" } val counter = new Counter("computer")
  • A、A. counter.name="cpu"
  • B、B. counter.a=2
  • C、C. counter.b="counter2"
  • D、D. counter.a=counter.b


  • 17、(判断题) 32. (判断题)Scala语言和Java语言一样,都有静态方法或静态字段。
  • A、正确
  • B、错误


  • 18、(判断题) 17. (判断题)集群上的任务是由执行器来调度的
  • A、正确
  • B、错误


  • 19、 5. (单选题)以元组pair为例,以下关于元组说法错误的是( )
  • A、A. 元组可以包含不同类型的元素
  • B、B. 元组是不可变得
  • C、C. 访问元组第一个元素得方式为parir._1
  • D、D. 元组最多有2个元素


  • 20、 4. (单选题)DataFrame可以将数据保存成持久化的表,使用的方法是( )。
  • A、A. save()
  • B、B. saveAsTextFile()
  • C、C. saveAsFile()
  • D、D. saveAsTable()


  • 21、 12. (单选题)映射的示例代码如下,运行后res的正确结果是val data=Map(1->"Chinese"),2->"Math",3->"English" val res=for(k,v)<-data;if(k>1)) yield v
  • A、A. List("Math")
  • B、B. List("Math","English")
  • C、C. Map(2->"Math",3->"English")
  • D、D. List(1,2)


  • 22、 1. (单选题)以下不属于Spark架构中的组件的是( )
  • A、A. Driver
  • B、B. SparkContext
  • C、C. ClusterManager
  • D、D. ResourceManager


  • 23、 5. (单选题)以下是行动操作的方法是()
  • A、A. collect()
  • B、B. map()
  • C、C. union()
  • D、D. distinct()


  • 24、 2. (单选题)现有一个DataFrame数据命名为data,而在Spark SQL的DataFrame API中有众多方法可以对其数据进行查看。查看data数据的前10条数,以下写法错误是( )。
  • A、A. data.show(10)
  • B、B. data.head(10)
  • C、C. data.limit(10).show()
  • D、D. data.collect(10)


  • 25、 7. (单选题)下列选项中,( )不属于数据标准化或归一化方法。
  • A、A. Normalizer()
  • B、B. StandardScaler()
  • C、C. MinMaxScaler()
  • D、D. WithMean()


  • 26、 4. (单选题)以下是转换操作的方法是()
  • A、A. reduce()
  • B、B. saveAsTextFile()
  • C、C. filter()
  • D、D. foreach()


  • 27、(填空题) 25. (填空题)方法可对集合中的元素进行分组操作,返回的结果是一个映射。


  • 28、(判断题) 35. (判断题)Scala中声明变量时,可以不给出变量的类型,因为在初始化的时候,Scala的类型推断机制能够根据变量初始化的值自动推算出来。
  • A、正确
  • B、错误


  • 29、 8. (单选题)ALS是MLlib的一个实现推荐算法的包,需要输入的数据类型是( )。
  • A、A. Vector
  • B、B. LabeledPoint
  • C、C. DStream
  • D、D. Rating


  • 30、 6. (单选题)下列选项中,哪个是Scala编译后文件的扩展名( )
  • A、A. .class
  • B、B. .bash
  • C、C. .pyc
  • D、D. .sc


  • 31、(填空题) 24. (填空题)RDD的操作主要分为____和____


  • 32、(判断题) 14. (判断题)Spark诞生于洛桑联邦理工学院(EPEL)的编程方法实验室
  • A、正确
  • B、错误


  • 33、(填空题) 10. (填空题)停止Spark集群的命令为


  • 34、(填空题) 20. (填空题)使用 ___方法可以合并多个RDD


  • 35、 4. (单选题)下列选项中( )算法属于分类算法。
  • A、A. FCM
  • B、B. 决策树
  • C、C. K-Means
  • D、D. FP


  • 36、(填空题) 13. (填空题)spark-shell下清屏的快捷方式为


  • 37、(填空题) 28. (填空题)在Scala中,使用___关键字来定义的类被称为样例类。


  • 38、 17. (单选题)映射的示例代码如下,运行后res的正确结果是(    )。 val data = Map(1 ->"Chinese",2 ->"Math",3 ->"English") val res = for((k,v)<- data; if(k>1))yield v
  • A、A. List("Math")
  • B、B. List("Math”,"English")
  • C、C. Map(2->"Math",3->"English")
  • D、D. List(1,2)


  • 39、 8. (单选题)下列关于List的定义,哪个是错误的( )
  • A、A. val list=List(1,22,3)
  • B、B. val list=List("Hello","Scala")
  • C、C. val list:String=List("A","B")
  • D、D. val list=List[Int](1,2,3)


  • 40、 11. (单选题)saveAsTextFile()方法用于将( )以文本文件的格式存储到文件系统中。
  • A、A. 列表
  • B、B. 数组
  • C、C. Seq
  • D、D. RDD


  • 41、 13. (单选题)以下关于Scala的类和单例对象之间的差别描述正确的是( )
  • A、A. 单例对象不可以定义方法,而类可以
  • B、B. 单例对象不可以带参数,而类可以
  • C、C. 单例对象不可以定义私有属性,而类可以
  • D、D. 单例对象不可以继承,而类可以


  • 42、 8. Spark于2009年诞生于()。
  • A、A. 美国加州大学伯克利分校的AMP实验室
  • B、B. 加利福尼亚大学伯克利分校
  • C、C. 宾夕法尼亚大学
  • D、D. 普林斯顿大学


  • 43、 1. (单选题)下面哪个端口不是Spark自带服务的端口
  • A、A. 8080
  • B、B. 4040
  • C、C. 8090
  • D、D. 18080


  • 44、 2. (单选题)下列方法中,不可用于创建RDD的方法的是( )
  • A、A. makeRDD()
  • B、B. parallelize()
  • C、C. textFile()
  • D、D. testFile()


  • 45、 8. (单选题)关于键值对RDD的连接操作,以下选项中描述正确的是
  • A、A. join()方法:对两个RDD进行全外连接
  • B、B. rightOuterJoin()方法:对两个RDD进行左外连接
  • C、C. leftOuterJoin()方法:对两个RDD进行右外连接
  • D、D. fullOuterJoin()方法:对两个RDD进行全外连接


  • 46、 12. (单选题)Spark中的SparkContext是( )。
  • A、A. 主节点
  • B、B. 从节点
  • C、C. 执行器
  • D、D. 上下文


  • 47、(填空题) 12. (填空题)推荐算法有两个主要的类别:一种是_____ ,另一种是____


  • 48、(判断题) 15. (判断题)部署Spark高可用集群不需要用到Zookeeper服务
  • A、正确
  • B、错误


  • 49、 10. (单选题)对于RDD1((a,1),(b, 2),(c,3))和RDD2((b,4),(b,5),(a,6)),使用“RDD1.join (RDD2)”,得到的结果是( )。
  • A、A. (a,(1,6))、(b,(2,4))、(b,(2,5))
  • B、B. (a,(6,1))、(b,(4,2))、(b,(5,2))
  • C、C. (a,(1,6))、(b,(2,4))、(b,(2,5))、(c,(3,null))
  • D、D. (a,(1,6))、(b,(2,4))、(b,(2,5))、(c,3)


  • 50、 3. (单选题)以下关于Scala的变量定义、赋值的代码,运行后一定会报错的是( )
  • A、A. val a=5
  • B、B. val a:String="Math"
  • C、C. var b:Int=3;b=6
  • D、D. val b="Hello world!";b="Word"


  • 51、(填空题) 9. (填空题)启动Spark集群的命令为


  • 52、(判断题) 13. (判断题)标注点是一种带有标签的本地向量,通常用于无监督学习算法中
  • A、正确
  • B、错误


  • 53、 5. 关于SparkRDD,下列说法不正确的是( )
  • A、A. SparkRDD是一个抽象的弹性分布式数据集
  • B、B. RDD的行动操作指的是将原始数据集加载为RDD或将一个RDD转换为另一个RDD的操作
  • C、C. 窄依赖指的是子RDD的一个分区只依赖于某个父RDD中的一个分区
  • D、D. 宽依赖指的是子RDD的每一个分区都依赖于某个父RDD中一个以上的分区


  • 54、 4. (单选题)以下关于数组a的定义,最终数组a的数据与其他选项不一致的是
  • A、A. val a=Array[Int](0,0)
  • B、B. val a=Array(0,0)
  • C、C. val a=new Array[Int](2)
  • D、D. val a=Array[Int](1,1)


  • 55、(判断题) 18. (判断题)Spark SQL不仅能够查询MySQL数据库中的数据,还可以向表中插入新的数据
  • A、正确
  • B、错误


  • 56、 6. 下列选项中,可以支持Scala和Python编程的交互式解释器是()。
  • A、A. HBase-Shell
  • B、B. Spark-Shell
  • C、C. Hadoop-Shell
  • D、D. Hive-Shell


  • 57、 10. (单选题)表达式for(i<-1 to 3;for(j<-1 to 3;if i!=j))print((10*i+j))+"",输出结果正确的是( )
  • A、A. 11 12 13 21 22 23 31 32 33
  • B、B. 11 13 21 23 31 33
  • C、C. 12 13 21 23 31 32
  • D、D. 11 12 21 22 31 32


  • 58、(填空题) 19. (填空题)方法用于获取RDD的前N个元素,返回数据为数组


  • 59、 20. (单选题)下列方法中,用于计算数组长度的是()。
  • A、A. count()
  • B、B. take()
  • C、C. tail()
  • D、D. length()


  • 60、(填空题) 13. (填空题)Spark SQL作为分布式SQL查询引擎,让用户可以通过 、DataFrames API和Datasets API3种方式实现对结构化数据的处理。


  • 61、(判断题) 36. (判断题)Scala有两种类型的变量,一种是使用关键字var声明的常量,值是不可变的;另一种是使用关键字val声明的变量,值是可变的。
  • A、正确
  • B、错误


  • 62、(填空题) 21. (填空题)方法用于合并具有相同键的值,作用对象是键值对,并且只对键的值进行处理。


  • 微信扫一扫 在线答题 在线出卷 随机出题小程序 闯关答题软件 出题答题小程序
    • 上一场考卷: 1
    • 下一场考卷: 驾驶