小曹 选择题 在线考试 答题题目
1、 9. (单选题)关于mllib.feature中创建特征向量的方法,下列说法错误的是( )。
2、(填空题) 26. (填空题)在Scala中,获取元组中的值是通过 来获取的
3、 5. (单选题)以下是行动操作的方法是()
4、 1. (单选题)下面哪个端口不是Spark自带服务的端口
5、 10. (单选题)在Spark中,调用RDD的()方法,可以将RDD转换为DataFrame对象。
6、 4. (单选题)以下关于数组a的定义,最终数组a的数据与其他选项不一致的是
7、 3. Spark支持的运行模式不包括( )
8、(判断题) 33. (判断题)在Scala中,集合有三大类分别是List、Set以及Map。
9、 8. (单选题)以下选项中不能对DataFrame列名进行重命名的方法是( )。
10、(判断题) 31. (判断题)在Scala中定义变长数组时,需要导入可变数组包。
11、 5. (单选题)DataFrame的show()方法默认输出( )条数据。
12、(判断题) 30. (判断题)在Scala中,使用关键字bar声明的变量,值是不可变的。
13、(填空题) 11. (填空题)进入spark-shell操作界面的命令为
14、 1. 以下关于Scala解释器(REPL)交互的基本方式说法错误的是( )
15、(判断题) 14. (判断题)Spark诞生于洛桑联邦理工学院(EPEL)的编程方法实验室
16、 1. (单选题)以下不属于Spark架构中的组件的是( )
17、 3. (单选题)下列选项中( )算法不属于有监督学习算法。
18、 3. (单选题)关于Spark SQL的说法,以下选项错误的是( )。
19、 3. (单选题)以下方法中,从外部存储系统中创建RDD使用的方法是( )
20、 18. (单选题)以下关于Scala的类和单例对象之间的差别描述正确的是( )。
21、 10. (单选题)对于RDD1((a,1),(b, 2),(c,3))和RDD2((b,4),(b,5),(a,6)),使用“RDD1.join (RDD2)”,得到的结果是( )。
22、 3. (单选题)以下关于Scala的变量定义、赋值的代码,运行后一定会报错的是( )
23、 17. (单选题)映射的示例代码如下,运行后res的正确结果是( )。
val data = Map(1 ->"Chinese",2 ->"Math",3 ->"English")
val res = for((k,v)<- data; if(k>1))yield v
24、 7. (单选题)关于RDD集合操作方法,以下选项中描述错误的是
25、 9. (单选题)下列选项中,哪个不是Spark生态系统中的组件?
26、 14. (单选题)以下选项中使用spark-submit指定在YARN框架上运行程序的是( )。
27、(填空题) 19. (填空题)方法用于获取RDD的前N个元素,返回数据为数组
28、(判断题) 18. (判断题)Hadoop的MapReduce进行计算时,每次产生的中间结果都是存储在内存中;而Spark在计算时产生的中间结果存储在本地磁盘中。
29、(填空题) 9. (填空题)启动Spark集群的命令为
30、(填空题) 22. (填空题)方法用于对具有相同键的值进行分组,可以对同一组的数据进行计数、求和等操作。
31、 19. (单选题)
定义类Counter,并通过new关键字实例化出counter对象,代码如下,以下选项的操作正确的是( )。
class Counter(name:String)(
val a = 1
var b ="counter”
}
val counter = new Counter("computer")
32、 6. 下列选项中,可以支持Scala和Python编程的交互式解释器是()。
33、 2. Spark是Hadoop生态下( )组件的替代方案
34、 2. 以下关于Scala的特性说法错误的是( )
35、 12. (单选题)Spark中的SparkContext是( )。
36、(填空题) 12. (填空题)Spark SQL是Spark用来 的一个模块
37、 4. (单选题)DataFrame可以将数据保存成持久化的表,使用的方法是( )。
38、 10. (单选题)表达式for(i<-1 to 3;for(j<-1 to 3;if i!=j))print((10*i+j))+"",输出结果正确的是( )
39、 7. (单选题)以下选项中,关于Spark SQL优点描述正确的是( )。 ①将SQL查询与Spark程序无缝混合,可以使用Java、Scala、Python、R等语言的API操作 ②兼容Hive ③统一的数据访问 ④标准的数据连接
40、(填空题) 22. (填空题)方法可以通过一个函数重新计算列表中的所有元素,并且返回一个包含相同数目元素的新列表。
41、(填空题) 14. (填空题)在DataFrame的操作中,_____用于对记录进行分组。
42、(判断题) 15. (判断题)部署Spark高可用集群不需要用到Zookeeper服务
43、(填空题) 23. (填空题)spark-submit常用配置项中 --name Name主要用于
44、 5. (单选题)下列选项中不属于MLlib中常用的数据类型的是( )。
45、(填空题) 12. (填空题)在spark-shell下进入粘贴模式的命令为
46、 11. (单选题)saveAsTextFile()方法用于将( )以文本文件的格式存储到文件系统中。
47、(判断题) 17. (判断题)Spark SQL可以通过JDBC从关系数据库中读取数据的方式创建DataFrame,通过对DataFrame进行一系列的操作后,不可以将数据重新写入到关系数据库中。
48、(填空题) 10. (填空题)停止Spark集群的命令为
49、(判断题) 15. (判断题)Spark SQL与Hive不兼容
50、(判断题) 22. (判断题)Spark SQL为Spark框架在结构化数据分析方面提供重要技术支持。
51、 13. (单选题)以下关于Scala的类和单例对象之间的差别描述正确的是( )
52、(填空题) 11. (填空题)是一个用于处理结构化数据的框架,可被视为一个分布式的SQL查询引擎,提供了一个抽象的可编程数据模型DataFrame
53、 8. Spark于2009年诞生于()。
54、(填空题) 20. (填空题)使用 ___方法可以合并多个RDD
55、 13. (单选题)使用“val rdd: RDD[String]= sc.makeRDD(List("Hello Scala","Hello Spark"))”创建了一个RDD,以下选项中,不能使该RDD实现单词计数的是( )。
56、 14. (单选题)定义类Counter,并通过new关键字实例化出counter对象,代码如下,以下选项的操作正确的是( )。 class Counter(name:String){val a = 1var b ="counter" } val counter = new Counter("computer")
57、(判断题) 35. (判断题)Scala中声明变量时,可以不给出变量的类型,因为在初始化的时候,Scala的类型推断机制能够根据变量初始化的值自动推算出来。
58、(填空题) 13. (填空题)Spark SQL作为分布式SQL查询引擎,让用户可以通过 、DataFrames API和Datasets API3种方式实现对结构化数据的处理。
59、(判断题) 34. (判断题)Scala中,使用关键字var或val声明变量时,后面紧跟的变量名称可以和Scala中的保留字重名,而且变量名不可以以字母或下划线开头,且变量名是不区分大小写的。
60、(填空题) 21. (填空题)方法用于合并具有相同键的值,作用对象是键值对,并且只对键的值进行处理。
61、 9. (单选题)关于Spark SQL的DataFrame基础操作,以下选项中说法错误的是( )。
62、 6. (单选题)关于sortBy(方法的三个可输入参数,以下选项中描述错误的是 ( )
63、(判断题) 17. (判断题)集群上的任务是由执行器来调度的
64、(判断题) 18. (判断题)Spark SQL不仅能够查询MySQL数据库中的数据,还可以向表中插入新的数据
65、(判断题) 19. (判断题)DataFrame可以从很多数据源中创建,例如结构化文件、外部数据库、Hive表等数据源。
微信扫一扫 在线答题 在线出卷 随机出题小程序 闯关答题软件 出题答题小程序