1
您的位置: 线上活动  >  在线答题  >  答题题库

小曹 选择题

2025-06-29 16:57:30.226.0.66449

小曹 选择题 在线考试 答题题目
1、 13. (单选题)使用“val rdd: RDD[String]= sc.makeRDD(List("Hello Scala","Hello Spark"))”创建了一个RDD,以下选项中,不能使该RDD实现单词计数的是( )。
  • A、A.rdd.flatMap(_.split("")).map((,1)).reduceByKey(+_)
  • B、B. rdd.flatMapC.split("")).map(x=>(x,1)).reduceByKey((x,y)=>x+y)
  • C、C.rdd.flatMap(.split("")).map((,1)).aggregateByKey(0)(+_)
  • D、D. rdd.flatMap(_.split("").map(x=>(x,1)).groupByKey().mapValues(iter =>iter.size)


  • 2、(填空题) 11. (填空题)进入spark-shell操作界面的命令为


  • 3、 13. (单选题)以下关于Scala的类和单例对象之间的差别描述正确的是( )
  • A、A. 单例对象不可以定义方法,而类可以
  • B、B. 单例对象不可以带参数,而类可以
  • C、C. 单例对象不可以定义私有属性,而类可以
  • D、D. 单例对象不可以继承,而类可以


  • 4、(判断题) 36. (判断题)Scala有两种类型的变量,一种是使用关键字var声明的常量,值是不可变的;另一种是使用关键字val声明的变量,值是可变的。
  • A、正确
  • B、错误


  • 5、 4. (单选题)DataFrame可以将数据保存成持久化的表,使用的方法是( )。
  • A、A. save()
  • B、B. saveAsTextFile()
  • C、C. saveAsFile()
  • D、D. saveAsTable()


  • 6、(填空题) 23. (填空题)spark-submit常用配置项中 --name Name主要用于


  • 7、(填空题) 10. (填空题)在Spark MLlib库中,经常用于将对象分到高度相似的类中的一种无监督学习算法的是


  • 8、 3. Spark支持的运行模式不包括( )
  • A、A. Standalone模式
  • B、B. Mesos模式
  • C、C. YARN模式
  • D、D. Local模式


  • 9、 1. (单选题)机器学习可以分为( )。
  • A、A. 有监督学习、无监督学习和半监督学习
  • B、B. 有监督学习、无监督学习和强化学习
  • C、C. 有监督学习和强化学习
  • D、D. 无监督学习和强化学习


  • 10、(判断题) 16. (判断题)在Spark SQL中,若想要使用SQL风格操作,则需要提前将DataFrame注册成一张临时表
  • A、正确
  • B、错误


  • 11、(判断题) 25. (判断题)RDD是一个可变、不可分区、里面的元素不可并行计算的集合
  • A、正确
  • B、错误


  • 12、 3. (单选题)下列选项中( )算法不属于有监督学习算法。
  • A、A. K-Means
  • B、B. 线性回归
  • C、C. 支持向量机
  • D、D. 朴素贝叶斯


  • 13、 7. (单选题)下列方法中,哪个方法可以正确计算数组arr的长度( )
  • A、A. count()
  • B、B. take()
  • C、C. tail()
  • D、D. length()


  • 14、 9. (单选题)关于mllib.feature中创建特征向量的方法,下列说法错误的是( )。
  • A、A. TF-IDF算法可以将一整个文档转化成向量
  • B、B. TF指的是词频,IDF指的是逆文档频率
  • C、C. Word2Vec可以将每一个单词用K维稠密向量来表示
  • D、D. 使用HashingTF转化数据为特征向量时,要求转换的数据是不可迭代的。


  • 15、 4. (单选题)以下关于数组a的定义,最终数组a的数据与其他选项不一致的是
  • A、A. val a=Array[Int](0,0)
  • B、B. val a=Array(0,0)
  • C、C. val a=new Array[Int](2)
  • D、D. val a=Array[Int](1,1)


  • 16、(填空题) 14. (填空题)在DataFrame的操作中,_____用于对记录进行分组。


  • 17、(填空题) 25. (填空题)方法可对集合中的元素进行分组操作,返回的结果是一个映射。


  • 18、 20. (单选题)下列方法中,用于计算数组长度的是()。
  • A、A. count()
  • B、B. take()
  • C、C. tail()
  • D、D. length()


  • 19、 11. (单选题)saveAsTextFile()方法用于将( )以文本文件的格式存储到文件系统中。
  • A、A. 列表
  • B、B. 数组
  • C、C. Seq
  • D、D. RDD


  • 20、 5. (单选题)DataFrame的show()方法默认输出( )条数据。
  • A、A. 10
  • B、B. 15
  • C、C. 20
  • D、D. 30


  • 21、(判断题) 30. (判断题)在Scala中,使用关键字bar声明的变量,值是不可变的。
  • A、正确
  • B、错误


  • 22、 2. 以下关于Scala的特性说法错误的是( )
  • A、A. Scala是一种纯粹的面向过程的程序设计语言
  • B、B. Scala支持函数时编程,可定义匿名函数、高阶函数,允许函数嵌套,并支持柯里化
  • C、C. Scala以静态的方式进行抽象
  • D、D. Scala提供了许多独特的语言机制,具有良好的可扩展性


  • 23、 6. (单选题)关于sortBy(方法的三个可输入参数,以下选项中描述错误的是 ( )
  • A、A. 第一个可输入参数是一个函数f:(T)=>K,左边是被排序对象中的每一个元素,右边返回的值是元素中要进行排序的值
  • B、B. 第二个可输入参数决定RDD里的元素是升序排列还是降序排列,默认是降序排列
  • C、C. 第三个可输入参数是numPartitions,该参数决定排序后的RDD的分区个数
  • D、D. 第一个参数是必须输入的


  • 24、 1. 以下关于Scala解释器(REPL)交互的基本方式说法错误的是( )
  • A、A. R表示读取(Read)
  • B、B. E表示执行(Evaluate)
  • C、C. P表示解析(Parse)
  • D、D. L表示循环(Loop)


  • 25、(判断题) 22. (判断题)Spark SQL为Spark框架在结构化数据分析方面提供重要技术支持。
  • A、正确
  • B、错误


  • 26、(填空题) 10. (填空题)停止Spark集群的命令为


  • 27、(填空题) 18. (填空题)在RDD操作中,可使用___ 方法收集查询数据


  • 28、 16. (单选题)以下选项符合Scala编程规范的是( )。 ①"spark".equals("spark") ②"spark".contains(spark) ③val a:String="spark"④val a=List{1,2,3,4}
  • A、A. ①④
  • B、B. ①③
  • C、C. ②③
  • D、D. ②④


  • 29、(判断题) 14. (判断题)Spark诞生于洛桑联邦理工学院(EPEL)的编程方法实验室
  • A、正确
  • B、错误


  • 30、(判断题) 16. (判断题)Spark Master HA主从切换过程不会影响集群已有的作业运行
  • A、正确
  • B、错误


  • 31、(判断题) 18. (判断题)Hadoop的MapReduce进行计算时,每次产生的中间结果都是存储在内存中;而Spark在计算时产生的中间结果存储在本地磁盘中。
  • A、正确
  • B、错误


  • 32、(判断题) 26. (判断题)RDD采用了惰性调用,即在RDD的处理过程中,真正的计算发生在RDD的“行动”操作
  • A、正确
  • B、错误


  • 33、(判断题) 13. (判断题)标注点是一种带有标签的本地向量,通常用于无监督学习算法中
  • A、正确
  • B、错误


  • 34、(判断题) 21. (判断题)Spark SQL与Hive相互不兼容。
  • A、正确
  • B、错误


  • 35、 7. (单选题)下列选项中,( )不属于数据标准化或归一化方法。
  • A、A. Normalizer()
  • B、B. StandardScaler()
  • C、C. MinMaxScaler()
  • D、D. WithMean()


  • 36、 16. (单选题)提交Spark程序时,通常需要设置一些配置项,关于配置项,下列说法错误的是( )
  • A、A. name:设置运行环境
  • B、B. jars:添加依赖包
  • C、C. driver-memory:设置Driver程序使用的内存大小
  • D、D. executor-memory:设置Executor使用的内存大小


  • 37、 6. (单选题)下列选项中,哪个是Scala编译后文件的扩展名( )
  • A、A. .class
  • B、B. .bash
  • C、C. .pyc
  • D、D. .sc


  • 38、(填空题) 26. (填空题)在Scala中,获取元组中的值是通过 来获取的


  • 39、 10. (单选题)在Spark中,调用RDD的()方法,可以将RDD转换为DataFrame对象。
  • A、A. show()
  • B、B. map()
  • C、C. toDF()
  • D、D. printSchema()


  • 40、 5. (单选题)以下是行动操作的方法是()
  • A、A. collect()
  • B、B. map()
  • C、C. union()
  • D、D. distinct()


  • 41、(填空题) 9. (填空题)启动Spark集群的命令为


  • 42、 8. (单选题)关于键值对RDD的连接操作,以下选项中描述正确的是
  • A、A. join()方法:对两个RDD进行全外连接
  • B、B. rightOuterJoin()方法:对两个RDD进行左外连接
  • C、C. leftOuterJoin()方法:对两个RDD进行右外连接
  • D、D. fullOuterJoin()方法:对两个RDD进行全外连接


  • 43、(判断题) 18. (判断题)Spark SQL不仅能够查询MySQL数据库中的数据,还可以向表中插入新的数据
  • A、正确
  • B、错误


  • 44、 5. 关于SparkRDD,下列说法不正确的是( )
  • A、A. SparkRDD是一个抽象的弹性分布式数据集
  • B、B. RDD的行动操作指的是将原始数据集加载为RDD或将一个RDD转换为另一个RDD的操作
  • C、C. 窄依赖指的是子RDD的一个分区只依赖于某个父RDD中的一个分区
  • D、D. 宽依赖指的是子RDD的每一个分区都依赖于某个父RDD中一个以上的分区


  • 45、 3. (单选题)以下关于Scala的变量定义、赋值的代码,运行后一定会报错的是( )
  • A、A. val a=5
  • B、B. val a:String="Math"
  • C、C. var b:Int=3;b=6
  • D、D. val b="Hello world!";b="Word"


  • 46、 8. (单选题)以下选项中不能对DataFrame列名进行重命名的方法是( )。
  • A、A. selectExpr()
  • B、B. rename()
  • C、C. withColumnRenamed()
  • D、D. alias()


  • 47、(填空题) 23. (填空题)方法和map()方法类似,但是该方法没有返回值,只用于对参数的结果进行输出。


  • 48、(判断题) 34. (判断题)Scala中,使用关键字var或val声明变量时,后面紧跟的变量名称可以和Scala中的保留字重名,而且变量名不可以以字母或下划线开头,且变量名是不区分大小写的。
  • A、正确
  • B、错误


  • 49、(判断题) 15. (判断题)Spark SQL与Hive不兼容
  • A、正确
  • B、错误


  • 50、 7. (单选题)以下选项中,关于Spark SQL优点描述正确的是( )。 ①将SQL查询与Spark程序无缝混合,可以使用Java、Scala、Python、R等语言的API操作 ②兼容Hive ③统一的数据访问 ④标准的数据连接
  • A、A. ①
  • B、B. ①②
  • C、C. ①②③
  • D、D. ①②③④


  • 51、 10. (单选题)对于RDD1((a,1),(b, 2),(c,3))和RDD2((b,4),(b,5),(a,6)),使用“RDD1.join (RDD2)”,得到的结果是( )。
  • A、A. (a,(1,6))、(b,(2,4))、(b,(2,5))
  • B、B. (a,(6,1))、(b,(4,2))、(b,(5,2))
  • C、C. (a,(1,6))、(b,(2,4))、(b,(2,5))、(c,(3,null))
  • D、D. (a,(1,6))、(b,(2,4))、(b,(2,5))、(c,3)


  • 52、 5. (单选题)下列选项中不属于MLlib中常用的数据类型的是( )。
  • A、A. Vector
  • B、B. LabeledPoint
  • C、C. RDD
  • D、D. Rating


  • 53、(填空题) 22. (填空题)方法用于对具有相同键的值进行分组,可以对同一组的数据进行计数、求和等操作。


  • 54、(填空题) 28. (填空题)在Scala中,使用___关键字来定义的类被称为样例类。


  • 55、 9. (单选题)关于Spark SQL的DataFrame基础操作,以下选项中说法错误的是( )。
  • A、A. where()/filter()方法:对所给定的条件进行定位/筛选
  • B、B. orderBy()方法:根据DataFrame的某个字段进行排序,默认是降序排序
  • C、C. groupBy()方法:根据某个字段进行分组,之后可以使用count()、max()等方法对分组信息进行计算
  • D、D. join()方法:对两个DataFrame进行合并,可以设置合并的关键字和连接方式


  • 56、 15. (单选题)以下程序的输出结果是( )。 val alphabet = List("A","B","C") val nums = List(1,2) print(alphabet.zip(nums))
  • A、A. List((A,1),(B, 2),(C,null))
  • B、B. List((A,1),(B,2),(C))
  • C、C. ((A,1),(B,2))
  • D、D. List((A,1),(B,2))


  • 57、(判断题) 15. (判断题)部署Spark高可用集群不需要用到Zookeeper服务
  • A、正确
  • B、错误


  • 58、 4. (单选题)以下是转换操作的方法是()
  • A、A. reduce()
  • B、B. saveAsTextFile()
  • C、C. filter()
  • D、D. foreach()


  • 59、 7. Spark与Hadoop在基于内存的运算中,说法正确的是()。
  • A、A. Spark的运算效率是Hadoop的10倍
  • B、B. Spark的运算效率是Hadoop的100倍
  • C、C. Hadoop的运算效率是Spark的100倍
  • D、D. Hadoop的运算效率是Spark的10倍


  • 60、 6. 下列选项中,可以支持Scala和Python编程的交互式解释器是()。
  • A、A. HBase-Shell
  • B、B. Spark-Shell
  • C、C. Hadoop-Shell
  • D、D. Hive-Shell


  • 61、 1. (单选题)以下不属于Spark架构中的组件的是( )
  • A、A. Driver
  • B、B. SparkContext
  • C、C. ClusterManager
  • D、D. ResourceManager


  • 62、 12. (单选题)Spark中的SparkContext是( )。
  • A、A. 主节点
  • B、B. 从节点
  • C、C. 执行器
  • D、D. 上下文


  • 63、(填空题) 12. (填空题)在spark-shell下进入粘贴模式的命令为


  • 64、(填空题) 19. (填空题)方法用于获取RDD的前N个元素,返回数据为数组


  • 65、 14. (单选题)以下选项中使用spark-submit指定在YARN框架上运行程序的是( )。
  • A、A. bin/spark-submit --master yarn-client
  • B、B. bin/spark-submit --class local
  • C、C. bin/spark-submit --class yarn-client
  • D、D. bin/spark-submit --name yarn


  • 微信扫一扫 在线答题 在线出卷 随机出题小程序 闯关答题软件 出题答题小程序