1
您的位置: 线上活动  >  在线答题  >  答题题库

合集

2022-06-12 13:38:30.226.0.1331

合集 在线考试 答题题目
1、 Centos中修改文件或目录的访问权限()命令
  • A、chown
  • B、passwd
  • C、chmod
  • D、clear


  • 2、(多选题) 1.Linux版本分为以下哪几类()
  • A、A.发行版
  • B、B.测试版
  • C、C.内核版
  • D、D.开发版


  • 3、 在文件属性中,文件的权限用第()列字符表示。
  • A、1-5
  • B、2-10
  • C、3-9
  • D、1-8


  • 4、(多选题) 2.Linux的特点是以下()方面
  • A、A.开放源代码的程序软件,可自由修改。
  • B、B.与Unix系统不兼容,具备几乎所有Unix的优秀特性。
  • C、C.可自由传播,免费使用,无任何商业化版权制约。
  • D、D.适合Intel等x86CPU系列架构的计算机。


  • 5、 Hadoop安装在一台计算机上,需修改相应的配置文件,用一台计算机模拟多台主机的集群是()模式。
  • A、全分布模式
  • B、伪分布模式
  • C、单机模式
  • D、全分布HA模式


  • 6、(多选题) 3.Hadoop的运行模式分为以下()种
  • A、A.单机模式
  • B、B.伪分布模式
  • C、C.全分布模式
  • D、D.主备模式


  • 7、 配置Hadoop环境变量修改()文件
  • A、vi/etc/profile
  • B、vi/etc/profiles
  • C、vi/etc/hosts
  • D、vi~/input/data


  • 8、(多选题) 4.Hadoop优点是以下()种。
  • A、A.扩容能力强
  • B、B.成本低
  • C、C.高效率
  • D、D.高可靠性


  • 9、 配置SSH服务需配置()文件
  • A、vi/etc/ssh/sshd
  • B、vi/etc/ssh/sshd_config
  • C、vi/etc/sysconfig/network-scripts/ifcfg-eth0
  • D、vi~/.bash_profile


  • 10、(多选题) 5.验证SSH无密码登录需要()步骤
  • A、A.修改Master节点authorized_keys文件
  • B、B.修改Slave节点authorized_keys文件
  • C、C.验证Master到每个Slave节点无密码登录
  • D、D.验证两个Slave节点到Master节点无密码登录


  • 11、 hadoop2.0与hadoop1.0区别()
  • A、增加MapReduce2
  • B、增加YARN
  • C、增加HDFS2
  • D、增加容错机制


  • 12、(多选题) 6.查询获取Hadoop全部的配置信息官方网址是()
  • A、A.http://hadoop.apache.org/docs/current/hadoop- project-dist/hadoop-common/core-default.xml
  • B、B.http://hadoop.apache.org/docs/current/hadoop- project-dist/hadoop-hdfs/hdfs-default.xml
  • C、C.http://hadoop.apache.org/docs/current/hadoop- mapreduce-client/hadoop-mapreduce-client- core/mapred-default.xml
  • D、D.http://hadoop.apache.org/docs/current/hadoop- yarn/hadoop-yarn-common/yarn-default.xml


  • 13、 在hadoop配置中core-site.xml的配置是()参数。
  • A、集群全局参数
  • B、HDFS参数
  • C、Mapreduce参数
  • D、集群资源管理系统参数


  • 14、(多选题) 7.以下哪些是yarn-site.xml配置文件主要参数()
  • A、A.yarn.resourcemanager.address
  • B、B.yarn.resourcemanager.scheduler.address
  • C、C.yarn.resourcemanager.admin.address
  • D、D.yarn.nodemanager.oux-services


  • 15、 在hadoop配置中yarn-site.xml作用是()
  • A、用于定义系统级别的参数
  • B、用于名称节点和数据节点的存放位置
  • C、用于配置JobHistoryServer和应用程序参数
  • D、配置ResourceManager,NodeManager的通信端口


  • 16、(多选题) 8.Hadoop平台的主要配置文件是()
  • A、A.core-site.xml
  • B、B.hdfs-site.xml
  • C、C.mapred-site.xml
  • D、D.slaves.xml


  • 17、 如没有配置hadoop.tmp.dir参数,此时系统默认的临时目 录为()
  • A、/tmp/hadoop-hadoop
  • B、/usr/hadoop-hadoop
  • C、/usr/local/hadoop-hadoop
  • D、/usr/local/src/hadoop-hadoop


  • 18、(多选题) 9.core-site.xml文件核心参数是()
  • A、A.mapreduce.framework.name
  • B、B.mapreduce.jobhistory.address
  • C、C.yarn.resourcemanager.address
  • D、D.mapreduce.jobhistory.webapp.address


  • 19、 以下哪个文件是能够修改HDFS的副本保存数量参数()
  • A、修改mapred-site.xml配置文件
  • B、修改core-site.xml配置文件
  • C、修改yarn-site.xml配置文件
  • D、修改hdfs-site.xml配置文件


  • 20、(多选题) 10.MapReduce是Hadoop中集群数据处理的核心,分为 ()
  • A、A.分为映射,映射为Map阶段
  • B、B.分为减速,减速为Reduce阶段
  • C、C.分为映射,映射为Reduce阶段
  • D、D.分为减速,减速为Map阶段


  • 21、 MapReduce中Shuffle的主要作用是()
  • A、将数据进行拆分
  • B、对映射后的数据进行排序,然后输入到Reducer
  • C、经过映射后的输出数据会被排序,然后每个映射器会进 行分区
  • D、通过实现自定义的Partitioner来指定哪些数据进入哪个 Reducer


  • 22、(多选题) 11.Hive优点是()
  • A、A.提供了类SQL的查询语言HQL。
  • B、B.可扩展强
  • C、C.提供统一的元数据管理
  • D、D.容错行强


  • 23、 HDFS启动成功的标识是()
  • A、jps显示NameNode
  • B、jps显示DataNode
  • C、jps显示SecondaryNameNode
  • D、jps显示NameNode\DataNode\SecondaryNameNode


  • 24、(多选题) 12.Hbase组件部分包括()
  • A、A.hbase-client
  • B、B.Zookeeper
  • C、C.HMaster
  • D、D.HRegionServer


  • 25、 Hive适合()环境
  • A、Hive适合用于联机(online)事务处理
  • B、提供实时查询功能
  • C、适合应用在大量不可变数据的批处理作业
  • D、Hive适合关系型数据环境


  • 26、(多选题) 13.Flume将采集到的数据输出到()
  • A、A.HDFS
  • B、B.Hbase
  • C、C.Hive
  • D、D.Kafka


  • 27、 Hive默认的元存储是保存在内嵌的()数据库中
  • A、MySQL
  • B、Derby
  • C、Oracle
  • D、SqlServer


  • 28、(多选题) 14.大数据平台安装部署步骤包括()
  • A、A.服务器上架
  • B、B.服务器操作系统安装
  • C、C.网络环境分配
  • D、D.Hadoop平台安装


  • 29、 典型的NoSQL数据库是()
  • A、Hive
  • B、MySQL
  • C、Hbase
  • D、Oracle


  • 30、(多选题) 15.大数据培训形式分()
  • A、A.集中培训
  • B、B.现场培训
  • C、C.针对性培训
  • D、D.专业性培训


  • 31、 HMaster的主要作用是()
  • A、用于启动任务管理多个HRegionServer
  • B、负责响应用户I/O请求,向HDFS文件系统读写数据
  • C、负责协调集群中的分布式组件
  • D、最终保存HBase数据行的文件


  • 32、(多选题) 16.大数据运维中的日志分类为()
  • A、A.内核及系统日志:由系统服务syslog统一进行管理,日志格式基本相似。
  • B、B.用户日志:记录系统用户登录及退出系统的相关信息。
  • C、C.程序日志:由各种应用程序抽立管理的日志文件,记录格式不统一
  • D、D.错误日志:由各种错误信息组成的日志信息


  • 33、 ZooKeeper的特点不包括()
  • A、顺序一致性
  • B、原子性
  • C、可靠性
  • D、复合系统映像


  • 34、(多选题) 17.Hadoop集群验证步骤包括()
  • A、A.初始化集群,使用Hadoop命令启动集群。
  • B、B.使用Hadoop命令,创建HDFS文件夹。
  • C、C.使用HDFS命令查看文件系统“/”路径下是否存在文件。
  • D、D.用Hadoop自带的WordCount程序去测试MapReduce


  • 35、(多选题) 17.Hadoop集群验证步骤包括()
  • A、A.初始化集群,使用Hadoop命令启动集群。
  • B、B.使用Hadoop命令,创建HDFS文件夹。
  • C、C.使用HDFS命令查看文件系统“/”路径下是否存在文件。
  • D、D.用Hadoop自带的WordCount程序去测试MapReduce


  • 36、 Sqoop的作用是()
  • A、用于传统关系型数据库和Hadoop之间传输数据
  • B、提供对日志数据进行简单处理的能力
  • C、是Hadoop体系中数据存储管理的基础
  • D、是一个建立在HDFS之上,面向列的针对结构化和半结 构化数据的动态数据库


  • 37、(多选题) 18.大数据业务处理系统包含()
  • A、A.数据源层
  • B、B.数据处理层
  • C、C.数据应用层
  • D、D.数据访问层


  • 38、 测试Sqoop是否能够正常连接MySQL数据库命令是()
  • A、sqoop list-database --connect jdbc:mysql://127.0.0.1:3306/--usernameroot–P
  • B、sqoop list-databases --connection jdbc:mysql://127.0.0.1:3306/--usernameroot–P
  • C、sqoop list-databases --connect jdbc:mysql://127.0.0.1:3306/--usernameroot–L
  • D、sqoop list-databases --connect jdbc:mysql://127.0.0.1:3306/--usernameroot–P


  • 39、(多选题) 19.ZooKeeper角色选举角色包括()
  • A、A.领导者(leader)
  • B、B.观察者(observer)
  • C、C.客户端(client)
  • D、D.跟随者(follower)


  • 40、 大数据解决方案确认需求分析准备工作不包括()
  • A、充分了解客户的要求,客户的业务,客户的关注重点
  • B、和客户负责人沟通,确定客户需求小组成员
  • C、编制确定客户实施计划
  • D、根据事先了解的初步用户需求,列出这些难点


  • 41、(多选题) 20.主流虚拟化软件包括()
  • A、A.VMware系列虚拟化软件
  • B、B.KVM二次开发虚拟化软件
  • C、C.微软Hyper-V虚拟化软件
  • D、D.Ctrix虚拟化软件


  • 42、 大数据平台项目实施计划不包括()
  • A、基础平台部署
  • B、用户环境准备
  • C、完成大数据平台的安装调试
  • D、完成大数据平台操作开发


  • 43、(多选题) 21.以下哪些是Linux的特点()
  • A、A.开放源代码的程序软件,可自由修改。
  • B、B.与Unix系统兼容,具备几乎所有Unix的优秀特性。
  • C、C.可自由传播,收费使用,无任何商业化版权制约。
  • D、D.适合Intel等x86CPU系列架构的计算机。


  • 44、 大数据平台操作演示不包括()
  • A、在大数据平台操作演示前需要做好准备工作
  • B、分析本次演示的目的和听众群体
  • C、实现呈现技巧提升
  • D、准备好演示环境


  • 45、(多选题) 22.以下哪些是Linux操作系统组成部分()
  • A、A.Linux内核
  • B、B.GNU软件及系统软件
  • C、C.必要的应用程序
  • D、D.CPU


  • 46、 Hbase的主要作用是()
  • A、是一个分布式的、面向列的开源数据库
  • B、是一种编程模型,用于大规模数据集(大于1TB)的并行运算
  • C、是hadoop集群当中的资源管理系统模块
  • D、将要储存的文件分散在不同的硬盘上,并记录他们的位置


  • 47、(多选题) 23.以下哪些组件属于Hadoop生态圈()
  • A、A.MySQL
  • B、B.Hive
  • C、C.HDFS
  • D、D.Sqoop


  • 48、 在配置好Hadoop集群之后,通过浏览器登录查看Hadoop状态,以下是查看的URL()
  • A、http://master:8088
  • B、http://192.168.1.6:50070
  • C、http://master:16010
  • D、http://master:9999


  • 49、(多选题) 24.Hadoop的优点有哪些()
  • A、A.扩容能力强
  • B、B.成本低
  • C、C.高效率
  • D、D.高可靠性


  • 50、 通过浏览器界面监控Hive的状态,以下是查看的端口()
  • A、http://master:8088
  • B、http://192.168.1.6:50070
  • C、http://master:16010
  • D、http://master:9999


  • 51、(多选题) 25.以下选项中哪些是SSH涉及到的两个验证方式()
  • A、A.主机验证
  • B、B.用户身份验证
  • C、C.文件系统验证
  • D、D.操作系统验证


  • 52、 日志消息的级别中哪个是比较严重的情况()
  • A、ALEKKT
  • B、CRIT
  • C、ERR
  • D、DEBUG


  • 53、(多选题) 26.以下选项中哪些是常用的ss命令()
  • A、A.scp
  • B、B.sftp
  • C、C.ssh-copy-id
  • D、D.ifconfig


  • 54、 大数据处理中数据处理层不包括()
  • A、数据清洗
  • B、数据规约
  • C、数据提取
  • D、数据分析


  • 55、(多选题) 27.Hadoop核心主要由()部分组成
  • A、A、HDFS
  • B、B、DFS
  • C、C、MapReduce
  • D、D、RDD


  • 56、 大数据处理中数据应用层不包括()
  • A、数据挖掘
  • B、数据建模
  • C、数据可视化
  • D、数据分析


  • 57、(多选题) 28.Hive作为大数据分析的重要组件,常用在对()数据进行分析
  • A、A、HDFS
  • B、B、Mysql
  • C、C、Hbase
  • D、D、Hadoop


  • 58、 日志消息的级别中那个是不会影响系统但值得注意()
  • A、ALEKKT
  • B、CRIT
  • C、NOTICE
  • D、DEBUG


  • 59、(多选题) 29.master启动Hadoop相关进程包含()
  • A、A、jps
  • B、B、NameNode
  • C、C、SecondaryNameNode
  • D、D、ResourceManager


  • 60、 在进行Hive组件配置时,JAR包冲突导致异常,出现以下错误信息()
  • A、FailedtosetsetXIncludeAware(true)forparser
  • B、mkdir:`input’:Nosuchfileordirectory
  • C、E45:‘readonly’optionisset(add!tooverride)
  • D、ERRORtool.ImportTool:ImportedFailed:Character 8216isanout-of-rangedelimiter


  • 61、(多选题) 30.以下哪条命令能退出mysql状态()
  • A、A、quit
  • B、B、exit
  • C、C、Ctrl+c
  • D、D、Ctrl+z


  • 62、 Hadoop官方真正支持的操作系统是()
  • A、UNIX
  • B、Windows
  • C、DOS
  • D、Linux


  • 63、 显示当前所在目录的命令是()
  • A、pwd
  • B、ls
  • C、cd
  • D、mkdir


  • 64、 以下选项哪个可以修改文件或目录的访问权限()
  • A、passwd
  • B、su
  • C、chmod
  • D、useradd


  • 65、 以下选项哪个是HDFS的名称节点()
  • A、DataNode
  • B、SecondaryNode
  • C、Node
  • D、NameNode


  • 66、 以下选项哪个是MapReduce正确的运行模型()
  • A、Reduce-Map-Shuffle
  • B、Shuffle-Map-Reduce
  • C、Map-Shuffle-Reduce
  • D、Map-Reduce-Shuffle


  • 67、 以下选项哪个是YARN中动态创建的资源容器()
  • A、ResourceManager
  • B、NodeManager
  • C、ApplicationMaster
  • D、Container


  • 68、 以下选项哪个命令可以生成公钥()
  • A、ssh-keygen
  • B、ifupteam0
  • C、nmclidev
  • D、nmcliconsh


  • 69、 以下选项哪个命令是用hadoop用户登录,通过scp命令实现密钥拷贝到slave1节点上()
  • A、scp~/.ssh/id_rsa.pubhadoop@slave2:~/
  • B、scp~/.ssh/id_rsa.pubroot@slave1:~/
  • C、scp~/.ssh/id_rsa.pubhadoop@slave1:~/
  • D、scp~/.ssh/id_rsa.pubslave1@root:~/


  • 70、 以下选项哪个命令可以查看主机信息()
  • A、nmclidev
  • B、nmcliconsh
  • C、ifupteam0
  • D、teamdctlteam0st


  • 71、 在Hadoop配置文件中,以下属于core-site.xml文件主 要内容的是()
  • A、A、用于定义系统级别的参数,如HDFSURL、的临时目录等。
  • B、B、名称节点和数据节点的存放位置、文件副本的个数、文件读取权限等。
  • C、C、配置ResourceManager,NodeManager的通信端 口,web监控端口等。
  • D、D、包括JobHistoryServer和应用程序参数两部分,如reduce任务的默认个数、任务所能够使用内存的默认上下限等。


  • 72、 以下()文件中主要用来配置ResourceManager, NodeManager的通信端口,web监控端口等。
  • A、A、core-site.xml
  • B、B、mapred-site.xml
  • C、C、hdfs-site.xml
  • D、D、yarn-site.xml


  • 73、 42.在HDFS分布式文件系统中,一般采用冗余存储,冗余因子通常设置为()
  • A、A、1
  • B、B、2
  • C、C、3
  • D、D、4


  • 74、 43.用于检查节点自身的健康状态的进程是()
  • A、A、ResourceManager
  • B、B、NodeManager
  • C、C、NameNode
  • D、D、DataNode


  • 75、 44.ResourceManager对web服务提供地址,用户可通过 ip地址:()在浏览器中查看集群各类信息
  • A、A、8088
  • B、B、8033
  • C、C、8080
  • D、D、8032


  • 76、(多选题) 45.启动HDFS至少需要启动()进程
  • A、A、NameNode
  • B、B、ResourceManager
  • C、C、SecondaryNameNode
  • D、D、DataNode


  • 77、 46.在HDFS文件操作中,上传文件的命令是()
  • A、A、put
  • B、B、input
  • C、C、get
  • D、D、up


  • 78、 47.MySQL数据库驱动文件放置于hive哪个目录下()
  • A、A、jar
  • B、B、lib
  • C、C、bin
  • D、D、sbin


  • 79、 48.下列哪些不是HBase的特点()
  • A、A.高可靠性
  • B、B.高性能
  • C、C.面向列
  • D、D.紧密性


  • 80、 49.HBase与下列哪个选项属于同一种类型的数据库()
  • A、A.MongoDB
  • B、B.MariaDB
  • C、C.MySQL
  • D、D.Oracle


  • 81、 50.在HBase的组件中,哪一个负责日志记录()
  • A、A.HRegion
  • B、B.HFile
  • C、C.MemStore
  • D、D.WAL


  • 82、 51.下列哪一种命令格式是不正确的()
  • A、A.get 表 行健 列族
  • B、B.scan 表 时间戳 起始行健 结束行健
  • C、C.alter 表 列族
  • D、D.put 表 行键 列族:列 值


  • 83、 52.下列哪些不是ZooKeeper的特点()
  • A、A.顺序一致性
  • B、B.原子性
  • C、C.多样系统映像
  • D、D.可靠性


  • 84、 53.在ZooKeeper中有三种角色,下列选项中不属于ZooKeeper中的角色()
  • A、A.Observer
  • B、B.Leader
  • C、C.Obeyer
  • D、D.Follower


  • 85、 54.下列命令中(在zookeeper安装文件夹的bin目录下执行),哪项是停止ZooKeeper的正确命令()
  • A、A.start-all.sh
  • B、B.start-stop.sh
  • C、C.zkServer.shstop
  • D、D.zkServer.shstart


  • 86、 55.ZooKeeper是一个典型的分布式数据一致性解决方案,下列哪项是不属于它实现的功能()
  • A、A.分布式锁
  • B、B.数据发布/订阅
  • C、C.响应用户I/O请求
  • D、D.负载均衡


  • 87、 56.Sqoop是Hadoop和关系数据库服务器之间传送数据的工具,下列哪种数据库是不支持使用Sqoop直接进行数据传送()
  • A、A.Postgres
  • B、B.Oracle
  • C、C.MySQL
  • D、D.Redis


  • 88、 57.下列描述中,哪项不属于Sqoop的缺点()
  • A、A.无法控制任务的并发度
  • B、B.格式紧耦合
  • C、C.安全机制不够完善
  • D、D.connector必须符合JDBC模型


  • 89、 58.Sqoop将导入或导出命令翻译成什么程序来实现导入导出()
  • A、A.Spark
  • B、B.Storm
  • C、C.MapReduce
  • D、D.Tez


  • 90、 59.在导入开始之前,Sqoop检索出表中所有的列以及列的SQL数据类型,这些SQL类型被映射什么类型()
  • A、A.C
  • B、B.C++
  • C、C.Java
  • D、D.Python


  • 91、 60.关于Flume的三大组件以下说法正确的是()。
  • A、A.channel可以和任意数量的source和sink链接。
  • B、B.channel只能链接单一的source和sink。
  • C、C.sink在三大组件之间起着桥梁的作用。
  • D、D.sink从channel消费数据并将其传递给目标地,目标地只能是hdfs。


  • 92、 61.使用root用户解压Flume安装包到“/usr/local/src”路径,以下哪条是正确的命令()。
  • A、A.[root@master~]#tarzxvf/opt/software/apache- flume-1.6.0-bin.tar.gz/usr/local/src
  • B、B.[hadoop@master~]#tarzxvf /opt/software/apache-flume-1.6.0-bin.tar.gz-C /usr/local/src
  • C、C.[root@master~]#tarzxvf/opt/software/apache- flume-1.6.0-bin.tar.gz-C/usr/local/src
  • D、D.[root@master~]#unzip/opt/software/apache- flume-1.6.0-bin.tar.gz-C/usr/local/src


  • 93、 62.在本次项目实施中,需求调研前的准备不包括()。
  • A、A.充分了解客户的要求,客户的业务,客户的关注重点
  • B、B.接到调研任务,将计划写好,立即就开始和用户沟通。
  • C、C.编制确定客户需求调研计划和调研提纲。
  • D、D.和客户负责人沟通,确定客户需求小组成员。


  • 94、 63.大数据平台实施方案流程中,建议整个项目过程顺序是 ()。 A.与客户确认实施方案 B.确认客户需求 C.系统测试 D.编写实施方案 E.用户培训
  • A、A.BDAFCEG
  • B、B.ABDFCEG
  • C、C.DEABCFG
  • D、D.BDAFECG


  • 95、 64.在确认客户需求,进行确认需求调研的时候,以下说法正 确的是()。
  • A、A.按计划有步骤的确定客户需求调研。
  • B、B.先了解细节需求,再了解宏观需求。
  • C、C.将客户的想法记录下来,就能解决客户的实际问题。
  • D、D.确定客户需求调研的过程中,不可避免的会出现客户提出一些现有条件下根本无法实现或者即使实现也非常困难的要求,我们要无条件去满足客户的需求。


  • 96、 65.在项目实施人员中,适时与客户沟通,确立项目目标,建 立组织机构,编制计划,负责项目全面管理的角色是 ()。
  • A、A.实施工程师
  • B、B.项目经理
  • C、C.产品经理
  • D、D.财务人员


  • 97、 66.大数据分析平台的实施流程顺序是()。 A.与甲方确定总体计划 B.组建项目团队 C.部署环境准备 D.应用集成及数据集成 E.系统安装和调试
  • A、A.BACED
  • B、B.CABED
  • C、C.ADCBE
  • D、D.DABCE


  • 98、 67.关于培训的总体目标、定制培训课程和内容和培训形式,以下说法正确的是()。
  • A、A.系统使用人员的培训目的是使其可以独立完成大数据平台的日常维护,解决一般问题。
  • B、B.培训过程中将针对不同的用户和不同的培训内容采用相同的培训方案,以达到最佳的培训效果。
  • C、C.实践培训主要针对于技术开发人员及系统维护和客户。
  • D、D.培训形式包括集中培训、现场培训、针对性培训。


  • 99、 68.大数据平台Hadoop的组件中,提供分布式协作服务的组件是()
  • A、A.HBase
  • B、B.ZooKeeper
  • C、C.Sqoop
  • D、D.Hive


  • 100、 69.以下哪个不是HDFS的进程()
  • A、A.SecondaryNode
  • B、B.NameNode
  • C、C.ResourceManager
  • D、D.DataNode


  • 101、 70.查看HDFS的报告命令是()
  • A、A.bin/hdfsdfsadmin-report
  • B、B.bin/hdfs-report
  • C、C.bin/hdfsdeadmin-report
  • D、D.bin/hdfsdfs-report


  • 102、 在 hive 中已知表 t est(name)的记录如下, tom tom_green tomly lily 代码 select * from test where name rlike 'tom.*'的结果有( )条记录
  • A、1
  • B、2
  • C、3
  • 0


  • 103、 1、从 Vi 编辑模式下保存配置返回到 Centos7 系统使用()
  • A、按“shift”+“:”组合
  • B、按“Esc”键,然后按“shift”+“:”组合
  • C、按“Esc”键,然后按“shift”+“:”,输入 wq 回车
  • D、直接输入“exit”


  • 104、(多选题) 下面描述正确的是( )
  • A、HDFS 将数量众多的廉价机器使得硬件错误成为常态
  • B、HDFS 支持多种软硬件平台中的可移植性
  • C、HDFS 上的一个文件大小是G 或T 数量级的,支持的文件数量达到千万数量级
  • D、HDFS 上的文件可以任意修改


  • 105、 在 Centos7 系统中,查看和修改 IP 信息需要用到( )文件
  • A、/etc/sysconfig/network/ifcfg-ens0
  • B、/etc/sysconfig/network-script/ifcfg-ens0
  • C、/etc/sysconfig /ifcfg-ens0
  • D、/etc/resolv.conf


  • 106、(多选题) YARN 服务组件包括( )
  • A、NameManager
  • B、ApplicationMaster
  • C、Container
  • D、ResourceManager


  • 107、 tar 命令用于对文件进行打包压缩或解压,-t 参数含义( )
  • A、创建压缩文件
  • B、解开压缩文件
  • C、查看压缩包内有哪些文件
  • D、向压缩归档末尾追加文件


  • 108、(多选题) 对 NodeManager 服务描述正确的是( )
  • A、整个集群有多个NodeManager,NodeManager 负责单节点资源管理和使用
  • B、NodeManager 管理当前节点的 Container 资源抽象
  • C、通过心跳机制定时地向ResourceManager 汇报本节点上的资源使用情况
  • D、NodeManager 服务器跟ResourceManager 毫无关系


  • 109、 Hadoop 的安装部署的模式属于本地模式( )
  • A、默认的模式,无需运行任何守护进程(daemon),所有程序都在单个 JVM 上执行。
  • B、在一台主机模拟多主机。即,Hadoop 的守护程序在本地计算机上运行,模拟集群环境, 并且是相互独立的Java 进程。
  • C、完全分布模式的守护进程运行在由多台主机搭建的集群上,是真正的生产环境。
  • D、高容错全分布模式的守护进程运行在多台主机搭建的集群上


  • 110、(多选题) 下列属于 hadoop 的发行版本的是( )
  • A、Apache
  • B、Cloudera
  • C、Redhat
  • D、Centos


  • 111、 Hadoop 的安装部署的模式属于伪分布模式( )
  • A、默认的模式,无需运行任何守护进程(daemon),所有程序都在单个 JVM 上执行。
  • B、在一台主机模拟多主机。即,Hadoop 的守护程序在本地计算机上运行,模拟集群环境, 并且是相互独立的Java 进程。
  • C、完全分布模式的守护进程运行在由多台主机搭建的集群上,是真正的生产环境。
  • D、高容错全分布模式的守护进程运行在多台主机搭建的集群上


  • 112、(多选题) 下面的命令描述正确的是( )
  • A、创建一个名称为test 组的命令:groupadd test
  • B、改用户 Tom 设置密码命令:passwd Tom
  • C、删除用户名为Tom 的命令:userdel Tom
  • D、切换当前用户帐户为 admin 的命令:su admin


  • 113、 HDFS 默认 Block Size 的大小是( )。
  • A、32MB
  • B、64MB
  • C、128MB
  • D、256M


  • 114、(多选题) MapReduce 不合适对哪些场景的使用( )
  • A、MapReduce 不适合做低延迟数据访问场景的使用
  • B、MapReduce 不适合存储大量小文件
  • C、MapReduce 不支持多用户写入及任意修改文件
  • D、MapReduce 不支持大文件存储


  • 115、 下列关于 MapReduce 说法不正确的是( )
  • A、MapReduce 是一种计算框架
  • B、MapReduce 来源于 google 的学术论文
  • C、MapReduce 程序只能用 java 语言编写
  • D、MapReduce 隐藏了并行计算的细节,方便使用


  • 116、(多选题) Hive 有哪些方式保存元数据( )
  • A、single user mode
  • B、multiuser mode
  • C、remote user mode
  • D、telnet user mode


  • 117、 HDFS 是基于流数据模式访问和处理超大文件的需求而开发的,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是 ( )。
  • A、一次写入,少次读
  • B、多次写入,少次读
  • C、多次写入,多次读
  • D、一次写入,多次读


  • 118、(多选题) HDFS 保障可靠性的措施( )
  • A、数据冗余机制
  • B、数据节点心跳包
  • C、数据节点块报告
  • D、数据完整性检测


  • 119、 关于 SecondaryNameNode 下面哪项是正确的( )。
  • A、它是 NameNode 的热备
  • B、它对内存没有要求
  • C、它的目的是帮助 NameNode 合并编辑日志,减少 NameNode 启动时间
  • D、SecondaryNameNode 应与 NameNode 部署到一个节点


  • 120、(多选题) 根据 Grafana 仪表盘展现内容,下列描述正确的是( )
  • A、Hdfs 健康状体资源使用率过高
  • B、集群磁盘读写失败节点有坏节点
  • C、存储空间占用比例最高的是 hb_xdata-datanode 节点
  • D、集群中 lf-cdn 内存使用最少


  • 121、 大数据的特点不包括下面哪一项( )。
  • A、巨大的数据量
  • B、多结构化数据
  • C、增长速度快
  • D、价值密度高


  • 122、(多选题) 以下是 HTools 工具特点( )
  • A、友善的向导式操作流程
  • B、无需安装 HTools 客户端
  • C、支持同时管理多个 Hadoop 集群和节点
  • D、支持系统配置文件的推送和同步


  • 123、 HBase 依赖_( )存储底层数据
  • A、HDFS
  • B、Hadoop
  • C、Memory
  • D、MapReduce


  • 124、 HBase 依赖( )提供消息通信机制
  • A、Zookeeper
  • B、Chubby
  • C、RPC
  • D、Socket


  • 125、 flume 有哪个组件用于采集数据( )
  • A、source
  • B、channel
  • C、sink
  • D、web server


  • 126、 15、flume 中那种 source 类型支持 Unix 的命令标准在生产数据( )
  • A、Avr0 Source
  • B、Thrift Source
  • C、Exec Source
  • D、JMS Source


  • 127、 大数据正快速发展为对数量巨大、来源分散、格式多样的数据进行采集、存储和关联分析,从中发现新知识、创造新价值、提升新能力的( )
  • A、新一代技术平台
  • B、新一代信息技术和服务业态
  • C、新一代服务业态
  • D、新一代信息技术


  • 128、 整个大数据平台按其职能划分为五个模块层次,运行环境层是( )
  • A、运行环境层为基础设施层提供运行时环境,它由 2 部分构成,即操作系统和运行时环境。
  • B、基础设施层由 2 部分组成:Zookeeper 集群和 Hadoop 集群。它为基础平台层提供基础设施服务
  • C、基础平台层由 3 个部分组成:任务调度控制台、HBase 和 Hive。它为用户网关层提供基础服务调用接口。
  • D、用户网关层用于为终端客户提供个性化的调用接口以及用户的身份认证,是用户唯一可见的大数据平台操作入口。


  • 129、 大数据平台架构设计( )的思想
  • A、分层模块化设计
  • B、高集合化设计
  • C、统一结构化设计
  • D、全分布设计


  • 130、 大数据系统出现”java.net.NoRouteToHostException: No route to host “ 解决方案 ( )
  • A、zookeeper 的 IP 要配对
  • B、关掉防火墙 service iptables stop
  • C、master 和 slave 配置成同一个 IP 导致的,要配成不同 IP
  • D、SSH 配置错误导致,主机名一定要严格匹配,重新配置 ssh 免密码登录


  • 131、 hadoop 平台下检查 h3cu 目录的健康状态采用( )命令
  • A、hdfs fsck /h3cu
  • B、find /h3cu
  • C、list /h3cu
  • D、hadoop fs -lsr /h3cu


  • 132、 查看当前yarn 运行任务列表采用( ) 命令
  • A、yarn application -log
  • B、HDFS application –list
  • C、yarn application -kill
  • D、yarn application -list


  • 133、 报告 hdfs 使用情况采用( )命令
  • A、hdfs dfsadmin -setSpaceQuota 500g /path/xxx/
  • B、hdfs dfsadmin -report
  • C、hdfs dfsadmin -clrSpaceQuota /user/testname
  • D、hdfs dfs -getfacl /user/testname


  • 134、 map/reduce 参数监控metrics,shuffle 成功的次数( )
  • A、mapred.ShuffleMetrics.ShuffleConnections
  • B、mapred.ShuffleMetrics.ShuffleOutputBytes
  • C、mapred.ShuffleMetrics.ShuffleOutputsFailed
  • D、mapred.ShuffleMetrics.ShuffleOutputsOK


  • 135、 启动 Hadoop 和 HBase 之后,执行jps 命令,已经看到有 HMaster 的进程,但是进入到监控界面查看,没有节点信息: 最有可能原因( )
  • A、HADOOP 服务未启动
  • B、HBase 服务未启动
  • C、HBase 处于安全模式
  • D、HBase 服务未安装


  • 136、 HBase 分布式模式最好需要( )个节点
  • A、1
  • B、2
  • C、3
  • D、4


  • 137、 关于 Hadoop 单机模式和伪分布式模式的说法,正确的是 ( )
  • A、两者都起守护进程,且守护进程运行在一台机器上
  • B、单机模式不使用 HDFS,但加载守护进程
  • C、两者都不与守护进程交互,避免复杂性
  • D、后者比前者增加了 HDFS 输入输出以及可检查内存使用情况


  • 138、 关于 HDFS 的文件写入,正确的是 ( )
  • A、支持多用户对同一文件的写操作
  • B、用户可以在文件任意位置进行修改
  • C、默认将文件块复制成三份存放
  • D、复制的文件块默认都存在同一机架上


  • 139、 Namenode 在启动时自动进入安全模式,在安全模式阶段,说法错误的是 ( )
  • A、安全模式目的是在系统启动时检查各个 DataNode 上数据块的有效性
  • B、根据策略对数据块进行必要的复制或删除
  • C、当数据块最小百分比数满足的最小副本数条件时,会自动退出安全模式
  • D、文件系统允许有修改


  • 140、 关于 SecondaryNameNode 哪项是正确的?( )
  • A、它是 NameNode 的热备
  • B、它对内存没有要求
  • C、它的目的是帮助 NameNode 合并编辑日志,减少 NameNode 启动时间
  • D、它是 NameNode 的热备,对内存有严格要求


  • 141、 关于 Hadoop 的运行机制过程顺序说法正确的是( )
  • A、作业提交--作业初始化--任务分配--任务的执行--任务进度和状态的更新--任务结束
  • B、作业初始化--作业提交--任务分配--任务的执行--任务进度和状态的更新--任务结束
  • C、任务分配--作业提交--作业初始化--任务的执行--任务进度和状态的更新--任务结束
  • D、任务执行-作业提交--作业初始化--任务的分配--任务进度和状态的更新--任务结束


  • 微信扫一扫 在线答题 在线出卷 随机出题小程序 闯关答题软件 出题答题小程序