Hadoop大数据开发习题

linux 6个月前 散逸
浏览:425 0

1. 下列()命令可以下载HDFS目录/user/root/live.txt。

 
2. 上传一个大小为500MB的文件data.txt到以Hadoop2.4搭建的平台上。这个文件会占用()个HDFS文件块。
 
3. 在Hadoop官方的示例程序包hadoop-mapreduce-examples-2.4.1.jar中,封装了一些常用的测试模块。可以获得文件中单词数量的模块是()。
 
4. 在词频统计(WordCount)的执行过程中,()模块负责进行单词的拆分与映射。
 
5. 下列()命令可以移动HDFS目录/user/root/live.txt至HDFS目录/下。
 
6. 下列数据单位哪个最大()
 
7. Hadoop名字的来源是?
 
8. 下列不是属于Apache中和Hadoop相关的项目是?
 
9. 向Hadoop集群提交MapReduce任务时,可以使用下列()命令。
 
10. 在Hadoop官方的示例程序包hadoop-mapreduce-examples-2.4.1.jar中,封装了一些常用的测试模块。可以进行PI值估算的模块是()。
 
11. MapReduce中,将一个大任务分解为多个小任务的工作,是由()阶段完成的。
 
12. 在MapReduce处理数据的过程中,Map阶段处理的结果形式为()。
 
13. 在MapReduce处理数据的过程中,Reduce阶段处理的数据来自于()。
 
14. 关于大数据的特征的说法,正确的是()。
 
15. 大数据的核心技术主要是指()。
 
16. 关于HDFS的说法,正确的是()。
 
17. 关于HDFS的局限性,正确的是()。
 
18. MapReduce由两个阶段组成,分别是()。
 
19. 关于NameNode的说法中,正确的是()。
 
20. HDFS特性正确的有()。
 
21. Zookeeper的特征正确的是()。
 
22. Zookeeper的服务命令有()。
 
23. 关于Yarn的说法,正确的是()。
 
24. HDFS采用()架构。(不正确)
 
25. 关系型数据库可以支持对数据的查询、新增、修改、()等操作,数据库对这一类操作的响应时间基本在毫秒级别。
 
26. 启动Hadoop进程,首先执行命令(),启动HDFS系统。
 
27. HDFS全称是()。(不正确)
 
28. Hadoop1.0,HDFS数据块的大小默认为64MB;Hadoop2.0中,HDFS数据块的大小默认为()。
 
29. 数据块(Block)是HDFS上存储数据的基本单位。
 
30. SecondaryNameNode的存在是为解决NameNode节点可能出现宕机问题。
 
31. 在大数据集群远程长连接应用场景中,必须要有心跳数据包来维持集群连接,保持节点与节点之间的通信。
 
32. 在最新的Hadoop版本中,一个HDFS集群由一个NameNode和多个DataNode组成。
 
33. DataNode是数据存储节点,负责自身所在的物理节点上的存储管理。
 
34. HDFS核心组件包括NameNode、DataNode和SecondaryNameNode。
 
35. NameNode负责维护文件系统树,它存储的是元数据。
 
36. Zookeeper是一个开放源码的分布式应用程序协调服务,主要解决分布式应用一致性问题。
 
37. Zookeeper中的角色主要分为:领导者(leader)、学习者(learner)、跟随着(follower)。
 
38. Yarn采用了一种新的MRAppMaser进行管理,与Yarn的两个守护进程ResourceManager和NodeManager一起调度和控制任务。
 
39. HDFS中文件块默认保存的()份。
 
40. YARN监控的默认端口是()。
 
41. 默认端口50070的作用是()。
 
42. 在Linux下安装NTP服务的命令是()。
 
43. 在()配置文件中修改文件块的副本数。
 
44. yarn-site.xml文件的作用是()。
 
45. 下列()命令可以显示出HDFS目录/user/root/中的内容。
 
版权声明:散逸 发表于 2020-05-11 14:36:00。
转载请注明:Hadoop大数据开发习题 | 散逸-博客-导航

暂无评论

暂无评论...