Hadoop大数据开发习题

linux 2周前 散逸
浏览:39 0
1. 下列()命令可以下载HDFS目录/user/root/live.txt。
2. 上传一个大小为500MB的文件data.txt到以Hadoop2.4搭建的平台上。这个文件会占用()个HDFS文件块。
3. 在Hadoop官方的示例程序包hadoop-mapreduce-examples-2.4.1.jar中,封装了一些常用的测试模块。可以获得文件中单词数量的模块是()。
4. 在词频统计(WordCount)的执行过程中,()模块负责进行单词的拆分与映射。
5. 下列()命令可以移动HDFS目录/user/root/live.txt至HDFS目录/下。
6. 下列数据单位哪个最大()
7. Hadoop名字的来源是?
8. 下列不是属于Apache中和Hadoop相关的项目是?
9. 向Hadoop集群提交MapReduce任务时,可以使用下列()命令。
10. 在Hadoop官方的示例程序包hadoop-mapreduce-examples-2.4.1.jar中,封装了一些常用的测试模块。可以进行PI值估算的模块是()。
11. MapReduce中,将一个大任务分解为多个小任务的工作,是由()阶段完成的。
12. 在MapReduce处理数据的过程中,Map阶段处理的结果形式为()。
13. 在MapReduce处理数据的过程中,Reduce阶段处理的数据来自于()。
14. 关于大数据的特征的说法,正确的是()。
15. 大数据的核心技术主要是指()。
16. 关于HDFS的说法,正确的是()。
17. 关于HDFS的局限性,正确的是()。
18. MapReduce由两个阶段组成,分别是()。
19. 关于NameNode的说法中,正确的是()。
20. HDFS特性正确的有()。
21. Zookeeper的特征正确的是()。
22. Zookeeper的服务命令有()。
23. 关于Yarn的说法,正确的是()。
24. HDFS采用()架构。
25. 关系型数据库可以支持对数据的查询、新增、修改、()等操作,数据库对这一类操作的响应时间基本在毫秒级别。
26. 启动Hadoop进程,首先执行命令(),启动HDFS系统。
27. HDFS全称是()。
28. Hadoop1.0,HDFS数据块的大小默认为64MB;Hadoop2.0中,HDFS数据块的大小默认为()。
29. 数据块(Block)是HDFS上存储数据的基本单位。
30. SecondaryNameNode的存在是为解决NameNode节点可能出现宕机问题。
31. 在大数据集群远程长连接应用场景中,必须要有心跳数据包来维持集群连接,保持节点与节点之间的通信。
32. 在最新的Hadoop版本中,一个HDFS集群由一个NameNode和多个DataNode组成。
33. DataNode是数据存储节点,负责自身所在的物理节点上的存储管理。
34. HDFS核心组件包括NameNode、DataNode和SecondaryNameNode。
35. NameNode负责维护文件系统树,它存储的是元数据。
36. Zookeeper是一个开放源码的分布式应用程序协调服务,主要解决分布式应用一致性问题。
37. Zookeeper中的角色主要分为:领导者(leader)、学习者(learner)、跟随着(follower)。
38. Yarn采用了一种新的MRAppMaser进行管理,与Yarn的两个守护进程ResourceManager和NodeManager一起调度和控制任务。
39. HDFS中文件块默认保存的()份。
40. YARN监控的默认端口是()。
41. 默认端口50070的作用是()。
42. 在Linux下安装NTP服务的命令是()。
43. 在()配置文件中修改文件块的副本数。
44. yarn-site.xml文件的作用是()。
45. 下列()命令可以显示出HDFS目录/user/root/中的内容。
版权声明:散逸 发表于 2020-05-11 14:36:00。
转载请注明:Hadoop大数据开发习题 | 散逸-博客-导航

暂无评论

暂无评论...