Score %0 (0 correct0 incorrect20 unanswered)
Q2. SQL 窗口函数在 Hive 中使用哪些关键字实现?
- UNION DISTINCT,RANK
- OVER,RANK
- OVER,EXCEPT
- UNION DISTINCT,RANK
Q3. 与将慢速 Reduce 作业添加到次要排序相比,Hadoop 的最佳实践是进行哪种优化?
- 将分区洗牌添加到 Map 作业中。
- 将分区洗牌添加到 Reduce 作业中。
- 将 Reduce 作业拆分成多个串联的 Reduce 作业。
- 将 Reduce 作业拆分成多个串联的 Map 作业。
Q4. Hadoop Auth 在受保护资源上强制执行身份验证。一旦建立了身份验证,它会设置哪种类型的身份验证 cookie?
- 加密的 HTTP
- 未签名的 HTTP
- 压缩的 HTTP
- 签名的 HTTP
Q5. MapReduce 作业可以用哪种语言编写?
- Java 或 Python
- 仅 SQL
- SQL 或 Java
- Python 或 SQL
Q6. 为了对中间输出进行本地聚合,MapReduce 用户可以选择指定哪个对象?
- Reducer
- Combiner
- Mapper
- Counter
Q7. 要验证作业状态,请查找___
在___
中的值。
- 成功;系统日志
- 成功;标准输出
- 完成;系统日志
- 完成;标准输出
Q8. 哪一行代码实现了 MapReduce 2.0 中的 Reducer 方法?
- public void reduce(Text key, Iterator<IntWritable> values, Context context){…}
- public static void reduce(Text key, IntWritable[] values, Context context){…}
- public static void reduce(Text key, Iterator<IntWritable> values, Context context){…}
- public void reduce(Text key, IntWritable[] values, Context context){…}
Q9. 要获取 map 作业任务中映射的输入记录的总数,您应该查看哪个计数器的值?
- FileInputFormatCounter
- FileSystemCounter
- JobCounter
- TaskCounter(不确定)
Q10. Hadoop Core 支持哪些 CAP 功能?
Q11. Reducer 的主要阶段是什么?
- 组合、映射和减少
- 洗牌、排序和减少
- 减少、排序和组合
- 映射、排序和组合
Q12. 要设置具有在磁盘和内存中处理任务的作业之间数据同步的 Hadoop 工作流程,请使用___
服务,它是___
的。
- Oozie;商业软件
- Oozie;开源
- Zookeeper;商业软件
- Zookeeper;开源
Q13. 为了高可用性,应该使用哪种类型的多个节点?
Q14. DataNode 支持哪种类型的驱动器?
Q15. 哪种方法用于实现 Spark 作业?
- 所有工作节点的磁盘
- 主节点的磁盘
- 主节点的内存
- 所有工作节点的内存
Q16. 在 MapReduce 作业中,map() 函数在哪里运行?
- 集群的 reducer 节点上
- 集群的数据节点上(不确定)
- 集群的主节点上
- 集群的每个节点上
Q17. 在映射期间引用主文件进行查找,应使用哪种类型的缓存?
Q18. 当处理什么类型的数据时,跳过坏记录提供了一个选项,可以跳过一定数量的坏输入记录?
Q19. 哪个命令将数据从 MySQL 数据库导入到 Hadoop?
- spark import --connect jdbc:mysql://mysql.example.com/spark --username spark --warehouse-dir user/hue/oozie/deployments/spark
- sqoop import --connect jdbc:mysql://mysql.example.com/sqoop --username sqoop --warehouse-dir user/hue/oozie/deployments/sqoop
- sqoop import --connect jdbc:mysql://mysql.example.com/sqoop --username sqoop --password sqoop --warehouse-dir user/hue/oozie/deployments/sqoop
- spark import --connect jdbc:mysql://mysql.example.com/spark --username spark --password spark --warehouse-dir user/hue/oozie/deployments/spark