Assignment Help logo
Chat en direct

Loading...

Score %0 (0 correct0 incorrect20 unanswered)

Q1. Le partitionneur contrôle la partition de quelles données?

  • clés finales
  • valeurs finales
  • clés intermédiaires
  • valeurs intermédiaires

Q2. Les fonctions de fenêtrage SQL sont implémentées dans Hive en utilisant quels mots-clés?

  • UNION DISTINCT, RANK
  • OVER, RANK
  • OVER, EXCEPT
  • UNION DISTINCT, RANK

Q3. Plutôt que d'ajouter un tri secondaire à un travail Reduce lent, quelle est la meilleure pratique Hadoop pour effectuer une optimisation?

  • Ajouter un shuffle partitionné au travail de Map.
  • Ajouter un shuffle partitionné au travail de Reduce.
  • Diviser le travail de Reduce en plusieurs travaux de Reduce enchaînés.
  • Diviser le travail de Reduce en plusieurs travaux de Map enchaînés.

Q4. Hadoop Auth impose l'authentification sur les ressources protégées. Une fois l'authentification établie, quel type de cookie d'authentification est défini?

  • HTTP crypté
  • HTTP non signé
  • HTTP compressé
  • HTTP signé

Q5. Les travaux MapReduce peuvent être écrits dans quel langage?

  • Java ou Python
  • SQL seulement
  • SQL ou Java
  • Python ou SQL

Q6. Pour effectuer une agrégation locale des sorties intermédiaires, les utilisateurs de MapReduce peuvent spécifier facultativement quel objet?

  • Reducer
  • Combiner
  • Mapper
  • Compteur

Q7. Pour vérifier l'état d'un travail, recherchez la valeur ___ dans ___.

  • RÉUSSI; syslog
  • RÉUSSI; stdout
  • TERMINÉ; syslog
  • TERMINÉ; stdout

Q8. Quelle ligne de code implémente une méthode Reducer dans MapReduce 2.0?

  • public void reduce(Text key, Iterator<IntWritable> values, Context context){…}
  • public static void reduce(Text key, IntWritable[] values, Context context){…}
  • public static void reduce(Text key, Iterator<IntWritable> values, Context context){…}
  • public void reduce(Text key, IntWritable[] values, Context context){…}

Q9. Pour obtenir le nombre total d'enregistrements d'entrée mappés dans une tâche de travail de carte, vous devez examiner la valeur de quel compteur?

  • FileInputFormatCounter
  • FileSystemCounter
  • JobCounter
  • TaskCounter (PAS SÛR)

Q10. Le noyau Hadoop prend en charge quelles capacités CAP?

  • A, P
  • C, A
  • C, P
  • C, A, P

Q11. Quelles sont les phases principales d'un Reducer?

  • combiner, map et reduce
  • shuffle, tri et reduce
  • reduce, tri et combiner
  • map, tri et combiner

Q12. Pour configurer un flux de travail Hadoop avec synchronisation des données entre les travaux qui traitent des tâches à la fois sur disque et en mémoire, utilisez le service ___, qui est ___.

  • Oozie; logiciel commercial
  • Oozie; logiciel open source
  • Zookeeper; logiciel commercial
  • Zookeeper; logiciel open source

Q13. Pour une haute disponibilité, quel type de nœuds multiples devriez-vous utiliser?

  • données
  • nom
  • mémoire
  • travailleur

Q14. DataNode prend en charge quel type de lecteurs?

  • échangeables à chaud
  • échangeables à froid
  • échangeables tièdes
  • non échangeables

Q15. Quelle méthode est utilisée pour implémenter les travaux Spark?

  • sur le disque de tous les travailleurs
  • sur le disque du nœud maître
  • en mémoire du nœud maître
  • en mémoire de tous les travailleurs

Q16. Dans un travail MapReduce, où s'exécute la fonction map()?

  • sur les nœuds réducteurs du cluster
  • sur les nœuds de données du cluster (PAS SÛR)
  • sur le nœud maître du cluster
  • sur chaque nœud du cluster

Q17. Pour référencer un fichier maître pour les recherches lors de la mise en correspondance, quel type de cache devrait être utilisé?

  • cache distribué
  • cache local
  • cache partitionné
  • cache de cluster

Q18. L'option Skip bad records permet de sauter un certain ensemble de mauvais enregistrements d'entrée lors du traitement de quel type de données?

  • entrées de cache
  • entrées de réducteur
  • valeurs intermédiaires
  • entrées de carte

Q19. Quelle commande importe des données vers Hadoop depuis une base de données MySQL?

  • spark import --connect jdbc:mysql://mysql.example.com/spark --username spark --warehouse-dir user/hue/oozie/deployments/spark
  • sqoop import --connect jdbc:mysql://mysql.example.com/sqoop --username sqoop --warehouse-dir user/hue/oozie/deployments/sqoop
  • sqoop import --connect jdbc:mysql://mysql.example.com/sqoop --username sqoop --password sqoop --warehouse-dir user/hue/oozie/deployments/sqoop
  • spark import --connect jdbc:mysql://mysql.example.com/spark --username spark --password spark --warehouse-dir user/hue/oozie/deployments/spark

Q20. Sous quelle forme la sortie du Reducer est-elle présentée?

  • compressée (PAS SÛR)
  • triée
  • non triée
  • chiffrée