Q1. Le partitionneur contrôle la partition de quelles données?
clés finales
valeurs finales
clés intermédiaires
valeurs intermédiaires
Q2. Les fonctions de fenêtrage SQL sont implémentées dans Hive en utilisant quels mots-clés?
UNION DISTINCT, RANK
OVER, RANK
OVER, EXCEPT
UNION DISTINCT, RANK
Q3. Plutôt que d'ajouter un tri secondaire à un travail Reduce lent, quelle est la meilleure pratique Hadoop pour effectuer une optimisation?
Ajouter un shuffle partitionné au travail de Map.
Ajouter un shuffle partitionné au travail de Reduce.
Diviser le travail de Reduce en plusieurs travaux de Reduce enchaînés.
Diviser le travail de Reduce en plusieurs travaux de Map enchaînés.
Q4. Hadoop Auth impose l'authentification sur les ressources protégées. Une fois l'authentification établie, quel type de cookie d'authentification est défini?
HTTP crypté
HTTP non signé
HTTP compressé
HTTP signé
Q5. Les travaux MapReduce peuvent être écrits dans quel langage?
Java ou Python
SQL seulement
SQL ou Java
Python ou SQL
Q6. Pour effectuer une agrégation locale des sorties intermédiaires, les utilisateurs de MapReduce peuvent spécifier facultativement quel objet?
Reducer
Combiner
Mapper
Compteur
Q7. Pour vérifier l'état d'un travail, recherchez la valeur ___ dans ___.
RÉUSSI; syslog
RÉUSSI; stdout
TERMINÉ; syslog
TERMINÉ; stdout
Q8. Quelle ligne de code implémente une méthode Reducer dans MapReduce 2.0?
public void reduce(Text key, Iterator<IntWritable> values, Context context){…}
public static void reduce(Text key, IntWritable[] values, Context context){…}
public static void reduce(Text key, Iterator<IntWritable> values, Context context){…}
public void reduce(Text key, IntWritable[] values, Context context){…}
Q9. Pour obtenir le nombre total d'enregistrements d'entrée mappés dans une tâche de travail de carte, vous devez examiner la valeur de quel compteur?
FileInputFormatCounter
FileSystemCounter
JobCounter
TaskCounter (PAS SÛR)
Q10. Le noyau Hadoop prend en charge quelles capacités CAP?
A, P
C, A
C, P
C, A, P
Q11. Quelles sont les phases principales d'un Reducer?
combiner, map et reduce
shuffle, tri et reduce
reduce, tri et combiner
map, tri et combiner
Q12. Pour configurer un flux de travail Hadoop avec synchronisation des données entre les travaux qui traitent des tâches à la fois sur disque et en mémoire, utilisez le service ___, qui est ___.
Oozie; logiciel commercial
Oozie; logiciel open source
Zookeeper; logiciel commercial
Zookeeper; logiciel open source
Q13. Pour une haute disponibilité, quel type de nœuds multiples devriez-vous utiliser?
données
nom
mémoire
travailleur
Q14. DataNode prend en charge quel type de lecteurs?
échangeables à chaud
échangeables à froid
échangeables tièdes
non échangeables
Q15. Quelle méthode est utilisée pour implémenter les travaux Spark?
sur le disque de tous les travailleurs
sur le disque du nœud maître
en mémoire du nœud maître
en mémoire de tous les travailleurs
Q16. Dans un travail MapReduce, où s'exécute la fonction map()?
sur les nœuds réducteurs du cluster
sur les nœuds de données du cluster (PAS SÛR)
sur le nœud maître du cluster
sur chaque nœud du cluster
Q17. Pour référencer un fichier maître pour les recherches lors de la mise en correspondance, quel type de cache devrait être utilisé?
cache distribué
cache local
cache partitionné
cache de cluster
Q18. L'option Skip bad records permet de sauter un certain ensemble de mauvais enregistrements d'entrée lors du traitement de quel type de données?
entrées de cache
entrées de réducteur
valeurs intermédiaires
entrées de carte
Q19. Quelle commande importe des données vers Hadoop depuis une base de données MySQL?