Q1. Il partizionatore controlla la suddivisione di quali dati?
chiavi finali
valori finali
chiavi intermedie
valori intermedi
Q2. Le funzioni di finestra SQL sono implementate in Hive utilizzando quali parole chiave?
UNION DISTINCT, RANK
OVER, RANK
OVER, EXCEPT
UNION DISTINCT, RANK
Q3. Piuttosto che aggiungere un ordinamento secondario a un job di riduzione lento, qual è la pratica migliore di Hadoop per ottimizzare?
Aggiungi un shuffle partizionato al job di Map.
Aggiungi un shuffle partizionato al job di Reduce.
Suddividi il job di Reduce in più job di Reduce concatenati.
Suddividi il job di Reduce in più job di Map concatenati.
Q4. Hadoop Auth impone l'autenticazione su risorse protette. Una volta stabilita l'autenticazione, imposta quale tipo di cookie di autenticazione?
HTTP criptato
HTTP non firmato
HTTP compresso
HTTP firmato
Q5. I job di MapReduce possono essere scritti in quale linguaggio?
Java o Python
Solo SQL
SQL o Java
Python o SQL
Q6. Per eseguire l'aggregazione locale degli output intermedi, gli utenti di MapReduce possono specificare facoltativamente quale oggetto?
Reducer
Combiner
Mapper
Contatore
Q7. Per verificare lo stato del job, cerca il valore ___ nel ___.
COMPLETATO; syslog
COMPLETATO; stdout
FINITO; syslog
FINITO; stdout
Q8. Quale riga di codice implementa un metodo Reducer in MapReduce 2.0?
public void reduce(Text key, Iterator<IntWritable> values, Context context){…}
public static void reduce(Text key, IntWritable[] values, Context context){…}
public static void reduce(Text key, Iterator<IntWritable> values, Context context){…}
public void reduce(Text key, IntWritable[] values, Context context){…}
Q9. Per ottenere il numero totale di record di input mappati in un task di job di mappa, è necessario controllare il valore di quale contatore?
Contatore FileInputFormat
Contatore FileSystem
Contatore Job
Contatore Task (NON SICURO)
Q10. Hadoop Core supporta quali capacità CAP?
A, P
C, A
C, P
C, A, P
Q11. Quali sono le fasi principali di un Reducer?
combina, mappa e riduci
shuffle, ordina e riduci
riduci, ordina e combina
mappa, ordina e combina
Q12. Per configurare il flusso di lavoro Hadoop con sincronizzazione dei dati tra job che elaborano task sia su disco che in memoria, utilizzare il servizio ___, che è ___.
Oozie; software commerciale
Oozie; software open source
Zookeeper; software commerciale
Zookeeper; software open source
Q13. Per l'alta disponibilità, che tipo di nodi multipli dovresti usare?
dati
nome
memoria
lavoratore
Q14. DataNode supporta quali tipi di unità?
hot swappable
cold swappable
warm swappable
non swappable
Q15. Quale metodo viene utilizzato per implementare i job Spark?
su disco di tutti i lavoratori
su disco del nodo master
in memoria del nodo master
in memoria di tutti i lavoratori
Q16. In un job di MapReduce, dove viene eseguita la funzione map()?
sui nodi riduttori del cluster
sui nodi dati del cluster (NON SICURO)
sul nodo master del cluster
su ogni nodo del cluster
Q17. Per fare riferimento a un file master per ricerche durante il Mapping, quale tipo di cache dovrebbe essere utilizzato?
cache distribuita
cache locale
cache partizionata
cache del cluster
Q18. Skip bad records fornisce un'opzione in cui un certo insieme di record di input non validi può essere saltato durante l'elaborazione di quale tipo di dati?
input della cache
input del riduttore
valori intermedi
input della mappa
Q19. Quale comando importa dati in Hadoop da un database MySQL?