Score %0 (0 correct0 incorrect20 unanswered)

Q1. Il partizionatore controlla la suddivisione di quali dati?

  • chiavi finali
  • valori finali
  • chiavi intermedie
  • valori intermedi

Q2. Le funzioni di finestra SQL sono implementate in Hive utilizzando quali parole chiave?

  • UNION DISTINCT, RANK
  • OVER, RANK
  • OVER, EXCEPT
  • UNION DISTINCT, RANK

Q3. Piuttosto che aggiungere un ordinamento secondario a un job di riduzione lento, qual è la pratica migliore di Hadoop per ottimizzare?

  • Aggiungi un shuffle partizionato al job di Map.
  • Aggiungi un shuffle partizionato al job di Reduce.
  • Suddividi il job di Reduce in più job di Reduce concatenati.
  • Suddividi il job di Reduce in più job di Map concatenati.

Q4. Hadoop Auth impone l'autenticazione su risorse protette. Una volta stabilita l'autenticazione, imposta quale tipo di cookie di autenticazione?

  • HTTP criptato
  • HTTP non firmato
  • HTTP compresso
  • HTTP firmato

Q5. I job di MapReduce possono essere scritti in quale linguaggio?

  • Java o Python
  • Solo SQL
  • SQL o Java
  • Python o SQL

Q6. Per eseguire l'aggregazione locale degli output intermedi, gli utenti di MapReduce possono specificare facoltativamente quale oggetto?

  • Reducer
  • Combiner
  • Mapper
  • Contatore

Q7. Per verificare lo stato del job, cerca il valore ___ nel ___.

  • COMPLETATO; syslog
  • COMPLETATO; stdout
  • FINITO; syslog
  • FINITO; stdout

Q8. Quale riga di codice implementa un metodo Reducer in MapReduce 2.0?

  • public void reduce(Text key, Iterator<IntWritable> values, Context context){…}
  • public static void reduce(Text key, IntWritable[] values, Context context){…}
  • public static void reduce(Text key, Iterator<IntWritable> values, Context context){…}
  • public void reduce(Text key, IntWritable[] values, Context context){…}

Q9. Per ottenere il numero totale di record di input mappati in un task di job di mappa, è necessario controllare il valore di quale contatore?

  • Contatore FileInputFormat
  • Contatore FileSystem
  • Contatore Job
  • Contatore Task (NON SICURO)

Q10. Hadoop Core supporta quali capacità CAP?

  • A, P
  • C, A
  • C, P
  • C, A, P

Q11. Quali sono le fasi principali di un Reducer?

  • combina, mappa e riduci
  • shuffle, ordina e riduci
  • riduci, ordina e combina
  • mappa, ordina e combina

Q12. Per configurare il flusso di lavoro Hadoop con sincronizzazione dei dati tra job che elaborano task sia su disco che in memoria, utilizzare il servizio ___, che è ___.

  • Oozie; software commerciale
  • Oozie; software open source
  • Zookeeper; software commerciale
  • Zookeeper; software open source

Q13. Per l'alta disponibilità, che tipo di nodi multipli dovresti usare?

  • dati
  • nome
  • memoria
  • lavoratore

Q14. DataNode supporta quali tipi di unità?

  • hot swappable
  • cold swappable
  • warm swappable
  • non swappable

Q15. Quale metodo viene utilizzato per implementare i job Spark?

  • su disco di tutti i lavoratori
  • su disco del nodo master
  • in memoria del nodo master
  • in memoria di tutti i lavoratori

Q16. In un job di MapReduce, dove viene eseguita la funzione map()?

  • sui nodi riduttori del cluster
  • sui nodi dati del cluster (NON SICURO)
  • sul nodo master del cluster
  • su ogni nodo del cluster

Q17. Per fare riferimento a un file master per ricerche durante il Mapping, quale tipo di cache dovrebbe essere utilizzato?

  • cache distribuita
  • cache locale
  • cache partizionata
  • cache del cluster

Q18. Skip bad records fornisce un'opzione in cui un certo insieme di record di input non validi può essere saltato durante l'elaborazione di quale tipo di dati?

  • input della cache
  • input del riduttore
  • valori intermedi
  • input della mappa

Q19. Quale comando importa dati in Hadoop da un database MySQL?

  • importazione spark --connect jdbc:mysql://mysql.example.com/spark --username spark --warehouse-dir user/hue/oozie/deployments/spark
  • importazione sqoop --connect jdbc:mysql://mysql.example.com/sqoop --username sqoop --warehouse-dir user/hue/oozie/deployments/sqoop
  • importazione sqoop --connect jdbc:mysql://mysql.example.com/sqoop --username sqoop --password sqoop --warehouse-dir user/hue/oozie/deployments/sqoop
  • importazione spark --connect jdbc:mysql://mysql.example.com/spark --username spark --password spark --warehouse-dir user/hue/oozie/deployments/spark

Q20. In che forma viene presentato l'output del Reducer?

  • compresso (NON SICURO)
  • ordinato
  • non ordinato
  • criptato