Score %0 (0 correct0 incorrect20 unanswered)

Q1. Der Partitioner steuert die Aufteilung welcher Daten?

  • endgültige Schlüssel
  • endgültige Werte
  • Zwischenschlüssel
  • Zwischenwerte

Q2. SQL Windowing-Funktionen werden in Hive unter Verwendung welcher Schlüsselwörter implementiert?

  • UNION DISTINCT, RANK
  • OVER, RANK
  • OVER, EXCEPT
  • UNION DISTINCT, RANK

Q3. Anstatt einer langsamen Reduce-Job eine Secondary Sort hinzuzufügen, ist es die beste Praxis von Hadoop, welche Optimierung durchzuführen?

  • Fügen Sie dem Map-Job ein partitioniertes Shuffle hinzu.
  • Fügen Sie dem Reduce-Job ein partitioniertes Shuffle hinzu.
  • Teilen Sie den Reduce-Job in mehrere verkettete Reduce-Jobs auf.
  • Teilen Sie den Reduce-Job in mehrere verkettete Map-Jobs auf.

Q4. Hadoop Auth erzwingt die Authentifizierung für geschützte Ressourcen. Sobald die Authentifizierung hergestellt wurde, setzt es welche Art von authentifizierendem Cookie?

  • verschlüsseltes HTTP
  • nicht signiertes HTTP
  • komprimiertes HTTP
  • signiertes HTTP

Q5. MapReduce-Jobs können in welcher Sprache geschrieben werden?

  • Java oder Python
  • nur SQL
  • SQL oder Java
  • Python oder SQL

Q6. Um die lokale Aggregation der Zwischenausgaben durchzuführen, können MapReduce-Benutzer optional welches Objekt angeben?

  • Reducer
  • Combiner
  • Mapper
  • Zähler

Q7. Um den Status eines Jobs zu überprüfen, suchen Sie nach dem Wert ___ im ___.

  • ERFOLGREICH; Syslog
  • ERFOLGREICH; Standardausgabe
  • FERTIG; Syslog
  • FERTIG; Standardausgabe

Q8. Welche Codezeile implementiert eine Reducer-Methode in MapReduce 2.0?

  • public void reduce(Text key, Iterator<IntWritable> values, Context context){…}
  • public static void reduce(Text key, IntWritable[] values, Context context){…}
  • public static void reduce(Text key, Iterator<IntWritable> values, Context context){…}
  • public void reduce(Text key, IntWritable[] values, Context context){…}

Q9. Um die Gesamtzahl der zugeordneten Eingabedatensätze in einer Map-Job-Aufgabe zu erhalten, sollten Sie den Wert welches Zählers überprüfen?

  • FileInputFormatCounter
  • FileSystemCounter
  • JobCounter
  • TaskCounter (NICHT SICHER)

Q10. Welche CAP-Fähigkeiten unterstützt Hadoop Core?

  • A, P
  • C, A
  • C, P
  • C, A, P

Q11. Was sind die primären Phasen eines Reducers?

  • Kombinieren, Zuordnen und Reduzieren
  • Shuffle, Sortieren und Reduzieren
  • Reduzieren, Sortieren und Kombinieren
  • Zuordnen, Sortieren und Kombinieren

Q12. Um einen Hadoop-Workflow mit Synchronisierung von Daten zwischen Jobs einzurichten, die Aufgaben sowohl auf der Festplatte als auch im Speicher verarbeiten, verwenden Sie den ___-Dienst, der ___ ist.

  • Oozie; Open-Source
  • Oozie; kommerzielle Software
  • Zookeeper; kommerzielle Software
  • Zookeeper; Open-Source

Q13. Für hohe Verfügbarkeit sollten Sie welche Art von mehreren Knoten verwenden?

  • Daten
  • Namen
  • Speicher
  • Arbeiter

Q14. Welche Art von Laufwerken unterstützt DataNode?

  • Hot-Swap-fähig
  • Cold-Swap-fähig
  • Warm-Swap-fähig
  • Nicht-Swap-fähig

Q15. Welche Methode wird verwendet, um Spark-Jobs zu implementieren?

  • Auf der Festplatte aller Arbeiter
  • Auf der Festplatte des Masterknotens
  • Im Speicher des Masterknotens
  • Im Speicher aller Arbeiter

Q16. Wo wird die map() -Funktion in einem MapReduce-Job ausgeführt?

  • Auf den Reducer-Knoten des Clusters
  • Auf den Datennodes des Clusters (NICHT SICHER)
  • Auf dem Masterknoten des Clusters
  • Auf jedem Knoten des Clusters

Q17. Um eine Masterdatei für Lookups während der Zuordnung zu referenzieren, welche Art von Cache sollte verwendet werden?

  • Verteilter Cache
  • Lokaler Cache
  • Partitionierter Cache
  • Cluster-Cache

Q18. Skip Bad Records bietet eine Option, bei der eine bestimmte Menge von schlechten Eingabedatensätzen übersprungen werden kann, wenn welche Art von Daten verarbeitet werden?

  • Zwischenspeichereingaben
  • Reduzierereingaben
  • Zwischenwerte
  • Mapeingaben

Q19. Welches Befehl importiert Daten nach Hadoop aus einer MySQL-Datenbank?

  • Spark-Import --connect jdbc:mysql://mysql.example.com/spark --username spark --warehouse-dir user/hue/oozie/deployments/spark
  • Sqoop-Import --connect jdbc:mysql://mysql.example.com/sqoop --username sqoop --warehouse-dir user/hue/oozie/deployments/sqoop
  • Sqoop-Import --connect jdbc:mysql://mysql.example.com/sqoop --username sqoop --password sqoop --warehouse-dir user/hue/oozie/deployments/sqoop
  • Spark-Import --connect jdbc:mysql://mysql.example.com/spark --username spark --password spark --warehouse-dir user/hue/oozie/deployments/spark

Q20. In welcher Form wird die Ausgabe des Reducers präsentiert?

  • Komprimiert (NICHT SICHER)

Sortiert

  • Nicht sortiert
  • Verschlüsselt