Q1. Der Partitioner steuert die Aufteilung welcher Daten?
endgültige Schlüssel
endgültige Werte
Zwischenschlüssel
Zwischenwerte
Q2. SQL Windowing-Funktionen werden in Hive unter Verwendung welcher Schlüsselwörter implementiert?
UNION DISTINCT, RANK
OVER, RANK
OVER, EXCEPT
UNION DISTINCT, RANK
Q3. Anstatt einer langsamen Reduce-Job eine Secondary Sort hinzuzufügen, ist es die beste Praxis von Hadoop, welche Optimierung durchzuführen?
Fügen Sie dem Map-Job ein partitioniertes Shuffle hinzu.
Fügen Sie dem Reduce-Job ein partitioniertes Shuffle hinzu.
Teilen Sie den Reduce-Job in mehrere verkettete Reduce-Jobs auf.
Teilen Sie den Reduce-Job in mehrere verkettete Map-Jobs auf.
Q4. Hadoop Auth erzwingt die Authentifizierung für geschützte Ressourcen. Sobald die Authentifizierung hergestellt wurde, setzt es welche Art von authentifizierendem Cookie?
verschlüsseltes HTTP
nicht signiertes HTTP
komprimiertes HTTP
signiertes HTTP
Q5. MapReduce-Jobs können in welcher Sprache geschrieben werden?
Java oder Python
nur SQL
SQL oder Java
Python oder SQL
Q6. Um die lokale Aggregation der Zwischenausgaben durchzuführen, können MapReduce-Benutzer optional welches Objekt angeben?
Reducer
Combiner
Mapper
Zähler
Q7. Um den Status eines Jobs zu überprüfen, suchen Sie nach dem Wert ___ im ___.
ERFOLGREICH; Syslog
ERFOLGREICH; Standardausgabe
FERTIG; Syslog
FERTIG; Standardausgabe
Q8. Welche Codezeile implementiert eine Reducer-Methode in MapReduce 2.0?
public void reduce(Text key, Iterator<IntWritable> values, Context context){…}
public static void reduce(Text key, IntWritable[] values, Context context){…}
public static void reduce(Text key, Iterator<IntWritable> values, Context context){…}
public void reduce(Text key, IntWritable[] values, Context context){…}
Q9. Um die Gesamtzahl der zugeordneten Eingabedatensätze in einer Map-Job-Aufgabe zu erhalten, sollten Sie den Wert welches Zählers überprüfen?
FileInputFormatCounter
FileSystemCounter
JobCounter
TaskCounter (NICHT SICHER)
Q10. Welche CAP-Fähigkeiten unterstützt Hadoop Core?
A, P
C, A
C, P
C, A, P
Q11. Was sind die primären Phasen eines Reducers?
Kombinieren, Zuordnen und Reduzieren
Shuffle, Sortieren und Reduzieren
Reduzieren, Sortieren und Kombinieren
Zuordnen, Sortieren und Kombinieren
Q12. Um einen Hadoop-Workflow mit Synchronisierung von Daten zwischen Jobs einzurichten, die Aufgaben sowohl auf der Festplatte als auch im Speicher verarbeiten, verwenden Sie den ___-Dienst, der ___ ist.
Oozie; Open-Source
Oozie; kommerzielle Software
Zookeeper; kommerzielle Software
Zookeeper; Open-Source
Q13. Für hohe Verfügbarkeit sollten Sie welche Art von mehreren Knoten verwenden?
Daten
Namen
Speicher
Arbeiter
Q14. Welche Art von Laufwerken unterstützt DataNode?
Hot-Swap-fähig
Cold-Swap-fähig
Warm-Swap-fähig
Nicht-Swap-fähig
Q15. Welche Methode wird verwendet, um Spark-Jobs zu implementieren?
Auf der Festplatte aller Arbeiter
Auf der Festplatte des Masterknotens
Im Speicher des Masterknotens
Im Speicher aller Arbeiter
Q16. Wo wird die map() -Funktion in einem MapReduce-Job ausgeführt?
Auf den Reducer-Knoten des Clusters
Auf den Datennodes des Clusters (NICHT SICHER)
Auf dem Masterknoten des Clusters
Auf jedem Knoten des Clusters
Q17. Um eine Masterdatei für Lookups während der Zuordnung zu referenzieren, welche Art von Cache sollte verwendet werden?
Verteilter Cache
Lokaler Cache
Partitionierter Cache
Cluster-Cache
Q18. Skip Bad Records bietet eine Option, bei der eine bestimmte Menge von schlechten Eingabedatensätzen übersprungen werden kann, wenn welche Art von Daten verarbeitet werden?
Zwischenspeichereingaben
Reduzierereingaben
Zwischenwerte
Mapeingaben
Q19. Welches Befehl importiert Daten nach Hadoop aus einer MySQL-Datenbank?