Q2. ¿Qué palabras clave se utilizan en Hive para implementar funciones de ventana SQL?
UNION DISTINCT, RANK
OVER, RANK
OVER, EXCEPT
UNION DISTINCT, RANK
Q3. En lugar de agregar una clasificación secundaria a un trabajo Reduce lento, ¿cuál es la mejor práctica en Hadoop para realizar una optimización?
Agregar un shuffle particionado al trabajo de Map.
Agregar un shuffle particionado al trabajo de Reduce.
Dividir el trabajo de Reduce en múltiples trabajos de Reduce encadenados.
Dividir el trabajo de Reduce en múltiples trabajos de Map encadenados.
Q4. Hadoop Auth aplica la autenticación en recursos protegidos. Una vez establecida la autenticación, ¿qué tipo de cookie de autenticación se establece?
HTTP encriptada
HTTP no firmada
HTTP comprimida
HTTP firmada
Q5. ¿En qué lenguaje se pueden escribir trabajos de MapReduce?
Java o Python
Solo SQL
SQL o Java
Python o SQL
Q6. Para realizar una agregación local de las salidas intermedias, ¿qué objeto pueden especificar opcionalmente los usuarios de MapReduce?
Reducer
Combiner
Mapper
Contador
Q7. Para verificar el estado de un trabajo, busque el valor ___ en ___.
COMPLETADO; syslog
COMPLETADO; stdout
HECHO; syslog
HECHO; stdout
Q8. ¿Qué línea de código implementa un método Reducer en MapReduce 2.0?
public void reduce(Text key, Iterator<IntWritable> values, Context context){…}
public static void reduce(Text key, IntWritable[] values, Context context){…}
public static void reduce(Text key, Iterator<IntWritable> values, Context context){…}
public void reduce(Text key, IntWritable[] values, Context context){…}
Q9. Para obtener el número total de registros de entrada mapeados en una tarea de trabajo de mapa, ¿qué contador debes revisar?
Contador de formato de entrada de archivo
Contador de sistema de archivos
Contador de trabajo
Contador de tarea (NO ESTOY SEGURO)
Q10. ¿Qué capacidades CAP admite Hadoop Core?
A, P
C, A
C, P
C, A, P
Q11. ¿Cuáles son las fases principales de un Reducer?
combinar, mapear y reducir
shuffle, ordenar y reducir
reducir, ordenar y combinar
mapear, ordenar y combinar
Q12. Para configurar un flujo de trabajo de Hadoop con sincronización de datos entre trabajos que procesan tareas tanto en disco como en memoria, usa el servicio ___, que es ___.
Oozie; software comercial
Oozie; software de código abierto
Zookeeper; software comercial
Zookeeper; software de código abierto
Q13. ¿Qué tipo de nodos múltiples deberías usar para alta disponibilidad?
de datos
de nombre
de memoria
trabajador
Q14. ¿Qué tipos de unidades admite DataNode?
intercambiables en caliente
intercambiables en frío
intercambiables en tibio
no intercambiables
Q15. ¿Qué método se utiliza para implementar trabajos de Spark?
en el disco de todos los trabajadores
en el disco del nodo maestro
en la memoria del nodo maestro
en la memoria de todos los trabajadores
Q16. En un trabajo de MapReduce, ¿dónde se ejecuta la función map()?
en los nodos reductores del clúster
en los nodos de datos del clúster (NO ESTOY SEGURO)
en el nodo maestro del clúster
en cada nodo del clúster
Q17. Para hacer referencia a un archivo maestro para búsquedas durante el Mapeo, ¿qué tipo de caché se debe usar?
caché distribuida
caché local
caché particionada
caché de clúster
Q18. ¿"Saltar registros incorrectos" proporciona una opción donde se pueden omitir ciertos registros de entrada incorrectos al procesar qué tipo de datos?
entradas de caché
entradas de reductor
valores intermedios
entradas de mapa
Q19. ¿Qué comando importa datos a Hadoop desde una base de datos MySQL?