Score %0 (0 correct0 incorrect20 unanswered)

Q1. ¿Qué datos controla el particionador?

  • claves finales
  • valores finales
  • claves intermedias
  • valores intermedios

Q2. ¿Qué palabras clave se utilizan en Hive para implementar funciones de ventana SQL?

  • UNION DISTINCT, RANK
  • OVER, RANK
  • OVER, EXCEPT
  • UNION DISTINCT, RANK

Q3. En lugar de agregar una clasificación secundaria a un trabajo Reduce lento, ¿cuál es la mejor práctica en Hadoop para realizar una optimización?

  • Agregar un shuffle particionado al trabajo de Map.
  • Agregar un shuffle particionado al trabajo de Reduce.
  • Dividir el trabajo de Reduce en múltiples trabajos de Reduce encadenados.
  • Dividir el trabajo de Reduce en múltiples trabajos de Map encadenados.

Q4. Hadoop Auth aplica la autenticación en recursos protegidos. Una vez establecida la autenticación, ¿qué tipo de cookie de autenticación se establece?

  • HTTP encriptada
  • HTTP no firmada
  • HTTP comprimida
  • HTTP firmada

Q5. ¿En qué lenguaje se pueden escribir trabajos de MapReduce?

  • Java o Python
  • Solo SQL
  • SQL o Java
  • Python o SQL

Q6. Para realizar una agregación local de las salidas intermedias, ¿qué objeto pueden especificar opcionalmente los usuarios de MapReduce?

  • Reducer
  • Combiner
  • Mapper
  • Contador

Q7. Para verificar el estado de un trabajo, busque el valor ___ en ___.

  • COMPLETADO; syslog
  • COMPLETADO; stdout
  • HECHO; syslog
  • HECHO; stdout

Q8. ¿Qué línea de código implementa un método Reducer en MapReduce 2.0?

  • public void reduce(Text key, Iterator<IntWritable> values, Context context){…}
  • public static void reduce(Text key, IntWritable[] values, Context context){…}
  • public static void reduce(Text key, Iterator<IntWritable> values, Context context){…}
  • public void reduce(Text key, IntWritable[] values, Context context){…}

Q9. Para obtener el número total de registros de entrada mapeados en una tarea de trabajo de mapa, ¿qué contador debes revisar?

  • Contador de formato de entrada de archivo
  • Contador de sistema de archivos
  • Contador de trabajo
  • Contador de tarea (NO ESTOY SEGURO)

Q10. ¿Qué capacidades CAP admite Hadoop Core?

  • A, P
  • C, A
  • C, P
  • C, A, P

Q11. ¿Cuáles son las fases principales de un Reducer?

  • combinar, mapear y reducir
  • shuffle, ordenar y reducir
  • reducir, ordenar y combinar
  • mapear, ordenar y combinar

Q12. Para configurar un flujo de trabajo de Hadoop con sincronización de datos entre trabajos que procesan tareas tanto en disco como en memoria, usa el servicio ___, que es ___.

  • Oozie; software comercial
  • Oozie; software de código abierto
  • Zookeeper; software comercial
  • Zookeeper; software de código abierto

Q13. ¿Qué tipo de nodos múltiples deberías usar para alta disponibilidad?

  • de datos
  • de nombre
  • de memoria
  • trabajador

Q14. ¿Qué tipos de unidades admite DataNode?

  • intercambiables en caliente
  • intercambiables en frío
  • intercambiables en tibio
  • no intercambiables

Q15. ¿Qué método se utiliza para implementar trabajos de Spark?

  • en el disco de todos los trabajadores
  • en el disco del nodo maestro
  • en la memoria del nodo maestro
  • en la memoria de todos los trabajadores

Q16. En un trabajo de MapReduce, ¿dónde se ejecuta la función map()?

  • en los nodos reductores del clúster
  • en los nodos de datos del clúster (NO ESTOY SEGURO)
  • en el nodo maestro del clúster
  • en cada nodo del clúster

Q17. Para hacer referencia a un archivo maestro para búsquedas durante el Mapeo, ¿qué tipo de caché se debe usar?

  • caché distribuida
  • caché local
  • caché particionada
  • caché de clúster

Q18. ¿"Saltar registros incorrectos" proporciona una opción donde se pueden omitir ciertos registros de entrada incorrectos al procesar qué tipo de datos?

  • entradas de caché
  • entradas de reductor
  • valores intermedios
  • entradas de mapa

Q19. ¿Qué comando importa datos a Hadoop desde una base de datos MySQL?

  • spark import --connect jdbc:mysql://mysql.example.com/spark --username spark --warehouse-dir user/hue/oozie/deployments/spark
  • sqoop import --connect jdbc:mysql://mysql.example.com/sqoop --username sqoop --warehouse-dir user/hue/oozie/deployments/sqoop
  • sqoop import --connect jdbc:mysql://mysql.example.com/sqoop --username sqoop --password sqoop --warehouse-dir user/hue/oozie/deployments/sqoop
  • spark import --connect jdbc:mysql://mysql.example.com/spark --username spark --password spark --warehouse-dir user/hue/oozie/deployments/spark

Q20. ¿En qué forma se presenta la salida del Reductor?

  • comprimida (NO ESTOY SEGURO)
  • ordenada
  • no ordenada
  • cifrada