Comandos útiles de Hadoop Shell



Este blog describe todos los útiles comandos de Hadoop Shell. Junto con Hadoop Shell Commands, también tiene capturas de pantalla para simplificar el aprendizaje. ¡Sigue leyendo!

HDFS significa ' H adoop re atribuido F con S ystem '. El HDFS es un subproyecto del proyecto Apache Hadoop. Este proyecto de Apache Software Foundation está diseñado para proporcionar un sistema de archivos tolerante a fallas diseñado para ejecutarse en hardware básico. Se accede a HDFS a través de un conjunto de comandos de shell que se discutirán en esta publicación.





Una breve nota antes de comenzar: todos los comandos de Hadoop Shell son invocados por el script bin / hadoop.

Comandos de usuario:

  • Ejecute el sistema de archivos DFS:

Uso: hadoop fsck - /



Ejecutar-sistema-de-archivos-DFS (1)

  • C diablos versión de Hadoop :

Uso: versión Hadoop



Comandos de FS Shell:

El comando Hadoop fs ejecuta un cliente de usuario de sistema de archivos genérico que interactúa con el sistema de archivos MapR (MapR-FS).

  • Ver listas de archivos:

Uso: hadoop fs -ls hdfs: /

secuencia de fibonacci c ++

  • Verifique el estado de la memoria:

Uso: hadoop fs -df hdfs: /

  • Recuento de directorios, archivos y bytes en la ruta y el patrón de archivo especificados:

Uso: hadoop fs -count hdfs: /

  • Mueva el archivo de una ubicación a otra:

Uso: -mv

  • Copiar archivo de origen a destino :

Uso: -cp

  • Borrar archivo:

Uso: -rm

  • Coloque el archivo del sistema de archivos local en el sistema de archivos distribuido de Hadoop:

Uso: -put…

  • Copie el archivo de Local a HDFS:

Uso: -copyFromLocal…

  • Ver archivo en el sistema de archivos distribuidos de Hadoop :

Uso: -cat

Comandos de administración:

  • Dar formato al propósito :

Uso: formato de propósito de hadoop

java al poder del operador

  • A partir de fines secundarios:

Uso: hadoop secondrynamenode

  • Corre a propósito :

Uso: propósito de hadoop

  • Carrera nodo de datos :

Uso: hadoop datanode

uso de iterador en java
  • Equilibrio de clústeres :

Uso: equilibrador de hadoop

  • Ejecute el nodo de seguimiento de trabajos de MapReduce:

Uso: rastreador de trabajos hadoop

  • Ejecute el nodo de seguimiento de tareas de MapReduce:

Uso: rastreador de tareas hadoop

Tienes una pregunta para nosotros? Por favor, menciónelos en la sección de comentarios y nos comunicaremos con usted.

Artículos Relacionados:

Operadores en Apache Pig