คำสั่ง Hadoop Shell ที่เป็นประโยชน์



บล็อกนี้อธิบายเกี่ยวกับคำสั่ง Hadoop Shell ที่เป็นประโยชน์ทั้งหมด นอกจาก Hadoop Shell Commands แล้วยังมีภาพหน้าจอเพื่อให้การเรียนรู้เป็นเรื่องง่าย อ่านต่อ!

HDFS ย่อมาจาก ‘ adoop มีที่มา ด้วย ystem ’ HDFS เป็นโครงการย่อยของโครงการ Apache Hadoop โครงการ Apache Software Foundation นี้ได้รับการออกแบบมาเพื่อจัดเตรียมระบบไฟล์ที่ทนต่อความผิดพลาดซึ่งออกแบบมาเพื่อทำงานบนฮาร์ดแวร์สินค้าโภคภัณฑ์ HDFS เข้าถึงได้ผ่านชุดคำสั่งเชลล์ซึ่งจะกล่าวถึงในโพสต์นี้





หมายเหตุสั้น ๆ ก่อนเริ่ม: คำสั่ง Hadoop Shell ทั้งหมดถูกเรียกใช้โดยสคริปต์ bin / hadoop

คำสั่งของผู้ใช้:

  • เรียกใช้ระบบไฟล์ DFS:

การใช้งาน: hadoop fsck - /



เรียกใช้ -DFS- ระบบไฟล์ (1)

  • Hadoop รุ่นห่า :

การใช้งาน: เวอร์ชัน Hadoop



คำสั่ง FS Shell:

คำสั่ง Hadoop fs รันไคลเอ็นต์ผู้ใช้ระบบไฟล์ทั่วไปที่โต้ตอบกับระบบไฟล์ MapR (MapR-FS)

  • ดูรายชื่อไฟล์:

การใช้งาน: hadoop fs -ls hdfs: /

  • ตรวจสอบสถานะหน่วยความจำ:

การใช้งาน: hadoop fs -df hdfs: /

  • จำนวนไดเร็กทอรีไฟล์และไบต์ในพา ธ และรูปแบบไฟล์ที่ระบุ:

การใช้งาน: hadoop fs -count hdfs: /

  • ย้ายไฟล์จากตำแหน่งหนึ่งไปยังอีกที่หนึ่ง:

การใช้งาน: -mv

  • คัดลอกไฟล์จากต้นทางไปยังปลายทาง :

การใช้งาน: -cp

  • ลบไฟล์:

การใช้งาน: -rm

  • วางไฟล์จากระบบไฟล์ในเครื่องไปยัง Hadoop Distributed File System:

การใช้งาน: - ใส่ ...

  • คัดลอกไฟล์จาก Local ไปยัง HDFS:

การใช้งาน: -copyFromLocal ...

  • ดูไฟล์ในระบบ Hadoop Distributed File :

การใช้งาน: -cat

คำสั่งการดูแลระบบ:

  • จัดรูปแบบวัตถุประสงค์ :

การใช้งาน: hadoop purpose -format

  • การเริ่มจุดประสงค์รอง:

การใช้งาน: hadoop secondrynamenode

  • ทำงานตามวัตถุประสงค์ :

การใช้งาน: วัตถุประสงค์ของ hadoop

  • วิ่ง โหนดข้อมูล :

การใช้งาน: hadoop datanode

  • การปรับสมดุลคลัสเตอร์ :

การใช้งาน: hadoop balancer

  • เรียกใช้โหนดตัวติดตามงาน MapReduce:

การใช้งาน: hadoop job tracker

จัดเรียงอาร์เรย์ใน c ++

  • เรียกใช้โหนดตัวติดตามงาน MapReduce:

การใช้งาน: hadoop tasktracker

มีคำถามสำหรับเรา? โปรดระบุไว้ในส่วนความคิดเห็นแล้วเราจะติดต่อกลับไป

กระทู้ที่เกี่ยวข้อง:

ผู้ดำเนินการใน Apache Pig