ถือเป็นข้อกังวลหลักเมื่อต้องจัดการกับข้อมูลที่เป็นความลับ การเป็นผู้ที่เหนือกว่าในการดำเนินการจัดการข้อมูลก็ประสบปัญหาเดียวกันเช่นกัน ไม่มีความปลอดภัยเฉพาะของตัวเอง แจ้งให้เราทราบว่าปัญหานี้ได้รับการแก้ไขอย่างไร Hadoop Security บทความ.
ทำไมเราถึงต้องการ Hadoop Security?
เป็นเฟรมเวิร์กการประมวลผลข้อมูลขนาดใหญ่ที่มีประสิทธิภาพแข็งแกร่งและปรับขนาดได้สูงมากพอที่จะทำได้ กระทืบข้อมูลเพตะไบต์ ได้อย่างง่ายดาย เนื่องจากความสามารถที่ไม่มีใครเทียบได้ในตอนนั้นทุกภาคธุรกิจหน่วยงานด้านสุขภาพการทหารและการเงินจึงเริ่มใช้ Hadoop
Hadoop เริ่มได้รับความนิยม นี่คือตอนที่นักพัฒนา Hadoop พบไฟล์ การคำนวณผิดที่ยิ่งใหญ่ Hadoop ไม่มีซอฟต์แวร์รักษาความปลอดภัยโดยเฉพาะ ข้างในนั้น สิ่งนี้ส่งผลกระทบต่อหลายพื้นที่ที่ Hadoop ใช้งานอยู่
ภาคธุรกิจหลายแห่ง
ความมั่นคงแห่งชาติ
หน่วยงานด้านสุขภาพและการแพทย์
สื่อสังคม
ทหาร
พื้นที่ดังกล่าวข้างต้นเป็นผู้ใช้งาน Hadoop รายใหญ่ ตอนนี้ ความปลอดภัย ถือเป็นการก้าวกระโดดครั้งสำคัญที่ Hadoop ต้องดำเนินการ
Hadoop Security คืออะไร?
Hadoop Security โดยทั่วไปจะกำหนดเป็นขั้นตอนในการ ปลอดภัย หน่วยจัดเก็บข้อมูล Hadoop โดยนำเสนอกำแพงความปลอดภัยที่ไม่สามารถเข้าถึงได้จากภัยคุกคามทางไซเบอร์ที่อาจเกิดขึ้น Hadoop บรรลุกำแพงความปลอดภัยที่มีความสามารถสูงนี้ได้โดยทำตามด้านล่าง โปรโตคอลความปลอดภัย
การรับรองความถูกต้อง
ความแตกต่างระหว่างหุ่นกับเชฟ
การรับรองความถูกต้อง เป็นขั้นตอนแรกที่มีการยืนยันข้อมูลรับรองของผู้ใช้ โดยทั่วไปข้อมูลรับรองจะรวมถึงข้อมูลเฉพาะของผู้ใช้ ชื่อผู้ใช้ และก รหัสผ่านลับ ป้อนข้อมูลรับรองจะถูกตรวจสอบเทียบกับรายละเอียดที่มีอยู่ในฐานข้อมูลความปลอดภัย หากถูกต้องผู้ใช้จะเป็น รับรองความถูกต้อง
การอนุญาต
การอนุญาต เป็นขั้นตอนที่สองที่ระบบจะตัดสินใจว่าจะให้สิทธิ์แก่ผู้ใช้ในการเข้าถึงข้อมูลหรือไม่ ขึ้นอยู่กับรายการควบคุมการเข้าถึงที่กำหนดไว้ล่วงหน้า ความลับข้อมูลจะถูกเก็บไว้อย่างปลอดภัยและเท่านั้น บุคลากรที่ได้รับอนุญาต สามารถเข้าถึงได้
การตรวจสอบบัญชี
การตรวจสอบบัญชี เป็นขั้นตอนสุดท้ายเพียงแค่ติดตามการดำเนินการที่ดำเนินการโดยผู้ใช้ที่ได้รับการรับรองความถูกต้องในช่วงที่เขาเข้าสู่ระบบคลัสเตอร์ นี่คือทำเพื่อ ความปลอดภัย วัตถุประสงค์เท่านั้น
ประเภทของ Hadoop Security
- Kerberos Security
Kerberos เป็นหนึ่งใน Network Authentication Protocol ชั้นนำที่ออกแบบมาเพื่อให้บริการตรวจสอบสิทธิ์ที่มีประสิทธิภาพแก่ทั้งสอง เซิร์ฟเวอร์ และ ลูกค้าสิ้นสุด ผ่าน รหัสลับ เทคนิคการเข้ารหัส ได้รับการพิสูจน์แล้วว่ามีความปลอดภัยสูงเนื่องจากใช้ตั๋วบริการที่เข้ารหัสตลอดทั้งเซสชัน
- การเข้ารหัส HDFS
การเข้ารหัส HDFS เป็นความก้าวหน้าที่น่ากลัวที่ Hadoop เคยยอมรับ ที่นี่ข้อมูลจาก แหล่งที่มา ถึง ปลายทาง (HDFS) ได้รับการเข้ารหัสอย่างสมบูรณ์ ขั้นตอนนี้ไม่จำเป็นต้องทำการเปลี่ยนแปลงใด ๆ กับแอปพลิเคชัน Hadoop ดั้งเดิมทำให้ไฟล์ ลูกค้า เป็นบุคลากรที่ได้รับอนุญาตเท่านั้น เข้าไป ข้อมูล.
การเข้ารหัสการรับส่งข้อมูล
การเข้ารหัสการรับส่งข้อมูล ไม่ใช่ใครอื่นนอกจาก HTTPS (HyperText Transfer Protocol Secure) ขั้นตอนนี้ใช้เพื่อรักษาความปลอดภัยในการรับส่งข้อมูล จากเว็บไซต์ เช่นเดียวกับ การส่งข้อมูลไปยังเว็บไซต์ . เกตเวย์ธนาคารออนไลน์ส่วนใหญ่ใช้วิธีนี้เพื่อรักษาความปลอดภัยในการทำธุรกรรมผ่านไฟล์ ใบรับรองความปลอดภัย
ไฟล์ HDFS และสิทธิ์ไดเรกทอรี
สิทธิ์ไดเร็กทอรีไฟล์ HDFS ทำงานอย่างเรียบง่าย POSIX รูปแบบ. อ่าน และ เขียน มีการให้สิทธิ์เป็น ร และ s ตามลำดับ สิทธิ์ในไฟล์ ผู้ใช้ขั้นสูง และ ลูกค้า ถูกตั้งค่าแตกต่างกันไปตามการรักษาความลับของไฟล์
Kerberos
Kerberos เป็นหนึ่งในเครือข่ายที่ง่ายและปลอดภัยที่สุด โปรโตคอลการพิสูจน์ตัวตน Hadoop ใช้เพื่อความปลอดภัยของข้อมูลและเครือข่าย มันถูกคิดค้นโดย ด้วย. วัตถุประสงค์หลักของ Kerberos คือการขจัดความจำเป็นในการแลกเปลี่ยนรหัสผ่านผ่านเครือข่ายและเพื่อรักษาความปลอดภัยเครือข่ายจากศักยภาพใด ๆ การดมกลิ่นทางไซเบอร์
เพื่อทำความเข้าใจคำศัพท์ของ Kerberos ก่อนอื่นเราต้องเรียนรู้เกี่ยวกับส่วนประกอบที่เกี่ยวข้องกับซอฟต์แวร์ Kerberos
KDC หรือศูนย์กระจายคีย์คือหัวใจของ Kerberos ส่วนใหญ่ประกอบด้วยสามองค์ประกอบ ได้แก่ :
ฐานข้อมูล
ฐานข้อมูล จัดเก็บข้อมูลรับรองผู้ใช้เช่น ชื่อผู้ใช้ และตามลำดับ รหัสผ่าน นอกจากนี้ยังเก็บไฟล์ เข้าถึงสิทธิ์ที่เหมาะสม ให้กับผู้ใช้ หน่วย Kerberos KDC ยังเก็บข้อมูลเพิ่มเติมเช่น คีย์การเข้ารหัสความถูกต้องของตั๋ว เป็นต้น
เซิร์ฟเวอร์การรับรองความถูกต้อง
ข้อมูลรับรองผู้ใช้ที่ป้อนจะถูกตรวจสอบข้าม หากถูกต้องไฟล์ เซิร์ฟเวอร์การรับรองความถูกต้อง จะให้ TGT หรือ ตั๋วสร้างตั๋ว สามารถสร้าง TGT ได้ก็ต่อเมื่อผู้ใช้เข้ามา ข้อมูลรับรองที่ถูกต้อง
เซิร์ฟเวอร์ให้ตั๋ว
ขั้นตอนต่อไปคือ TGS หรือ เซิร์ฟเวอร์ให้ตั๋ว โดยพื้นฐานแล้วเป็นแอปพลิเคชันเซิร์ฟเวอร์ของ KDC ซึ่งจะให้ไฟล์ ตั๋วบริการ. ผู้ใช้จำเป็นต้องใช้ตั๋วบริการในการโต้ตอบกับ Hadoop และรับบริการที่ต้องการหรือเพื่อดำเนินการกับ Hadoop
คุณสามารถติดตั้ง Kerberos โดยใช้คำสั่งต่อไปนี้:
sudo apt-get ติดตั้ง krb5-kdc krb5-admin-server
ตอนนี้ให้เราสมมติว่าคุณต้องการเข้าถึงคลัสเตอร์ Hadoop ที่ปลอดภัยของ Kerberos คุณต้องทำตามขั้นตอนต่อไปนี้เพื่อเข้าถึงคลัสเตอร์ Hadoop ตามที่อธิบายไว้ในขั้นตอนด้านล่าง:
คุณต้องได้รับ การรับรองความถูกต้อง ของคลัสเตอร์ Hadoop คุณสามารถรับรองความถูกต้องได้โดยดำเนินการ Kinit คำสั่งบน Hadoop Cluster
Kinit root / admin
Kinit การดำเนินการคำสั่งจะเปลี่ยนเส้นทางคุณไปยังไฟล์ ข้อมูลรับรองการเข้าสู่ระบบ หน้าที่คุณคาดว่าจะเข้าสู่ไฟล์ ชื่อผู้ใช้ และ รหัสผ่าน
Kinit จะส่งไฟล์ คำขอรับรองความถูกต้อง ไปที่ เซิร์ฟเวอร์การรับรองความถูกต้อง
หากข้อมูลประจำตัวของคุณคือ ถูกต้อง, จากนั้น Authentication Server จะตอบสนองด้วยไฟล์ ตั๋วสร้างตั๋ว (TGT)
Kinit จะจัดเก็บไฟล์ TGT ในข้อมูลรับรองของคุณ แคช หน่วยความจำ คำสั่งต่อไปนี้จะช่วยให้คุณอ่านข้อมูลรับรองของคุณ
klist
ตอนนี้คุณได้รับรองความถูกต้องในไฟล์ KDS.
ก่อนที่คุณจะเข้าถึงคลัสเตอร์ Hadoop คุณต้องตั้งค่าไคลเอนต์ Kerberos โดยใช้คำสั่งต่อไปนี้
sudo apt-get ติดตั้ง krb5-user libpam-krb5 libpam-ccreds auth-client-config
ตอนนี้คุณพยายามเรียกใช้ไฟล์ คำสั่ง Hadoop นั่นคือก ไคลเอ็นต์ Hadoop
ไคลเอ็นต์ Hadoop จะใช้ไฟล์ TGT และคำขอ TGS เพื่อขออนุมัติ
TGS จะอนุมัติคำขอและจะให้ไฟล์ ตั๋วบริการ.
นี้ ตั๋วบริการ จะถูกแคชโดยไฟล์ ไคลเอ็นต์ Hadoop
นี้ ตั๋วบริการ จะถูกใช้โดยไคลเอ็นต์ Hadoop เพื่อ สื่อสาร ด้วย Hadoop Namenode.
Namenode จะระบุตัวเองด้วย ตั๋ว.
ทั้ง ตั๋ว Namenode และ Hadoop Client ตั๋วบริการ จะถูกตรวจสอบข้ามซึ่งกันและกัน
ทั้งคู่ต้องแน่ใจว่ากำลังสื่อสารกับไฟล์ นิติบุคคลที่รับรองความถูกต้อง
นี้เรียกว่า การรับรองความถูกต้องร่วมกัน
ขั้นตอนต่อไปคือ การอนุญาต Namenode จะให้ไฟล์ บริการ ซึ่งคุณได้รับไฟล์ การอนุญาต
สุดท้ายขั้นตอนสุดท้ายคือ การตรวจสอบบัญชี. นี่คือไฟล์ กิจกรรม จะ เข้าสู่ระบบ สำหรับ วัตถุประสงค์ด้านความปลอดภัย
ด้วยเหตุนี้เราจึงมาถึงจุดสิ้นสุดของบทความนี้ . ฉันหวังว่าฉันจะช่วยให้ความรู้ของคุณเกี่ยวกับ Hadoop Security
เมื่อคุณเข้าใจ Hadoop และความปลอดภัยแล้วให้ตรวจสอบไฟล์ โดย Edureka บริษัท การเรียนรู้ออนไลน์ที่เชื่อถือได้ซึ่งมีเครือข่ายผู้เรียนที่พึงพอใจมากกว่า 250,000 คนกระจายอยู่ทั่วโลก หลักสูตรการฝึกอบรม Edureka Big Data Hadoop Certification ช่วยให้ผู้เรียนมีความเชี่ยวชาญใน HDFS, Yarn, MapReduce , Pig, Hive, HBase, Oozie, Flume และ Sqoop โดยใช้กรณีการใช้งานแบบเรียลไทม์ในโดเมนค้าปลีกโซเชียลมีเดียการบินการท่องเที่ยวการเงิน
หากคุณมีข้อสงสัยใด ๆ ที่เกี่ยวข้องกับเรื่องนี้ “ Hadoop Security” จากนั้นโปรดเขียนถึงเราในส่วนความคิดเห็นด้านล่างและเราจะตอบกลับคุณโดยเร็วที่สุด