รู้เบื้องต้นเกี่ยวกับ Markov Chains:
คุณเคยสงสัยหรือไม่ว่า Google จัดอันดับหน้าเว็บอย่างไร? หากคุณได้ทำการวิจัยแล้วคุณจะต้องรู้ว่ามันใช้อัลกอริทึมเพจแรงก์ซึ่งอิงตามแนวคิดของ Markov Chains บทความเกี่ยวกับบทนำสู่ Markov Chains นี้จะช่วยให้คุณเข้าใจแนวคิดพื้นฐานที่อยู่เบื้องหลังโซ่ของ Markov และวิธีที่สามารถจำลองเป็นวิธีแก้ปัญหาในโลกแห่งความจริงได้
นี่คือรายการหัวข้อที่จะกล่าวถึง ในบล็อกนี้:
- Markov Chain คืออะไร?
- คุณสมบัติของ Markov คืออะไร?
- ทำความเข้าใจกับ Markov Chains ด้วยตัวอย่าง
- เมทริกซ์การเปลี่ยนแปลงคืออะไร?
- Markov Chain ใน Python
- การใช้งาน Markov Chain
หากต้องการรับความรู้เชิงลึกเกี่ยวกับ Data Science และ Machine Learning โดยใช้ Python คุณสามารถลงทะเบียนเพื่อถ่ายทอดสดได้ โดย Edureka พร้อมการสนับสนุนตลอด 24 ชั่วโมงทุกวันและการเข้าถึงตลอดชีวิต
Markov Chain คืออะไร?
Andrey Markov เปิดตัวโซ่ Markov เป็นครั้งแรกในปี 1906 เขาอธิบายโซ่ Markov ว่า:
กระบวนการสุ่มที่มีตัวแปรสุ่มการเปลี่ยนจากสถานะหนึ่งไปเป็นอีกสถานะหนึ่งขึ้นอยู่กับสมมติฐานบางประการและกฎความน่าจะเป็นที่แน่นอน
สุ่มเหล่านี้ ตัวแปรเปลี่ยนจากสถานะหนึ่งไปเป็นอีกสถานะหนึ่งโดยขึ้นอยู่กับคุณสมบัติทางคณิตศาสตร์ที่สำคัญที่เรียกว่า Markov ทรัพย์สิน
สิ่งนี้นำเราไปสู่คำถาม:
คุณสมบัติของ Markov คืออะไร?
คุณสมบัติเวลาไม่ต่อเนื่อง Markov ระบุว่าความน่าจะเป็นที่คำนวณได้ของกระบวนการสุ่มที่เปลี่ยนไปสู่สถานะถัดไปที่เป็นไปได้นั้นขึ้นอยู่กับสถานะและเวลาปัจจุบันเท่านั้นและไม่ขึ้นอยู่กับชุดของสถานะที่อยู่ข้างหน้า
ความจริงที่ว่าการกระทำ / สถานะต่อไปที่เป็นไปได้ของกระบวนการสุ่มไม่ได้ขึ้นอยู่กับลำดับของสถานะก่อนหน้านี้ทำให้ Markov chains เป็นกระบวนการที่ไม่ต้องใช้หน่วยความจำซึ่งขึ้นอยู่กับสถานะ / การกระทำปัจจุบันของตัวแปรเท่านั้น
มาหาสิ่งนี้ในเชิงคณิตศาสตร์:
ปล่อยให้กระบวนการสุ่มเป็น {Xm, m = 0,1,2, ⋯}
กระบวนการนี้เป็นเครือข่าย Markov ก็ต่อเมื่อ
Markov Chain - บทนำสู่ Markov Chains - Edureka
สำหรับ m, j, i, i0, i1, ⋯ im & minus1 ทั้งหมด
สำหรับสถานะจำนวน จำกัด S = {0, 1, 2, ⋯, r} จะเรียกว่า Markov chain ที่ จำกัด
P (Xm + 1 = j | Xm = i) ในที่นี้แสดงถึงความน่าจะเป็นในการเปลี่ยนแปลงเพื่อเปลี่ยนจากสถานะหนึ่งไปเป็นอีกสถานะหนึ่ง ในที่นี้เราสมมติว่าความน่าจะเป็นในการเปลี่ยนแปลงไม่ขึ้นอยู่กับเวลา
ซึ่งหมายความว่า P (Xm + 1 = j | Xm = i) ไม่ได้ขึ้นอยู่กับค่าของ ‘m’ ดังนั้นเราสามารถสรุป
Markov Chain Formula - บทนำสู่ Markov Chains - Edureka
สมการนี้จึงแสดงถึง ห่วงโซ่ Markov
ตอนนี้เรามาทำความเข้าใจกันว่า Markov chain คืออะไรพร้อมตัวอย่าง
ตัวอย่าง Markov Chain
ก่อนที่ฉันจะยกตัวอย่างให้คุณกำหนดว่า Markov Model คืออะไร:
แบบจำลอง Markov คืออะไร?
แบบจำลอง Markov เป็นแบบจำลองสุ่มที่จำลองตัวแปรสุ่มในลักษณะที่ตัวแปรเป็นไปตามคุณสมบัติของ Markov
ตอนนี้เรามาทำความเข้าใจกันว่า Markov Model ทำงานอย่างไรด้วยตัวอย่างง่ายๆ
ดังที่ได้กล่าวไว้ก่อนหน้านี้ Markov chains ถูกใช้ในการสร้างข้อความและแอปพลิเคชั่นเติมข้อความอัตโนมัติ สำหรับตัวอย่างนี้เราจะดูตัวอย่างประโยค (สุ่ม) และดูว่าสามารถสร้างแบบจำลองโดยใช้ Markov chains ได้อย่างไร
java ide ที่ดีที่สุดสำหรับ windows
ตัวอย่าง Markov Chain - บทนำสู่ Markov Chains - Edureka
ประโยคข้างต้นเป็นตัวอย่างของเราฉันรู้ว่ามันไม่สมเหตุสมผลเท่าไหร่ (ไม่จำเป็นต้อง) เป็นประโยคที่มีคำสุ่มโดยที่:
คีย์ แสดงถึงคำที่ไม่ซ้ำกันในประโยคเช่น 5 ปุ่ม (หนึ่งสองลูกเห็บมีความสุข edureka)
โทเค็น แสดงจำนวนคำทั้งหมดเช่น 8 โทเค็น
ในขั้นต่อไปเราต้องเข้าใจความถี่ของการเกิดคำเหล่านี้แผนภาพด้านล่างแสดงแต่ละคำพร้อมกับตัวเลขที่แสดงความถี่ของคำนั้น
คีย์และความถี่ - ข้อมูลเบื้องต้นเกี่ยวกับ Markov Chains - Edureka
ดังนั้นคอลัมน์ด้านซ้ายในที่นี้หมายถึงคีย์และคอลัมน์ด้านขวาหมายถึงความถี่
จากตารางด้านบนเราสามารถสรุปได้ว่าคีย์ 'edureka' มีค่าเท่ากับคีย์อื่น ๆ ถึง 4 เท่า เป็นสิ่งสำคัญที่จะต้องสรุปข้อมูลดังกล่าวเนื่องจากสามารถช่วยให้เราคาดเดาได้ว่าคำใดอาจเกิดขึ้น ณ เวลาใดเวลาหนึ่ง ถ้าฉันจะเดาเกี่ยวกับคำถัดไปในประโยคตัวอย่างฉันจะใช้คำว่า 'edureka' เนื่องจากมีโอกาสเกิดขึ้นสูงสุด
เมื่อพูดถึงความน่าจะเป็นมาตรการอื่นที่คุณต้องระวังคือ การแจกแจงแบบถ่วงน้ำหนัก
ในกรณีของเราการแจกแจงแบบถ่วงน้ำหนักสำหรับ 'edureka' คือ 50% (4/8) เนื่องจากความถี่คือ 4 จากทั้งหมด 8 โทเค็น คีย์ที่เหลือ (หนึ่งสองลูกเห็บมีความสุข) ทั้งหมดมีโอกาสเกิดขึ้น 1/8 (& asymp 13%).
เมื่อเรามีความเข้าใจเกี่ยวกับการแจกแจงแบบถ่วงน้ำหนักและความคิดว่าคำที่เจาะจงเกิดขึ้นบ่อยกว่าคำอื่น ๆ ได้อย่างไรเราสามารถดำเนินการต่อในส่วนถัดไป
การทำความเข้าใจ Markov Chains - บทนำสู่ Markov Chains - Edureka
ในรูปด้านบนฉันได้เพิ่มคำอีกสองคำซึ่งแสดงถึงจุดเริ่มต้นและจุดสิ้นสุดของประโยคคุณจะเข้าใจว่าทำไมฉันถึงทำสิ่งนี้ในส่วนด้านล่าง
ตอนนี้เรามากำหนดความถี่สำหรับคีย์เหล่านี้กัน:
อัปเดตคีย์และความถี่ - ข้อมูลเบื้องต้นเกี่ยวกับ Markov Chains - Edureka
ตอนนี้เรามาสร้างแบบจำลอง Markov กัน ดังที่ได้กล่าวไว้ก่อนหน้านี้แบบจำลอง Markov ถูกใช้เพื่อสร้างแบบจำลองตัวแปรสุ่มในสถานะหนึ่ง ๆ ในลักษณะที่สถานะในอนาคตของตัวแปรเหล่านี้ขึ้นอยู่กับสถานะปัจจุบันเท่านั้นไม่ใช่สถานะในอดีต
ดังนั้นโดยพื้นฐานแล้วในแบบจำลอง Markov ในการทำนายสถานะถัดไปเราต้องพิจารณาสถานะปัจจุบันเท่านั้น
ในแผนภาพด้านล่างคุณจะเห็นว่าแต่ละโทเค็นในประโยคของเรานำไปสู่อีกอันหนึ่งได้อย่างไร สิ่งนี้แสดงให้เห็นว่าสถานะในอนาคต (โทเค็นถัดไป) ขึ้นอยู่กับสถานะปัจจุบัน (โทเค็นปัจจุบัน) ดังนั้นนี่คือกฎพื้นฐานที่สุดใน Markov Model
แผนภาพด้านล่างแสดงให้เห็นว่ามีคู่ของโทเค็นที่แต่ละโทเค็นในคู่นำไปสู่อีกคู่หนึ่งในคู่เดียวกัน
Markov Chain Pairs - บทนำสู่ Markov Chains - Edureka
ในแผนภาพด้านล่างฉันได้สร้างการแสดงโครงสร้างที่แสดงให้เห็นแต่ละคีย์พร้อมอาร์เรย์ของโทเค็นถัดไปที่สามารถจับคู่ได้
อาร์เรย์ของ Markov Chain Pairs - บทนำสู่ Markov Chains - Edureka
ในการสรุปตัวอย่างนี้ให้พิจารณาสถานการณ์ที่คุณจะต้องสร้างประโยคโดยใช้อาร์เรย์ของคีย์และโทเค็นที่เราเห็นในตัวอย่างข้างต้น ก่อนที่เราจะดำเนินการตามตัวอย่างนี้ประเด็นสำคัญอีกประการหนึ่งคือเราต้องระบุมาตรการเริ่มต้นสองประการ:
การแจกแจงความน่าจะเป็นเริ่มต้น (เช่นสถานะเริ่มต้น ณ เวลา = 0, (คีย์ 'เริ่ม'))
ความน่าจะเป็นในการเปลี่ยนจากสถานะหนึ่งไปยังอีกสถานะหนึ่ง (ในกรณีนี้ความน่าจะเป็นของการเปลี่ยนจากโทเค็นหนึ่งไปยังอีกสถานะหนึ่ง)
เราได้กำหนดการแจกแจงแบบถ่วงน้ำหนักไว้ที่จุดเริ่มต้นแล้วดังนั้นเราจึงมีความน่าจะเป็นและสถานะเริ่มต้นตอนนี้เรามาดูตัวอย่างกัน
ดังนั้นในการเริ่มต้นด้วยโทเค็นเริ่มต้นคือ [Start]
ต่อไปเรามีโทเค็นที่เป็นไปได้เพียงอย่างเดียวนั่นคือ [หนึ่ง]
ปัจจุบันประโยคมีเพียงคำเดียวคือ 'one'
จากโทเค็นนี้โทเค็นถัดไปที่เป็นไปได้คือ [edureka]
อัปเดตประโยคเป็น 'one edureka'
จาก [edureka] เราสามารถย้ายไปยังโทเค็นใดก็ได้ต่อไปนี้ [สอง, ลูกเห็บ, มีความสุข, จบ]
มีโอกาส 25% ที่ 'สองคน' จะถูกเลือกซึ่งอาจส่งผลให้เกิดประโยคเดิม (edureka two edureka hail edureka happy edureka) อย่างไรก็ตามหากเลือก 'end' กระบวนการจะหยุดและเราจะสร้างประโยคใหม่ขึ้นมานั่นคือ 'one edureka'
ตบหลังตัวเองเพราะคุณเพิ่งสร้าง Markov Model และดำเนินกรณีทดสอบผ่านมัน เพื่อสรุปตัวอย่างข้างต้นโดยพื้นฐานแล้วเราใช้สถานะปัจจุบัน (คำปัจจุบัน) เพื่อกำหนดสถานะถัดไป (คำถัดไป) และนั่นคือกระบวนการของ Markov
ความแตกต่างระหว่าง html และ xml คืออะไร
เป็นกระบวนการสุ่มที่ตัวแปรสุ่มเปลี่ยนจากสถานะหนึ่งไปเป็นอีกสถานะหนึ่งในลักษณะที่สถานะในอนาคตของตัวแปรขึ้นอยู่กับสถานะปัจจุบันเท่านั้น
เข้าสู่ขั้นตอนต่อไปและวาด Markov Model สำหรับตัวอย่างนี้
แผนภาพการเปลี่ยนสถานะ - บทนำสู่ Markov Chains - Edureka
รูปด้านบนเรียกว่าแผนภาพการเปลี่ยนสถานะ เราจะพูดถึงเรื่องนี้เพิ่มเติมในส่วนด้านล่างในตอนนี้โปรดจำไว้ว่าแผนภาพนี้แสดงการเปลี่ยนผ่านและความน่าจะเป็นจากสถานะหนึ่งไปยังอีกสถานะหนึ่ง
สังเกตว่าวงรีแต่ละวงในรูปแสดงถึงคีย์และลูกศรจะพุ่งตรงไปยังคีย์ที่เป็นไปได้ที่สามารถตามมาได้ นอกจากนี้น้ำหนักของลูกศรยังแสดงถึง ความน่าจะเป็นหรือการแจกแจงแบบถ่วงน้ำหนักของการเปลี่ยนจาก / ไปยังสถานะที่เกี่ยวข้อง
นั่นคือทั้งหมดที่เกี่ยวกับวิธีการทำงานของ Markov Model ตอนนี้เรามาทำความเข้าใจกับคำศัพท์ที่สำคัญบางประการในกระบวนการ Markov
เมทริกซ์ความน่าจะเป็นการเปลี่ยนแปลงคืออะไร?
ในส่วนข้างต้นเราได้กล่าวถึงการทำงานของแบบจำลอง Markov ด้วยตัวอย่างง่ายๆตอนนี้เรามาทำความเข้าใจกับคำศัพท์ทางคณิตศาสตร์ในกระบวนการ Markov
ในกระบวนการ Markov เราใช้เมทริกซ์เพื่อแสดงความน่าจะเป็นในการเปลี่ยนแปลงจากสถานะหนึ่งไปยังอีกสถานะหนึ่ง เมทริกซ์นี้เรียกว่าทรานซิชั่นหรือเมทริกซ์ความน่าจะเป็น มักจะแสดงโดย P.
Transition Matrix - บทนำสู่ Markov Chains - Edureka
หมายเหตุ pij & ge0 และ 'i' สำหรับค่าทั้งหมดคือ
สูตรเมทริกซ์การเปลี่ยน - บทนำสู่ Markov Chains - Edureka
ให้ฉันอธิบายสิ่งนี้ สมมติว่าสถานะปัจจุบันของเราคือ 'i' รัฐถัดไปหรือที่กำลังจะเกิดขึ้นจะต้องเป็นหนึ่งในสถานะที่เป็นไปได้ ดังนั้นในขณะที่หาผลรวมของค่าทั้งหมดของ k เราต้องได้ค่าหนึ่ง
แผนภาพการเปลี่ยนสถานะคืออะไร?
แบบจำลอง Markov แสดงโดย State Transition Diagram แผนภาพแสดงการเปลี่ยนแปลงระหว่างสถานะต่างๆใน Markov Chain มาทำความเข้าใจเมทริกซ์การเปลี่ยนสถานะและเมทริกซ์การเปลี่ยนสถานะด้วยตัวอย่าง
ตัวอย่างการเปลี่ยนเมทริกซ์
พิจารณาห่วงโซ่ Markov ที่มีสามสถานะ 1, 2 และ 3 และความน่าจะเป็นต่อไปนี้:
ตัวอย่าง Transition Matrix - บทนำสู่ Markov Chains - Edureka
ตัวอย่างแผนภาพการเปลี่ยนสถานะ - บทนำสู่ Markov Chains - Edureka
แผนภาพด้านบนแสดงถึงแผนภาพการเปลี่ยนสถานะสำหรับห่วงโซ่ Markov ที่นี่ 1,2 และ 3 เป็นสามสถานะที่เป็นไปได้และลูกศรที่ชี้จากสถานะหนึ่งไปยังอีกสถานะหนึ่งแสดงถึงความน่าจะเป็นในการเปลี่ยนแปลง เมื่อ pij = 0 หมายความว่าไม่มีการเปลี่ยนระหว่าง state 'i' และ state 'j'
ตอนนี้ที่เรา รู้คณิตศาสตร์และตรรกะที่อยู่เบื้องหลังโซ่ของ Markov เรามาสาธิตง่ายๆและทำความเข้าใจว่าจะใช้โซ่ของ Markov ได้ที่ไหน
Markov Chain ใน Python
ในการเรียกใช้การสาธิตนี้ฉันจะใช้ Python ดังนั้นหากคุณไม่รู้จัก Python คุณสามารถอ่านบล็อกต่อไปนี้:
มาเริ่มต้นด้วยการเขียนโค้ดกันเลย!
Markov Chain Text Generator
คำชี้แจงปัญหา: เพื่อใช้ Markov Property และสร้าง Markov Model ที่สามารถสร้างการจำลองข้อความโดยศึกษาชุดข้อมูลคำพูดของ Donald Trump
คำอธิบายชุดข้อมูล: ไฟล์ข้อความประกอบด้วยรายการสุนทรพจน์ของ Donald Trump ในปี 2559
ตรรกะ: ใช้ Markov Property เพื่อสร้างคำพูดของ Donald’s Trump โดยพิจารณาแต่ละคำที่ใช้ในการพูดและสำหรับแต่ละคำสร้างพจนานุกรมคำที่จะใช้ถัดไป
ขั้นตอนที่ 1: นำเข้าแพ็คเกจที่ต้องการ
นำเข้า numpy เป็น np
ขั้นตอนที่ 2: อ่านชุดข้อมูล
trump = open ('C: //Users//NeelTemp//Desktop//demos//speeches.txt', encoding = 'utf8'). read () #display the data print (trump) SPEECH 1 ... Thank คุณมาก ดีมาก เขาไม่ใช่ผู้ชายที่ยอดเยี่ยม เขาไม่ได้รับความยุติธรรมเขาไม่ได้รับมัน มันไม่ยุติธรรม และฉันต้องบอกคุณว่าฉันอยู่ที่นี่และเป็นอย่างยิ่งที่นี่เพราะฉันเคารพสตีฟคิงเป็นอย่างมากและยังให้ความเคารพอย่างสูงต่อ Citizens United, David และทุกๆคนรวมถึงการก่อตั้งงานเลี้ยงน้ำชาอย่างมาก นอกจากนี้ชาวไอโอวาด้วย พวกเขามีบางอย่างที่เหมือนกัน คนขยัน ....
ขั้นตอนที่ 3: แยกชุดข้อมูลออกเป็นแต่ละคำ
corpus = trump.split () # แสดงภาพพิมพ์คลังข้อมูล (คลังข้อมูล) 'ทรงพลัง,', 'แต่', 'ไม่', 'ทรงพลัง', 'ชอบ', 'เรา', 'อิหร่าน', 'มี', ' เพาะเมล็ด ',' ความหวาดกลัว ', ...
จากนั้นสร้างฟังก์ชันที่สร้างคู่คำต่างๆในสุนทรพจน์ เพื่อประหยัดพื้นที่เราจะใช้วัตถุตัวสร้าง
ขั้นตอนที่ 4: การสร้างคู่กับคีย์และคำต่อท้าย
def make_pairs (คลังข้อมูล): สำหรับฉันในช่วง (len (คลังข้อมูล) - 1): ผลตอบแทน (คลัง [i], คลังข้อมูล [i + 1]) คู่ = make_pairs (คลังข้อมูล)
ต่อไปมาเริ่มต้นพจนานุกรมว่าง ๆ เพื่อจัดเก็บคำคู่กัน
ในกรณีที่คำแรกในคู่นั้นเป็นกุญแจสำคัญในพจนานุกรมอยู่แล้วให้ต่อท้ายคำที่เป็นไปได้ถัดไปในรายการคำที่ตามหลังคำนั้น แต่ถ้าคำนั้นไม่ใช่คีย์ให้สร้างรายการใหม่ในพจนานุกรมและกำหนดคีย์ให้เท่ากับคำแรกในคู่
ขั้นตอนที่ 5: ต่อท้ายพจนานุกรม
word_dict = {} สำหรับ word_1, word_2 เป็นคู่: ถ้า word_1 ใน word_dict.keys (): word_dict [word_1] .append (word_2) else: word_dict [word_1] = [word_2]
ต่อไปเราสุ่มเลือกคำจากคลังข้อมูลซึ่งจะเริ่มต้นเครือข่าย Markov
ขั้นตอนที่ 6: สร้างแบบจำลอง Markov
#randomly เลือกคำแรก first_word = np.random.choice (คลังข้อมูล) # เลือกคำแรกเป็นคำที่ใช้ตัวพิมพ์ใหญ่เพื่อไม่ให้คำที่เลือกถูกนำมาระหว่างประโยคในขณะที่ first_word.islower (): #Start the chain from โซ่คำที่เลือก = [first_word] # เริ่มต้นจำนวนคำที่ถูกกระตุ้น n_words = 20
หลังจากคำแรกแต่ละคำในห่วงโซ่จะสุ่มตัวอย่างแบบสุ่มจากรายการคำที่ตามคำเฉพาะนั้นในสุนทรพจน์สดของทรัมป์ สิ่งนี้แสดงในข้อมูลโค้ดด้านล่าง:
สำหรับฉันในช่วง (n_words): chain.append (np.random.choice (word_dict [chain [-1]]))
ขั้นตอนที่ 7: การคาดการณ์
สุดท้ายมาแสดงข้อความกระตุ้น
#Join ส่งคืนห่วงโซ่เป็นพิมพ์สตริง ('.join (chain)) จำนวนคนที่เหลือเชื่อ และฮิลลารีคลินตันมีบุคลากรของเราและงานที่ยอดเยี่ยมเช่นนี้ และเราจะไม่เอาชนะโอบามา
นี่คือข้อความที่สร้างขึ้นโดยพิจารณาจากสุนทรพจน์ของทรัมป์ อาจไม่สมเหตุสมผล แต่ก็ดีพอที่จะทำให้คุณเข้าใจว่า Markov Chains สามารถใช้สร้างข้อความโดยอัตโนมัติได้อย่างไร
ตอนนี้เรามาดูแอปพลิเคชันเพิ่มเติมกัน ของเครือข่าย Markov และวิธีใช้เพื่อแก้ปัญหาในโลกแห่งความเป็นจริง
การใช้งาน Markov Chain
รายการแอปพลิเคชัน Markov Chains ในโลกแห่งความเป็นจริงมีดังนี้
Google PageRank: ทั้งเว็บสามารถคิดได้ว่าเป็นแบบจำลอง Markov ซึ่งทุกหน้าเว็บสามารถเป็นสถานะและลิงก์หรือการอ้างอิงระหว่างหน้าเหล่านี้สามารถคิดได้ว่าเป็นการเปลี่ยนผ่านที่มีความน่าจะเป็น โดยพื้นฐานแล้วไม่ว่าคุณจะเริ่มท่องเว็บใดโอกาสที่จะไปยังหน้าเว็บหนึ่งกล่าวว่า X เป็นความน่าจะเป็นคงที่
การพิมพ์คำทำนาย: เป็นที่ทราบกันดีว่า Markov Chains ใช้สำหรับทำนายคำที่จะเกิดขึ้น นอกจากนี้ยังสามารถใช้ในการเติมข้อความอัตโนมัติและคำแนะนำ
การจำลอง Subreddit: แน่นอนว่าคุณได้พบกับ Reddit และมีปฏิสัมพันธ์กับหนึ่งในเธรดหรือซับเครดิตของพวกเขา Reddit ใช้โปรแกรมจำลอง subreddit ที่ใช้ข้อมูลจำนวนมากที่มีความคิดเห็นและการอภิปรายทั้งหมดที่จัดขึ้นในกลุ่มของพวกเขา ด้วยการใช้ Markov Chains เครื่องจำลองจะสร้างความน่าจะเป็นแบบคำต่อคำเพื่อสร้างข้อคิดเห็นและหัวข้อต่างๆ
ตัวสร้างข้อความ: โซ่ Markov มักใช้ในการสร้างตำราจำลองหรือสร้างบทความขนาดใหญ่และรวบรวมสุนทรพจน์ นอกจากนี้ยังใช้ในเครื่องกำเนิดไฟฟ้าชื่อที่คุณเห็นบนเว็บ
ตอนนี้คุณรู้วิธีแก้ปัญหาในโลกแห่งความเป็นจริงโดยใช้ Markov Chains แล้วฉันแน่ใจว่าคุณอยากเรียนรู้เพิ่มเติม นี่คือรายการบล็อกที่จะช่วยให้คุณเริ่มต้นกับแนวคิดทางสถิติอื่น ๆ :
ด้วยเหตุนี้เราจึงมาถึงจุดสิ้นสุดของบล็อก Introduction To Markov Chains นี้ หากคุณมีข้อสงสัยเกี่ยวกับหัวข้อนี้โปรดแสดงความคิดเห็นไว้ด้านล่างแล้วเราจะติดต่อกลับไป
คอยติดตามบล็อกเพิ่มเติมเกี่ยวกับเทคโนโลยีที่กำลังมาแรง
หากคุณกำลังมองหาการฝึกอบรมเชิงโครงสร้างออนไลน์ในด้านวิทยาศาสตร์ข้อมูล edureka! มีการดูแลเป็นพิเศษ โปรแกรมที่ช่วยให้คุณมีความเชี่ยวชาญในด้านสถิติการรวบรวมข้อมูลการวิเคราะห์ข้อมูลเชิงสำรวจอัลกอริทึมการเรียนรู้ของเครื่องเช่นการจัดกลุ่ม K-Means ต้นไม้การตัดสินใจป่าสุ่ม Naive Bayes คุณจะได้เรียนรู้แนวคิดของอนุกรมเวลาการขุดข้อความและการเรียนรู้เชิงลึกเบื้องต้นด้วย ชุดใหม่สำหรับหลักสูตรนี้กำลังจะเริ่มเร็ว ๆ นี้ !!