บทนำสู่ Markov Chains พร้อมตัวอย่าง - Markov Chains กับ Python



บทความเกี่ยวกับบทนำสู่ Markov Chains นี้จะช่วยให้คุณเข้าใจแนวคิดพื้นฐานเบื้องหลัง Markov Chains และวิธีสร้างโมเดลโดยใช้ Python

รู้เบื้องต้นเกี่ยวกับ Markov Chains:

คุณเคยสงสัยหรือไม่ว่า Google จัดอันดับหน้าเว็บอย่างไร? หากคุณได้ทำการวิจัยแล้วคุณจะต้องรู้ว่ามันใช้อัลกอริทึมเพจแรงก์ซึ่งอิงตามแนวคิดของ Markov Chains บทความเกี่ยวกับบทนำสู่ Markov Chains นี้จะช่วยให้คุณเข้าใจแนวคิดพื้นฐานที่อยู่เบื้องหลังโซ่ของ Markov และวิธีที่สามารถจำลองเป็นวิธีแก้ปัญหาในโลกแห่งความจริงได้

นี่คือรายการหัวข้อที่จะกล่าวถึง ในบล็อกนี้:





  1. Markov Chain คืออะไร?
  2. คุณสมบัติของ Markov คืออะไร?
  3. ทำความเข้าใจกับ Markov Chains ด้วยตัวอย่าง
  4. เมทริกซ์การเปลี่ยนแปลงคืออะไร?
  5. Markov Chain ใน Python
  6. การใช้งาน Markov Chain

หากต้องการรับความรู้เชิงลึกเกี่ยวกับ Data Science และ Machine Learning โดยใช้ Python คุณสามารถลงทะเบียนเพื่อถ่ายทอดสดได้ โดย Edureka พร้อมการสนับสนุนตลอด 24 ชั่วโมงทุกวันและการเข้าถึงตลอดชีวิต

Markov Chain คืออะไร?

Andrey Markov เปิดตัวโซ่ Markov เป็นครั้งแรกในปี 1906 เขาอธิบายโซ่ Markov ว่า:



กระบวนการสุ่มที่มีตัวแปรสุ่มการเปลี่ยนจากสถานะหนึ่งไปเป็นอีกสถานะหนึ่งขึ้นอยู่กับสมมติฐานบางประการและกฎความน่าจะเป็นที่แน่นอน

สุ่มเหล่านี้ ตัวแปรเปลี่ยนจากสถานะหนึ่งไปเป็นอีกสถานะหนึ่งโดยขึ้นอยู่กับคุณสมบัติทางคณิตศาสตร์ที่สำคัญที่เรียกว่า Markov ทรัพย์สิน

สิ่งนี้นำเราไปสู่คำถาม:



คุณสมบัติของ Markov คืออะไร?

คุณสมบัติเวลาไม่ต่อเนื่อง Markov ระบุว่าความน่าจะเป็นที่คำนวณได้ของกระบวนการสุ่มที่เปลี่ยนไปสู่สถานะถัดไปที่เป็นไปได้นั้นขึ้นอยู่กับสถานะและเวลาปัจจุบันเท่านั้นและไม่ขึ้นอยู่กับชุดของสถานะที่อยู่ข้างหน้า

ความจริงที่ว่าการกระทำ / สถานะต่อไปที่เป็นไปได้ของกระบวนการสุ่มไม่ได้ขึ้นอยู่กับลำดับของสถานะก่อนหน้านี้ทำให้ Markov chains เป็นกระบวนการที่ไม่ต้องใช้หน่วยความจำซึ่งขึ้นอยู่กับสถานะ / การกระทำปัจจุบันของตัวแปรเท่านั้น

มาหาสิ่งนี้ในเชิงคณิตศาสตร์:

ปล่อยให้กระบวนการสุ่มเป็น {Xm, m = 0,1,2, ⋯}

กระบวนการนี้เป็นเครือข่าย Markov ก็ต่อเมื่อ

Markov Chain Formula - บทนำสู่ Markov Chains - Edureka

Markov Chain - บทนำสู่ Markov Chains - Edureka

สำหรับ m, j, i, i0, i1, ⋯ im & minus1 ทั้งหมด

สำหรับสถานะจำนวน จำกัด S = {0, 1, 2, ⋯, r} จะเรียกว่า Markov chain ที่ จำกัด

P (Xm + 1 = j | Xm = i) ในที่นี้แสดงถึงความน่าจะเป็นในการเปลี่ยนแปลงเพื่อเปลี่ยนจากสถานะหนึ่งไปเป็นอีกสถานะหนึ่ง ในที่นี้เราสมมติว่าความน่าจะเป็นในการเปลี่ยนแปลงไม่ขึ้นอยู่กับเวลา

ซึ่งหมายความว่า P (Xm + 1 = j | Xm = i) ไม่ได้ขึ้นอยู่กับค่าของ ‘m’ ดังนั้นเราสามารถสรุป

Markov Chain Formula - บทนำสู่ Markov Chains - Edureka

สมการนี้จึงแสดงถึง ห่วงโซ่ Markov

ตอนนี้เรามาทำความเข้าใจกันว่า Markov chain คืออะไรพร้อมตัวอย่าง

ตัวอย่าง Markov Chain

ก่อนที่ฉันจะยกตัวอย่างให้คุณกำหนดว่า Markov Model คืออะไร:

แบบจำลอง Markov คืออะไร?

แบบจำลอง Markov เป็นแบบจำลองสุ่มที่จำลองตัวแปรสุ่มในลักษณะที่ตัวแปรเป็นไปตามคุณสมบัติของ Markov

ตอนนี้เรามาทำความเข้าใจกันว่า Markov Model ทำงานอย่างไรด้วยตัวอย่างง่ายๆ

ดังที่ได้กล่าวไว้ก่อนหน้านี้ Markov chains ถูกใช้ในการสร้างข้อความและแอปพลิเคชั่นเติมข้อความอัตโนมัติ สำหรับตัวอย่างนี้เราจะดูตัวอย่างประโยค (สุ่ม) และดูว่าสามารถสร้างแบบจำลองโดยใช้ Markov chains ได้อย่างไร

java ide ที่ดีที่สุดสำหรับ windows

ตัวอย่าง Markov Chain - บทนำสู่ Markov Chains - Edureka

ประโยคข้างต้นเป็นตัวอย่างของเราฉันรู้ว่ามันไม่สมเหตุสมผลเท่าไหร่ (ไม่จำเป็นต้อง) เป็นประโยคที่มีคำสุ่มโดยที่:

  1. คีย์ แสดงถึงคำที่ไม่ซ้ำกันในประโยคเช่น 5 ปุ่ม (หนึ่งสองลูกเห็บมีความสุข edureka)

  2. โทเค็น แสดงจำนวนคำทั้งหมดเช่น 8 โทเค็น

ในขั้นต่อไปเราต้องเข้าใจความถี่ของการเกิดคำเหล่านี้แผนภาพด้านล่างแสดงแต่ละคำพร้อมกับตัวเลขที่แสดงความถี่ของคำนั้น

คีย์และความถี่ - ข้อมูลเบื้องต้นเกี่ยวกับ Markov Chains - Edureka

ดังนั้นคอลัมน์ด้านซ้ายในที่นี้หมายถึงคีย์และคอลัมน์ด้านขวาหมายถึงความถี่

จากตารางด้านบนเราสามารถสรุปได้ว่าคีย์ 'edureka' มีค่าเท่ากับคีย์อื่น ๆ ถึง 4 เท่า เป็นสิ่งสำคัญที่จะต้องสรุปข้อมูลดังกล่าวเนื่องจากสามารถช่วยให้เราคาดเดาได้ว่าคำใดอาจเกิดขึ้น ณ เวลาใดเวลาหนึ่ง ถ้าฉันจะเดาเกี่ยวกับคำถัดไปในประโยคตัวอย่างฉันจะใช้คำว่า 'edureka' เนื่องจากมีโอกาสเกิดขึ้นสูงสุด

เมื่อพูดถึงความน่าจะเป็นมาตรการอื่นที่คุณต้องระวังคือ การแจกแจงแบบถ่วงน้ำหนัก

ในกรณีของเราการแจกแจงแบบถ่วงน้ำหนักสำหรับ 'edureka' คือ 50% (4/8) เนื่องจากความถี่คือ 4 จากทั้งหมด 8 โทเค็น คีย์ที่เหลือ (หนึ่งสองลูกเห็บมีความสุข) ทั้งหมดมีโอกาสเกิดขึ้น 1/8 (& asymp 13%).

เมื่อเรามีความเข้าใจเกี่ยวกับการแจกแจงแบบถ่วงน้ำหนักและความคิดว่าคำที่เจาะจงเกิดขึ้นบ่อยกว่าคำอื่น ๆ ได้อย่างไรเราสามารถดำเนินการต่อในส่วนถัดไป

การทำความเข้าใจ Markov Chains - บทนำสู่ Markov Chains - Edureka

ในรูปด้านบนฉันได้เพิ่มคำอีกสองคำซึ่งแสดงถึงจุดเริ่มต้นและจุดสิ้นสุดของประโยคคุณจะเข้าใจว่าทำไมฉันถึงทำสิ่งนี้ในส่วนด้านล่าง

ตอนนี้เรามากำหนดความถี่สำหรับคีย์เหล่านี้กัน:

อัปเดตคีย์และความถี่ - ข้อมูลเบื้องต้นเกี่ยวกับ Markov Chains - Edureka

ตอนนี้เรามาสร้างแบบจำลอง Markov กัน ดังที่ได้กล่าวไว้ก่อนหน้านี้แบบจำลอง Markov ถูกใช้เพื่อสร้างแบบจำลองตัวแปรสุ่มในสถานะหนึ่ง ๆ ในลักษณะที่สถานะในอนาคตของตัวแปรเหล่านี้ขึ้นอยู่กับสถานะปัจจุบันเท่านั้นไม่ใช่สถานะในอดีต

ดังนั้นโดยพื้นฐานแล้วในแบบจำลอง Markov ในการทำนายสถานะถัดไปเราต้องพิจารณาสถานะปัจจุบันเท่านั้น

ในแผนภาพด้านล่างคุณจะเห็นว่าแต่ละโทเค็นในประโยคของเรานำไปสู่อีกอันหนึ่งได้อย่างไร สิ่งนี้แสดงให้เห็นว่าสถานะในอนาคต (โทเค็นถัดไป) ขึ้นอยู่กับสถานะปัจจุบัน (โทเค็นปัจจุบัน) ดังนั้นนี่คือกฎพื้นฐานที่สุดใน Markov Model

แผนภาพด้านล่างแสดงให้เห็นว่ามีคู่ของโทเค็นที่แต่ละโทเค็นในคู่นำไปสู่อีกคู่หนึ่งในคู่เดียวกัน

Markov Chain Pairs - บทนำสู่ Markov Chains - Edureka

ในแผนภาพด้านล่างฉันได้สร้างการแสดงโครงสร้างที่แสดงให้เห็นแต่ละคีย์พร้อมอาร์เรย์ของโทเค็นถัดไปที่สามารถจับคู่ได้

อาร์เรย์ของ Markov Chain Pairs - บทนำสู่ Markov Chains - Edureka

ในการสรุปตัวอย่างนี้ให้พิจารณาสถานการณ์ที่คุณจะต้องสร้างประโยคโดยใช้อาร์เรย์ของคีย์และโทเค็นที่เราเห็นในตัวอย่างข้างต้น ก่อนที่เราจะดำเนินการตามตัวอย่างนี้ประเด็นสำคัญอีกประการหนึ่งคือเราต้องระบุมาตรการเริ่มต้นสองประการ:

  1. การแจกแจงความน่าจะเป็นเริ่มต้น (เช่นสถานะเริ่มต้น ณ เวลา = 0, (คีย์ 'เริ่ม'))

  2. ความน่าจะเป็นในการเปลี่ยนจากสถานะหนึ่งไปยังอีกสถานะหนึ่ง (ในกรณีนี้ความน่าจะเป็นของการเปลี่ยนจากโทเค็นหนึ่งไปยังอีกสถานะหนึ่ง)

เราได้กำหนดการแจกแจงแบบถ่วงน้ำหนักไว้ที่จุดเริ่มต้นแล้วดังนั้นเราจึงมีความน่าจะเป็นและสถานะเริ่มต้นตอนนี้เรามาดูตัวอย่างกัน

  • ดังนั้นในการเริ่มต้นด้วยโทเค็นเริ่มต้นคือ [Start]

  • ต่อไปเรามีโทเค็นที่เป็นไปได้เพียงอย่างเดียวนั่นคือ [หนึ่ง]

  • ปัจจุบันประโยคมีเพียงคำเดียวคือ 'one'

  • จากโทเค็นนี้โทเค็นถัดไปที่เป็นไปได้คือ [edureka]

  • อัปเดตประโยคเป็น 'one edureka'

  • จาก [edureka] เราสามารถย้ายไปยังโทเค็นใดก็ได้ต่อไปนี้ [สอง, ลูกเห็บ, มีความสุข, จบ]

  • มีโอกาส 25% ที่ 'สองคน' จะถูกเลือกซึ่งอาจส่งผลให้เกิดประโยคเดิม (edureka two edureka hail edureka happy edureka) อย่างไรก็ตามหากเลือก 'end' กระบวนการจะหยุดและเราจะสร้างประโยคใหม่ขึ้นมานั่นคือ 'one edureka'

ตบหลังตัวเองเพราะคุณเพิ่งสร้าง Markov Model และดำเนินกรณีทดสอบผ่านมัน เพื่อสรุปตัวอย่างข้างต้นโดยพื้นฐานแล้วเราใช้สถานะปัจจุบัน (คำปัจจุบัน) เพื่อกำหนดสถานะถัดไป (คำถัดไป) และนั่นคือกระบวนการของ Markov

ความแตกต่างระหว่าง html และ xml คืออะไร

เป็นกระบวนการสุ่มที่ตัวแปรสุ่มเปลี่ยนจากสถานะหนึ่งไปเป็นอีกสถานะหนึ่งในลักษณะที่สถานะในอนาคตของตัวแปรขึ้นอยู่กับสถานะปัจจุบันเท่านั้น

เข้าสู่ขั้นตอนต่อไปและวาด Markov Model สำหรับตัวอย่างนี้

แผนภาพการเปลี่ยนสถานะ - บทนำสู่ Markov Chains - Edureka

รูปด้านบนเรียกว่าแผนภาพการเปลี่ยนสถานะ เราจะพูดถึงเรื่องนี้เพิ่มเติมในส่วนด้านล่างในตอนนี้โปรดจำไว้ว่าแผนภาพนี้แสดงการเปลี่ยนผ่านและความน่าจะเป็นจากสถานะหนึ่งไปยังอีกสถานะหนึ่ง

สังเกตว่าวงรีแต่ละวงในรูปแสดงถึงคีย์และลูกศรจะพุ่งตรงไปยังคีย์ที่เป็นไปได้ที่สามารถตามมาได้ นอกจากนี้น้ำหนักของลูกศรยังแสดงถึง ความน่าจะเป็นหรือการแจกแจงแบบถ่วงน้ำหนักของการเปลี่ยนจาก / ไปยังสถานะที่เกี่ยวข้อง

นั่นคือทั้งหมดที่เกี่ยวกับวิธีการทำงานของ Markov Model ตอนนี้เรามาทำความเข้าใจกับคำศัพท์ที่สำคัญบางประการในกระบวนการ Markov

เมทริกซ์ความน่าจะเป็นการเปลี่ยนแปลงคืออะไร?

ในส่วนข้างต้นเราได้กล่าวถึงการทำงานของแบบจำลอง Markov ด้วยตัวอย่างง่ายๆตอนนี้เรามาทำความเข้าใจกับคำศัพท์ทางคณิตศาสตร์ในกระบวนการ Markov

ในกระบวนการ Markov เราใช้เมทริกซ์เพื่อแสดงความน่าจะเป็นในการเปลี่ยนแปลงจากสถานะหนึ่งไปยังอีกสถานะหนึ่ง เมทริกซ์นี้เรียกว่าทรานซิชั่นหรือเมทริกซ์ความน่าจะเป็น มักจะแสดงโดย P.

Transition Matrix - บทนำสู่ Markov Chains - Edureka

หมายเหตุ pij & ge0 และ 'i' สำหรับค่าทั้งหมดคือ

สูตรเมทริกซ์การเปลี่ยน - บทนำสู่ Markov Chains - Edureka

ให้ฉันอธิบายสิ่งนี้ สมมติว่าสถานะปัจจุบันของเราคือ 'i' รัฐถัดไปหรือที่กำลังจะเกิดขึ้นจะต้องเป็นหนึ่งในสถานะที่เป็นไปได้ ดังนั้นในขณะที่หาผลรวมของค่าทั้งหมดของ k เราต้องได้ค่าหนึ่ง

แผนภาพการเปลี่ยนสถานะคืออะไร?

แบบจำลอง Markov แสดงโดย State Transition Diagram แผนภาพแสดงการเปลี่ยนแปลงระหว่างสถานะต่างๆใน Markov Chain มาทำความเข้าใจเมทริกซ์การเปลี่ยนสถานะและเมทริกซ์การเปลี่ยนสถานะด้วยตัวอย่าง

ตัวอย่างการเปลี่ยนเมทริกซ์

พิจารณาห่วงโซ่ Markov ที่มีสามสถานะ 1, 2 และ 3 และความน่าจะเป็นต่อไปนี้:

ตัวอย่าง Transition Matrix - บทนำสู่ Markov Chains - Edureka

ตัวอย่างแผนภาพการเปลี่ยนสถานะ - บทนำสู่ Markov Chains - Edureka

แผนภาพด้านบนแสดงถึงแผนภาพการเปลี่ยนสถานะสำหรับห่วงโซ่ Markov ที่นี่ 1,2 และ 3 เป็นสามสถานะที่เป็นไปได้และลูกศรที่ชี้จากสถานะหนึ่งไปยังอีกสถานะหนึ่งแสดงถึงความน่าจะเป็นในการเปลี่ยนแปลง เมื่อ pij = 0 หมายความว่าไม่มีการเปลี่ยนระหว่าง state 'i' และ state 'j'

ตอนนี้ที่เรา รู้คณิตศาสตร์และตรรกะที่อยู่เบื้องหลังโซ่ของ Markov เรามาสาธิตง่ายๆและทำความเข้าใจว่าจะใช้โซ่ของ Markov ได้ที่ไหน

Markov Chain ใน Python

ในการเรียกใช้การสาธิตนี้ฉันจะใช้ Python ดังนั้นหากคุณไม่รู้จัก Python คุณสามารถอ่านบล็อกต่อไปนี้:

  1. วิธีเรียนรู้ Python 3 จาก Scratch - คู่มือสำหรับผู้เริ่มต้น

มาเริ่มต้นด้วยการเขียนโค้ดกันเลย!

Markov Chain Text Generator

คำชี้แจงปัญหา: เพื่อใช้ Markov Property และสร้าง Markov Model ที่สามารถสร้างการจำลองข้อความโดยศึกษาชุดข้อมูลคำพูดของ Donald Trump

คำอธิบายชุดข้อมูล: ไฟล์ข้อความประกอบด้วยรายการสุนทรพจน์ของ Donald Trump ในปี 2559

ตรรกะ: ใช้ Markov Property เพื่อสร้างคำพูดของ Donald’s Trump โดยพิจารณาแต่ละคำที่ใช้ในการพูดและสำหรับแต่ละคำสร้างพจนานุกรมคำที่จะใช้ถัดไป

ขั้นตอนที่ 1: นำเข้าแพ็คเกจที่ต้องการ

นำเข้า numpy เป็น np

ขั้นตอนที่ 2: อ่านชุดข้อมูล

trump = open ('C: //Users//NeelTemp//Desktop//demos//speeches.txt', encoding = 'utf8'). read () #display the data print (trump) SPEECH 1 ... Thank คุณมาก ดีมาก เขาไม่ใช่ผู้ชายที่ยอดเยี่ยม เขาไม่ได้รับความยุติธรรมเขาไม่ได้รับมัน มันไม่ยุติธรรม และฉันต้องบอกคุณว่าฉันอยู่ที่นี่และเป็นอย่างยิ่งที่นี่เพราะฉันเคารพสตีฟคิงเป็นอย่างมากและยังให้ความเคารพอย่างสูงต่อ Citizens United, David และทุกๆคนรวมถึงการก่อตั้งงานเลี้ยงน้ำชาอย่างมาก นอกจากนี้ชาวไอโอวาด้วย พวกเขามีบางอย่างที่เหมือนกัน คนขยัน ....

ขั้นตอนที่ 3: แยกชุดข้อมูลออกเป็นแต่ละคำ

corpus = trump.split () # แสดงภาพพิมพ์คลังข้อมูล (คลังข้อมูล) 'ทรงพลัง,', 'แต่', 'ไม่', 'ทรงพลัง', 'ชอบ', 'เรา', 'อิหร่าน', 'มี', ' เพาะเมล็ด ',' ความหวาดกลัว ', ...

จากนั้นสร้างฟังก์ชันที่สร้างคู่คำต่างๆในสุนทรพจน์ เพื่อประหยัดพื้นที่เราจะใช้วัตถุตัวสร้าง

ขั้นตอนที่ 4: การสร้างคู่กับคีย์และคำต่อท้าย

def make_pairs (คลังข้อมูล): สำหรับฉันในช่วง (len (คลังข้อมูล) - 1): ผลตอบแทน (คลัง [i], คลังข้อมูล [i + 1]) คู่ = make_pairs (คลังข้อมูล)

ต่อไปมาเริ่มต้นพจนานุกรมว่าง ๆ เพื่อจัดเก็บคำคู่กัน

ในกรณีที่คำแรกในคู่นั้นเป็นกุญแจสำคัญในพจนานุกรมอยู่แล้วให้ต่อท้ายคำที่เป็นไปได้ถัดไปในรายการคำที่ตามหลังคำนั้น แต่ถ้าคำนั้นไม่ใช่คีย์ให้สร้างรายการใหม่ในพจนานุกรมและกำหนดคีย์ให้เท่ากับคำแรกในคู่

ขั้นตอนที่ 5: ต่อท้ายพจนานุกรม

word_dict = {} สำหรับ word_1, word_2 เป็นคู่: ถ้า word_1 ใน word_dict.keys (): word_dict [word_1] .append (word_2) else: word_dict [word_1] = [word_2]

ต่อไปเราสุ่มเลือกคำจากคลังข้อมูลซึ่งจะเริ่มต้นเครือข่าย Markov

ขั้นตอนที่ 6: สร้างแบบจำลอง Markov

#randomly เลือกคำแรก first_word = np.random.choice (คลังข้อมูล) # เลือกคำแรกเป็นคำที่ใช้ตัวพิมพ์ใหญ่เพื่อไม่ให้คำที่เลือกถูกนำมาระหว่างประโยคในขณะที่ first_word.islower (): #Start the chain from โซ่คำที่เลือก = [first_word] # เริ่มต้นจำนวนคำที่ถูกกระตุ้น n_words = 20

หลังจากคำแรกแต่ละคำในห่วงโซ่จะสุ่มตัวอย่างแบบสุ่มจากรายการคำที่ตามคำเฉพาะนั้นในสุนทรพจน์สดของทรัมป์ สิ่งนี้แสดงในข้อมูลโค้ดด้านล่าง:

สำหรับฉันในช่วง (n_words): chain.append (np.random.choice (word_dict [chain [-1]]))

ขั้นตอนที่ 7: การคาดการณ์

สุดท้ายมาแสดงข้อความกระตุ้น

#Join ส่งคืนห่วงโซ่เป็นพิมพ์สตริง ('.join (chain)) จำนวนคนที่เหลือเชื่อ และฮิลลารีคลินตันมีบุคลากรของเราและงานที่ยอดเยี่ยมเช่นนี้ และเราจะไม่เอาชนะโอบามา

นี่คือข้อความที่สร้างขึ้นโดยพิจารณาจากสุนทรพจน์ของทรัมป์ อาจไม่สมเหตุสมผล แต่ก็ดีพอที่จะทำให้คุณเข้าใจว่า Markov Chains สามารถใช้สร้างข้อความโดยอัตโนมัติได้อย่างไร

ตอนนี้เรามาดูแอปพลิเคชันเพิ่มเติมกัน ของเครือข่าย Markov และวิธีใช้เพื่อแก้ปัญหาในโลกแห่งความเป็นจริง

การใช้งาน Markov Chain

รายการแอปพลิเคชัน Markov Chains ในโลกแห่งความเป็นจริงมีดังนี้

  1. Google PageRank: ทั้งเว็บสามารถคิดได้ว่าเป็นแบบจำลอง Markov ซึ่งทุกหน้าเว็บสามารถเป็นสถานะและลิงก์หรือการอ้างอิงระหว่างหน้าเหล่านี้สามารถคิดได้ว่าเป็นการเปลี่ยนผ่านที่มีความน่าจะเป็น โดยพื้นฐานแล้วไม่ว่าคุณจะเริ่มท่องเว็บใดโอกาสที่จะไปยังหน้าเว็บหนึ่งกล่าวว่า X เป็นความน่าจะเป็นคงที่

  2. การพิมพ์คำทำนาย: เป็นที่ทราบกันดีว่า Markov Chains ใช้สำหรับทำนายคำที่จะเกิดขึ้น นอกจากนี้ยังสามารถใช้ในการเติมข้อความอัตโนมัติและคำแนะนำ

  3. การจำลอง Subreddit: แน่นอนว่าคุณได้พบกับ Reddit และมีปฏิสัมพันธ์กับหนึ่งในเธรดหรือซับเครดิตของพวกเขา Reddit ใช้โปรแกรมจำลอง subreddit ที่ใช้ข้อมูลจำนวนมากที่มีความคิดเห็นและการอภิปรายทั้งหมดที่จัดขึ้นในกลุ่มของพวกเขา ด้วยการใช้ Markov Chains เครื่องจำลองจะสร้างความน่าจะเป็นแบบคำต่อคำเพื่อสร้างข้อคิดเห็นและหัวข้อต่างๆ

  4. ตัวสร้างข้อความ: โซ่ Markov มักใช้ในการสร้างตำราจำลองหรือสร้างบทความขนาดใหญ่และรวบรวมสุนทรพจน์ นอกจากนี้ยังใช้ในเครื่องกำเนิดไฟฟ้าชื่อที่คุณเห็นบนเว็บ

ตอนนี้คุณรู้วิธีแก้ปัญหาในโลกแห่งความเป็นจริงโดยใช้ Markov Chains แล้วฉันแน่ใจว่าคุณอยากเรียนรู้เพิ่มเติม นี่คือรายการบล็อกที่จะช่วยให้คุณเริ่มต้นกับแนวคิดทางสถิติอื่น ๆ :

ด้วยเหตุนี้เราจึงมาถึงจุดสิ้นสุดของบล็อก Introduction To Markov Chains นี้ หากคุณมีข้อสงสัยเกี่ยวกับหัวข้อนี้โปรดแสดงความคิดเห็นไว้ด้านล่างแล้วเราจะติดต่อกลับไป

คอยติดตามบล็อกเพิ่มเติมเกี่ยวกับเทคโนโลยีที่กำลังมาแรง

หากคุณกำลังมองหาการฝึกอบรมเชิงโครงสร้างออนไลน์ในด้านวิทยาศาสตร์ข้อมูล edureka! มีการดูแลเป็นพิเศษ โปรแกรมที่ช่วยให้คุณมีความเชี่ยวชาญในด้านสถิติการรวบรวมข้อมูลการวิเคราะห์ข้อมูลเชิงสำรวจอัลกอริทึมการเรียนรู้ของเครื่องเช่นการจัดกลุ่ม K-Means ต้นไม้การตัดสินใจป่าสุ่ม Naive Bayes คุณจะได้เรียนรู้แนวคิดของอนุกรมเวลาการขุดข้อความและการเรียนรู้เชิงลึกเบื้องต้นด้วย ชุดใหม่สำหรับหลักสูตรนี้กำลังจะเริ่มเร็ว ๆ นี้ !!