RANTAI MARKOV ( MARKOV CHAIN )

dokumen-dokumen yang mirip
Rantai Markov dan Aplikasinya Sebagai Bagian dari Ilmu Probabilitas

BAB 2. LANDASAN TEORI dan KERANGKA PEMIKIRAN

BAB III METODE PENELITIAN

Silabus. Proses Stokastik (MMM 5403) Proses Stokastik. Contoh

BAB II LANDASAN TEORI

Penelitian Operasional II Rantai Markov RANTAI MARKOV

BAB II TINJAUAN PUSTAKA. komoditas, model pergerakan harga komoditas, rantai Markov, simulasi Standard

BAB 2 LANDASAN TEORI

BAB II LANDASAN TEORI

BAB 2 LANDASAN TEORI

TINJAUAN PUSTAKA. Kriptografi

BAB II TINJAUAN PUSTAKA

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB I PENDAHULUAN. Dalam kehidupan sehari-hari, sering dijumpai peristiwa-peristiwa yang terjadi

Stochastic process. Stochastic process. Stochastic process. Stochastic process 08/05/2015 STOCHASTIC PROCESS OPERATIONAL RESEARCH II

PREDIKSI JUMLAH LULUSAN DAN PREDIKAT KELULUSAN MAHASISWA FMIPA UNTAN TAHUN ANGKATAN 2013/2014 DENGAN METODE RANTAI MARKOV

BAB II LANDASAN TEORI

6.6 Rantai Markov Kontinu pada State Berhingga

RENCANA PEMBELAJARAN SEMESTER (RPS) PROGRAM STUDI STATISTIKA

BAB 2 LANDASAN TEORI

Pr { +h =1 = } lim. Suatu fungsi dikatakan h apabila lim =0. Dapat dilihat bahwa besarnya. probabilitas independen dari.

PENENTUAN PROBABILITAS ABSORPSI DAN EKSPEKTASI DURASI PADA MASALAH KEBANGKRUTAN PENJUDI

II. TINJAUAN PUSTAKA. real. T dinamakan himpunan indeks dari proses atau ruang parameter yang

BAB 2 LANDASAN TEORI

Reliabilitas Suatu Mesin Menggunakan Rantai Markov (Studi Kasus: Mesin Proofer Di Pabrik Roti Super Jam Banten)

Rantai Markov Diskrit (Discrete Markov Chain)

Arisma Yuni Hardiningsih. Dra. Laksmi Prita Wardhani, M.Si. Jurusan Matematika. Surabaya

BAB II TINJAUAN PUSTAKA. X(t) disebut ruang keadaan (state space). Satu nilai t dari T disebut indeks atau

LAPORAN HASIL PENELITIAN

PENDAHULUAN LANDASAN TEORI

KAJIAN MODEL MARKOV WAKTU DISKRIT UNTUK PENYEBARAN PENYAKIT MENULAR PADA MODEL EPIDEMIK SIR. Oleh: RAFIQATUL HASANAH NRP.

LABORATORIUM STATISTIK DAN OPTIMASI INDUSTRI FAKULTAS TEKNIK PROGRAM STUDI TEKNIK INDUSTRI UNIVERSITAS PEMBANGUNAN NASIONAL VETERAN JAWA TIMUR

BAB II DASAR TEORI 2.1 Pengertian Tata Guna/Tutupan Lahan

PENDEKATAN PERSAMAAN CHAPMAN-KOLMOGOROV UNTUK MENGUKUR RISIKO KREDIT. Chairunisah

Pertemuan 5 ANALISIS RANTAI MARKOV

ANALISIS PERPIDAHAN PENGGUNAAN MEREK SIMCARD DENGAN PENDEKATAN RANTAI MARKOV

Bab 2 LANDASAN TEORI. 2.1 Pengantar Proses Stokastik

Catatan Kuliah MA4181 Pengantar Proses Stokastik Precise and Stochastic. Dosen: Khreshna I.A. Syuhada, MSc. PhD.

PENENTUAN KLASIFIKASI STATE PADA RANTAI MARKOV DENGAN MENGGUNAKAN NILAI EIGEN DARI MATRIKS PELUANG TRANSISI

BAB I PENDAHULUAN. kematian bisa menimpa siapa saja di semua kalangan, misalnya cacat karena sakit

PROSES MARKOV KONTINYU (CONTINOUS MARKOV PROCESSES)

Penentuan Probabilitas Absorpsi dan Ekspektasi Durasi pada Masalah Kebangkrutan Penjudi

Model Hibrida ARIMA dan Fuzzy Time Series Markov Chain

ANALISIS ESTIMASI PERUBAHAN MINAT MAHASISWA UNIVERSITAS SUMATERA UTARA TERHADAP TUJUH OPERATOR GSM

BAB III HIDDEN MARKOV MODELS. Rantai Markov bermanfaat untuk menghitung probabilitas urutan keadaan

ANALISA SIFAT-SIFAT ANTRIAN M/M/1 DENGAN WORKING VACATION

Penerapan Rantai Markov Dalam Pemilihan Minat Masuk Siswa SMA Ke Universitas Di Indonesia

METODE MARKOV DAN PENERAPANNYA Markov Model and Its Applications. Noor Cholis Basjaruddin POLBAN

Pemodelan Markov untuk kanal HF Availability pada Link Malang-Surabaya

ANALISIS MARKOV Proses Markov Matriks kemungkinan perpindahan keadaan / transisi

BEBERAPA SIFAT HASIL KALI KRONECKER RANTAI MARKOV BERDIMENSI HINGGA

BAB 2 LANDASAN TEORI DAN KERANGKA PEMIKIRAN. Analisis Markov merupakan sebuah teknik yang berhubungan dengan

SIMULASI PADA MASALAH KEBANGKRUTAN PENJUDI

BAB I PENDAHULUAN. Perkembangan ilmu pengetahuan dan teknologi yang sangat pesat,

BAB I PENDAHULUAN Latar Belakang Masalah

SEKOLAH TINGGI MANAJEMEN INFORMATIKA & KOMPUTER JAKARTA STI&K SATUAN ACARA PERKULIAHAN

BAB II TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA

PERENCANAAN JUMLAH TENAGA PERAWAT DI RSUD PAMEKASAN MENGGUNAKAN RANTAI MARKOV

PREDIKSI BENCANA ALAM DI WILAYAH KABUPATEN WONOGIRI DENGAN KONSEP MARKOV CHAINS

Pengantar Proses Stokastik

BAB II LANDASAN TEORI

BAB 1. Rantai Markov 1.1 ILUSTRASI

Mata Kuliah Pemodelan & Simulasi. Riani Lubis. Program Studi Teknik Informatika Universitas Komputer Indonesia

PENGEMBANGAN APLIKASI PREDIKSI PENYAKIT BERBAHAYA DI PROVINSI RIAU BERDASARKAN MODEL MARKOV CHAINS

Hanna Lestari, ST, M.Eng. Lecture 11 : Rantai Markov

Catatan Kuliah. MA4181 PENGANTAR PROSES STOKASTIK Smart and Stochastic. disusun oleh Khreshna I.A. Syuhada, MSc. PhD.

BAB I PENDAHULUAN. atau memprediksi nilai suatu perolehan data di masa yang akan datang

Dasar-dasar Statistika Pemodelan Sistem

PERAMALAN PANGSA PASAR KARTU GSM DENGAN PENDEKATAN RANTAI MARKOV

MODEL EPIDEMI RANTAI MARKOV WAKTU DISKRIT SUSCEPTIBLE INFECTED RECOVERED DENGAN DUA PENYAKIT

II. LANDASAN TEORI. 2. P bersifat aditif tak hingga, yaitu jika dengan. 2.1 Ruang Contoh, Kejadian dan Peluang

KAJIAN MODEL EPIDEMIK SIR DETERMINISTIK DAN STOKASTIK PADA WAKTU DISKRIT. Oleh: Arisma Yuni Hardiningsih

Pemodelan Sistem Antrian Satu Server Dengan Vacation Queueing Model Pada Pola Kedatangan Berkelompok

REKAYASA TRAFIK ARRIVAL PROCESS.

BAB I PENDAHULUAN. sumber yang dapat dipercaya, petunjuk atau reputasi yang telah dibuat.

Prediksi Produksi Kayu Bundar Kabupaten Malang Dengan Menggunakan Metode Markov Chains

BAB 1. Rantai Markov 1.1 ILUSTRASI

KONSEP MARKOV CHAINS UNTUK MENYELESAIKAN PREDIKSI BENCANA ALAM DI WILAYAH INDONESIA DENGAN STUDI KASUS KOTAMADYA JAKARTA UTARA

Klasifikasi Keadaan dalam Rantai Markov Menggunakan Algoritma Graf Classification of States of Markov Chains Using Graph Algorithms

Pendekatan Rantai Markov Waktu Diskrit dalam Perencanaan Kebutuhan Tempat Tidur Rumah Sakit. Oleh: Enjela Puspadewi

KAJIAN MODEL HIDDEN MARKOV KONTINU DAN APLIKASINYA PADA HARGA BERAS MUSAFA

BAB I PENDAHULUAN 1.1. Latar Belakang

RENCANA PEMBELAJARAN SEMESTER (RPS)

TOOLS SIMULASI INVENTORI PADA SUPERMARKET

BAB 2 LANDASAN TEORI

BAB III DARI MODEL ANTRIAN M/M/1 DENGAN POLA KEDATANGAN BERKELOMPOK KONSTAN. 3.1 Model Antrian M/M/1 Dengan Pola Kedatangan Berkelompok Acak

BAB I PENDAHULUAN A. Latar Belakang

ANALISA SIFAT-SIFAT ANTRIAN M/M/1 DENGAN WORKING VACATION

Oleh: Isna Kamalia Al Hamzany Dosen Pembimbing : Dra. Laksmi Prita W, M.Si. Dra. Nur Asiyah, M.Si

Bab 1 PENDAHULUAN. 1.1 Latar Belakang Masalah

BAB I PENDAHULUAN 1.1 Latar Belakang

PERBANDINGAN PENGGUNAAN RANTAI MARKOV DAN DISTRIBUSI CAMPURAN DATA TIDAK HUJAN DAN DATA HUJAN UNTUK MENSIMULASI DATA HUJAN HARIAN TUGAS AKHIR

PENDUGAAN FUNGSI INTENSITAS PROSES POISSON PERIODIK DENGAN TREN FUNGSI PANGKAT MENGGUNAKAN METODE TIPE KERNEL

DISTRIBUSI STASIONER RANTAI MARKOV UNTUK PREDIKSI CURAH HUJAN DI WILAYAH JAWA BARAT

BAB I PENDAHULUAN Latar Belakang Masalah

Aplikasi Pemodelan Bahasa Secara Statistik dalam Bisnis Periklanan di Internet

BAB II LANDASAN TEORI. pembahasan model antrian dengan working vacation pada pola kedatangan

BAB I PENDAHULUAN. 1.1 Latar Belakang

REKAYASA TRAFIK BIRTH & DEATH PROCESS, SISTEM RUGI.

Transkripsi:

RANTAI MARKOV ( MARKOV CHAIN ) 2.1 Tujuan Praktikum Rantai markov (Markov Chain ) merupakan salah satu materi yang akan dipelajari dalam praktikum stokastik. Berikut ini terdapat beberapa tujuan yang akan dicapai oleh praktikan dalam memperlajari rantai markov, sebagai berikut: 1. Praktikan mengetahui konsep dasar rantai markov dan mampu mengidentifikasikan masalah-masalah yang berhubungan dengan rantai markov. 2. Praktikan mengetahui notasi dan terminologi dalam rantai markov. 3. Praktikan mengetahui tahap-tahap penyelesaian dan menganalisa permasalahan rantai markov, baik dengan perhitungan manual dan pengolahan soiftware. 2.2 Pendahuluan Rantai Markov Dalam berbagai aspek kehidupan terdapat banyak sekali ketidakpastian, salah satunya yaitu dunia industri. Ketidakpastian kondisi ataupun kejadian dalam industri tentunya sangat berbahaya, karena akan berhubungan dengan banyak hal seperti permintaan, sumber daya, kapasitas perusahaan dan sebagainya. Hal-hal tersebut tentunya akan sangat mempengaruhi biaya yang akan diterima ataupun dikeluarkan. Berdasarkan hal tersebut maka diperlukanlah suatu metode yang dapat digunakan untuk dapat menjelaskan kondisi ketidak pastian tersebut secara matematis

sehingga dapat diselesaikan secara empiris. Hasil tersebut yang kemudian dapat digunakan sebagai pertimbangan dalam mengambil keputusan yang optimal. Salah satu metode yang dapat digunakan dalam memodelkan kondisikondisi yang tidak pasti tersebut yaitu dengan rantai markov (Markov Chain). Rantai Markov (Markov Chain) pertama kali dikemukakan oleh Andrey A. Markov seorang matematikawan Rusia pada tahun 1906 dalam bentuk teori dan mulai diperkenalkan kepada masyarakat pada tahun 1907. Pada tahun 1913, A. A. Markov berhasil menerapkan temuannya untuk pertama kalinya untuk 20.000 pertama Pushkin huruf "Eugene Onegin". 2.3 Penerapan Rantai Markov Teori Rantai Markov ini memiliki beberapa penerapan aplikasi. Namun bisa dikatakan penerapan teori ini sangatlah terbatas. Hal ini dikarenakan sulitnya menemukan masalah- masalah yang memenuhi semua syarat yang diperlukan untuk menerapkan teori Rantai Markov ini. Rantai Markov ini adalah probabilitas transisi yang menyebabkan probabilitas pergerakan perpindahan kondisi dalam sistem. Sedangkan kebanyakan masalah-masalah yang ada probabilitasnya bersifat konstan. Walaupun begitu ada beberapa bidang di kehidupan sehari-hari yang masih dapat menerapkan Rantai Markov. Di antaranya adalah dalam bidang ekonomi (perpindahan pelanggan), ilmu pengetahuan (teknologi internet yang terdapat banyak link), dan juga permainan (ular tangga) dan kesehatan (perkembangan suatu penyakit).

2.4 Rantai Markov Markov Chain merupakan proses acak di mana semua informasi tentang masa depan terkandung di dalam keadaan sekarang (yaitu orang tidak perlu memeriksa masa lalu untuk menentukan masa depan). Untuk lebih tepatnya, proses memiliki properti Markov, yang berarti bahwa bentuk ke depan hanya tergantung pada keadaan sekarang, dan tidak bergantung pada bentuk sebelumnya. Dengan kata lain, gambaran tentang keadaan sepenuhnya menangkap semua informasi yang dapat mempengaruhi masa depan dari proses evolusi. Suatu Markov Chain merupakan proses stokastik berarti bahwa semua transisi adalah probabilitas (ditentukan oleh kebetulan acak dan dengan demikian tidak dapat diprediksi secara detail, meskipun mungkin diprediksi dalam sifat statistik). 1. Sejarah Rantai Markov Teori Rantai Markov pertama kali ditemukan oleh Andrey Andreyevich Markov pada tahun 1906. Ia adalah seorang matematikawan dari Rusia yang hidup pada tahun 1856 sampai tahun 1922. Ia merupakan murid dari Chebysev, seorang yang terkenal di dunia probabilitas karena rumus yang ditemukannya. Ia mengungkapkan teori bahwa suatu kejadian berikutnya tergantung hanya pada keadaan saat ini dan bukan pada kejadian masa lalu. Pada tahun 1913 ia menerapkan temuannya ini yang pertama kali untuk 20.000 pertama Pushkin huruf Eugine Onegin. Teori rantai markov tersebut kemudian dikembangkan dari sebuah generalisasi ke bentuk tak terbatas dalam ruang diskrit diberikan oleh Kolmogorov (1936). Rantai Markov terkait dengan gerakan Brown dan ergodic hipotesis, dua topik dalam fisika yang penting dalam tahun-tahun

awal abad ke-20, tetapi tampaknya Markov lebih fokus pada perluasan hukum bilangan besar dalam percobaaan-percobaaan. 2. Pengertian Rantai Markov Menurut Siagian (2006), rantai markov adalah suatu metode yang mempelajari sifat-sifat suatu variabel pada masa sekarang yang didasarkan pada sifat-sifat masa lalu dalam usaha menaksir sifat-sifat variabel tersebut dimasa yang akan datang. Menurut Tjutju (1992), rantai markov adalah suatu teknik matematika untuk peramalan perubahan pada variabel-variabel tertentu berdasarkan pengetahuan dari perubahan sebelumnya. Menurut Subagyo, Asri dan Handoko rantai Markov (Markov Chains) adalah suatu teknik matematika yang biasa digunakan untuk melakukan pembuatan model (modeling) bermacam-macam sistem dan proses bisnis. 3. Syarat-syarat rantai markov Terdapat beberapa syarat-syarat yang harus dipenuhi agar suatu sistem atau permasalahan dapat diselesaikan dengan menggunakan rantai markov. Berikut merupakan syarat-syarat tersebut: a. Jumlah probabilitas transisi untuk suatu keadaan awal dari sistem sama dengan 1. b. Probabilitas-probabilitas tersebut berlaku untuk semua partisipan dalam sistem. c. Probabilitas transisi konstan sepanjang waktu. d. Kondisi merupakan kondisi yang independen sepanjang waktu.

4. Konsep Dasar Rantai Markov Apabila suatuu kejadian tertentu dari suatu rangkaian eksperimen tergantung dari beberapa kemungkinan kejadian, maka rangkaian eksperimen tersebut disebut Proses Stokastik. Sebuah rantai Markov adalah suatu urutan dari variabel-variabel acak X 1, X 2, X 3,... dengan sifat Markov yaitu, mengingat keadaan masa depan dan masa lalu keadaan yang independen, dengan kata lain: Nilai yang mungkin untuk membentuk Xi S disebut ruang keadaan rantai. Markov Chain adalah sebuah Proses Markov dengan populasi yang diskrit (dapat dihitung) yang berada pada suatu discrete state (position) dan diizinkan utk berubah state pada time discrete. Berikut ini adalah beberapa macam variasi dari bentuk rantai markov: a. Continuous Markov memiliki indeks kontinu. b. Sisa rantai Markov homogen (rantai Markov stasioner) adalah proses di mana untuk semua n. Probabilitas transisi tidak tergantung dari n.

c. Sebuah rantai Markov orde m di mana m adalah terbatas, Dengan kata lain, keadaan selanjutnya tergantung pada keadaan m selanjutnya. Sebuah rantai (Y n) dari (X n) yang memiliki 'klasik' Markov properti sebagai berikut: Biarkan Y n = (X n, X n -1,..., X n - m 1 ), yang memerintahkan m-tupel dari nilai-nilai X. Maka Y n adalah sebuah rantai Markov dengan ruang keadaan S m dan memiliki klasik properti Markov. d. Sebuah aditif rantai Markov order m di mana m adalah terbatas adalah untuk semua n> m. Dalam penyelesaian masalah menggunakan rantai markov, terdapat beberapa status. Status-status yang digunakan dalam rantai markov adalah sebagai berikut: a. Reachable State Status j reachable dari status i apabila dalam rantai dpat terjadi transisi dari status i ke status j melalui sejumlah transisi berhingga; terdapat n, 0 n, sehingga P n ij > 0 b. Irreduceable Chain Jika dalam suatu rantai Markov setiap status reachable dari setiap status lainnya, rantai tersebut adalah irreduceable. c. Periodic State

Suatu status i disebut periodic dengan peroda d > 1, jika p n ii > 0, hanya untuk n = d, 2d, 3d,...; sebaliknya jika p n ii > 0, hanya untuk n = 1, 2, 3,... maka status tersebut disebut aperiodic. d. Probability of First Return Probabilitas kembali pertama kalinya ke status i terjadi dalam n transisi setelah meninggalkan i. ( n) [ X = i, X i untukk = 1, 2,..., n 1Ι X i] fi = P n k 0 = (note: fi (0) didefinisikan = 1 untuk semua i) e. Probability of Ever Return Probabilitas akan kembalimya ke status i setelah sebelumnya meninggalkan i. f ( n) i f i = n 1 f. Transient State Suatu status disebut transient jika probabilitas fi < 1; yaitu bahwa setelah dari i melalui sejumlah transisi terdapat kemungkinan tidak dapat kembali ke i. g. Recurrent State Suatu status disebut recurrent jika probabilitas fi = 1; yaitu bahwa setelah dari i melalui sejumlah transisi selalu ada kemungkinan untuk kembali ke i. h. Mean Recurrent Time of State Untuk suatu status recurrent, jumlah step rata-rata untuk kembali ke status i i. Null Recurrent State m ( n) i nf i = n 1

Suatu Recurrent State disebut recurrent null jika mi = j. Positive Recurrent State Suatu recurrent state disebut positive recurrent atau recurrent nonnull jika mi < k. Communicate State Dua status, i dan j, dikatakamn berkomunikasi jika i reachable dari j dan juga reachable dari i ; ditulis dengan notasi l. Ergodic i j Rantai Markov disebut ergodic jika, irreduceable, aperiodic, dan seluruh status positive recurrent