Penelitian Operasional II Rantai Markov RANTAI MARKOV
|
|
- Devi Gunawan
- 7 tahun lalu
- Tontonan:
Transkripsi
1 Penelitian Operasional II Rantai Markov RANTAI MARKOV 4. PENDAHULUAN Dalam masalah pengambilan suatu keputusan, seringkali kita diperhadapkan dengan suatu ketidakpastian. Permasalahan ini dapat dimodelkan secara matematis asalkan ketikdakpastian tersebut memiliki pola yang teratur sehingga dapat dinyatakan sebagai sebuah model probabilistik. 4.2 PROSES STOKASTIK Suatu proses stokastik dapat didefinisikan sebagai kumpulan peubah acak berindex {X t }, dimana index t bergerak sepanjang himpunan T yanag diberikan. Seringkali T merupakan himpunan bilangan bulat tak negatif dan X t mewakili suatu karakteristik yang terukur pada waktu t. Contoh 4.: X t : Dapat menyatakan tingkat inventori dalam tiap minggu (atau bulan) dari suatu produk, atau dapat pula menyatakan jumlah permintaan dari produk tersebut tiap minggu (atau bulan). Jika T adalah himpunan yang dapat dihitung (countable set) maka proses stokastik tersebut dikatakan sebagai Proses stokastik dengan waktu diskrit, misalnya {X t, t=,, }. Jika T adalah suatu interval pada garis real, maka proses stokastik tersebut dikatakan sebagai proses stokastik dengan waktu kontinu, misalnya {X t, t }. Index T seringkali menyatakan waktu, karena itu X t disebut sebagai keadaan (state) dari proses pada saat t. Secara ringkas proses stokastitik dapat didefinisikan sebagai berikut : Definisi 4.2: Proses Stokastik merupakan serangkaian random variabel yang berubah terhadap waktu pengamatan. { X(t), t T} dimana : X(t) = state (keadaan) yang acak t = waktu (saat pengamatan) Contoh 4.3: Sebuah toko kamera memiliki stok dari suatu model kamera tertentu yang dapat dipesan mingguan. Misalkan: D, D 2, mewakili permintaan kamera tersebut selama minggu ke-, ke-2, dan asumsikan bahwa D i independen dan probabilitas distribusinya diketahui, misalnya X adalah jumlah kamera yang ada
2 Rantai Markov 5 Penelitian Operasional II pada keadaan awal (merupakan maksimum level inventori), X adalah jumlah kamera pada akhir minggu I, X 2 adalah jumlah kamera pada akhir minggu II, dst. Asumsikan X = 3. Minggu malam toko tersebut melakukan pemesanan kamera dan akan dikirimkan pada hari Senin. Toko ini menggunakan kebakan (s,s * ) yaitu jika jumlah kamera yang ada pada akhir minggu kurang dari s= (tidak ada stok kamera) maka toko akan memesan S=3. Pada kondisi lain toko tidak melakukan pemesanan (jika stok kamera ada, toko tidak memesan). Diasumsikan bahwa penjualan akan rugi jika permintaan melebihi persediaan yang ada. Kasus ini merupakan proses stokastik {X t } dengan t =,, state yang ada pada kasus ini adalah,,2,3 yang mewakili jumlah kamera yang mungkin ada pada akhir minggu. Peubah acak X t bukan merupakan peubah bebas dan dapat dinyatakan secara iteratif sebagai berikut : X t+ = max{(3 Dt + ),} max{(xt Dt+ ),} Xt < X t 4.3 RANTAI MARKOV Suatu proses stokastik {X t } dikatakan memiliki sifat markov jika : P{X t+ = j X = k, X = k, X t- = k t-, X t = I} = P{X t+ = j X t = i} Untuk t =,, dan untuk tiap i, j, k, k,., k t-. Sifat markov ini dikatakan sebagai berikut : Bahwa probabilitas bersyarat dari kejadian di masa mendatang, jika diketahui kejadian dimasa lalu dan kondisi saat ini X t = i, adalah tidak tergantung pada masa lalu dan hanya tergantung pada kondisi dari proses saat ini Probabilitas bersyarat P{X t+ = j X t = i} dikatakan sebagai probabilitas transisi. Jika untuk setiap i dan j : P{X t+ = j X t = i} = P{X = j X = i}, untuk semua t =,,.. maka probabilitas transisi ( langkah) dikatakan stasioner, (probabilitas transisi tidak berubah terhadap waktu) dinotasikan dengan p. Jika untuk setian i dan j : P{X t+ = j X t = i} = P{X n = j X = i}, untuk semua t =,,.. Probabilitas bersyarat ini dinotasikan dengan p dan disebut sebagai probabilitas transisi n-langkah. p : probabilitas bersyarat dimana peubah acak X, dimulai dari state i, akan berapa pada state j setelah tepat n langkah (unit waktu). karena p adalah probabilitas bersyarat maka harus memenuhi sifat-sifat : p i dan j, n =,,2, (sifat ketidaknegatifan)
3 Penelitian Operasional II Rantai Markov 5 m j= p = i dan j n =,,2, (jumlahan dari probabilitas = ) Matriks transisi n langkah : state M p p P = p p M p m p m p m p m p mm Definisi 4.4 : Rantai Markov Suatu proses stokastik {X t, t =,,..} dikatakan merupakan suatu rantai markov dengan state terbatas (finite state markov chain) jika memiliki sifat-sifat sebagai berikut : () Memiliki jumlah state yang terbatas (2) Memiliki sifat markov (3) Probabilitas transisinya stasioner (4) Memiliki himpunan probabilitas awal P{X = i} i Contoh 4.5: Dari contoh 4.3, {X t } merupakan proses stokastik dengan X t : Jumlah kamera yang mungkin ada pada akhir minggu ke-t (sebelum pesanan diterima) Tentukan probabilitas trasnsisi langkahnya! p p p2 p3 = p p p2 p3 P p 2 p2 p22 p23 p3 p3 p32 p33 Asumsikan D t memiliki distribusi Poisson dengan parameter λ =. Penyelesaian : X t+ = max{(3 Dt + ),} max{(xt Dt+ ),} Xt < X t max{(3 D t ),} Xt X t = max{(xt D t ),} Xt <
4 Rantai Markov 52 Penelitian Operasional II.8 Di dapat P = Contoh 4.6: Model dari kondisi suatu stok barang tertentu. Pada akhir suatu hari tertentu kondisi sutau stok dicatat. Jika stok meningkat hari ini maka probabilitas bahwa stok esok hari meningkat adalah.7. Jika stok hari ini menurun maka probabilitas bahwa stok esok hari meningkat adalah.5 Model ini merupakan rantai markov dimana : State = stok meningkat dan State = stok menurun Maka matriks transisinya adalah :.7.3 P =.5.5 Jika model ini dikembangkan menjadi : bahwa kondisi stok esok berubah atau tidak tergantung pada hari ini dan kemarin maka kemungkinan-kemungkinan yang ada adalah sebagai berikut : - Jika dalam 2 hari terakhir stok meningkat, besok akan meningkat dengan probabilitas.9 - Jika hari ini meningkat, kemarin menurun, besok akan meningkat dengan probabilitas.6 - Jika hari ini menurun, kemarin meningkat, besok akan meningkat dengan probabilitas.5 - Jika dalam 2 hari terakhir stok menurun, besok akan meningkat dengan probabilitas.3 Model ini juga merupakan rantai markov dengan : State : stok hari ini meningkat kemarin meningkat State : stok hari ini meningkat kemarin menurun State 2 : stok hari ini menurun kemarin meningkat State 3 : stok hari ini menurun kemarin menurun Matriks transisi : P = P(X t = j X t- = i) P =
5 Penelitian Operasional II Rantai Markov 53 Contoh 4.7: Kasus Perjudian Seorang pemain memiliki uang $, dalam tiap permainan peluang untuk menang sebesar $ adalah p dan peluang untuk kalah sebesar $ adalah -p. Permainan ini berakhir bila pemain dapat mengumpulkan $3 atau bangkrut. Kasus ini merupakan rantai markov dengan {X t } mewakili keberuntungan dari pemain, yaitu:, $,2$,3$. Matriks probabilitas transisinya adalah : P = p p p p 4.4 PERSAMAAN CHAPMAN-KOLMOGOROV Persamaan Chapman-Kolmogorov memberikan cara untuk menghitung peluang perpindahan (Probabilitas transisi) n-langkah yaitu : M (v) (n v) P = p p i, j,n dan u m n ik kj k = o Persamaan ini menunjukkan bahwa dari state i ke state j dalam n langkah, proses (v) (n-v) akan berada pada state k setelah tepat v ( < n) langkah. Jadi p ik p kj merupakan probabilitas bersyarat, mulai dari state i, lalu ke state k setelah v langkah dan kemudikan ke state j dalan n-v langkah, maka : P M (v) (n v) = p p ik kj k = o k Jika v = maka : P Jika v = n - M (n ) = p p ik kj k = o i, j,n = M (n -) P p p i, j,n ik kj k = o Ini merupakan probabilitas transisi langkah rekursif.
6 Rantai Markov 54 Penelitian Operasional II Untuk n = 2 maka (2) P = M p p ik kj k = o i, j,n Karena p (2) adalah elemen dari matriks P (2) maka dengan mengalikan matriks probabilitas transisi langkah dengan dirinya sendiri di dapat : P (2) = P. P = P 2 Secara umum : P = P. P P = P n = P. P n- = P n- P Contoh 4.8 Dari matriks transisi pada contoh 4.5 didapat : P (2) = P 2 = = Arti : p (2) : Stok kamera pada akhir minggu adalah, probabilitas bahwa 2 minggu kemudian tidak ada stok kamera adalah.283 p (2) 23 : Stok kamera pada akhir minggu adalah 2, probabilitas bahwa 2 minggu kemudian stok kamera menjadi 3 adalah.97 P (4) = P 4 = P (2) P (2) = =
7 Penelitian Operasional II Rantai Markov 55 Arti : p (4) : Stok kamera pada akhir minggu adalah, probabilitas bahwa 4 minggu kemudian tidak ada stok kamera adalah.282 p 23 (4) : Stok kamera pada akhir minggu adalah 2, probabilitas bahwa 4 minggu kemudian stok kamera menjadi 3 adalah.7 Probabilitas transisi n langkah p = P{X n = j X = i} merupakan probabilitas bersyarat. Jika dicari probabilitas tak bersyarat P(X n = j), maka harus diketahui distribusi probabilitas dari state awal, misalnya Q x (i), dimana : Q x (i) = P (X = i) I =,,2,,M Maka P(X n = j) = Q x () p oj + Q x () p j + + Q x (M) p Mj Contoh 4.9 Dari contoh 4.5 asumsikan bahwa stok awal =3 kamera, jadi : Q x () = Q x () = Q x (2) = ; Q x (3) = Diketahui bahwa probabilitas bersyarat bahwa terdapat 3 kamera setelah 2 minggu dari awal inventori adalah.65, maka probabilitas tak bersyaratnya adalah : P(X 2 = 3) = Q x (3). P 33 (2) = x.65 =.65 Misal diberikan bahwa Q x (i) =.25 I =,,2,3 maka P(X 2 = 3) = Q x () p 3 (2) + Q x () p 3 (2) + Q x (2) p 23 (2) + Q x (3) p 33 (2) =.25 (.65) +.25 (.233) +.25(.97) +.25(.65) =.65 Catatan 4. Kedua nilai tersebut di atas sama, ini hanya kebetulan saja. 4.5 KLASIFIKASI STATE DALAM RANTAI MARKOV Berikut ini merupakan beberapa difinisi yang berkaitan dengan state-state dari Rantai Markov.. Dapat dicapai (Accessible) State j dikatakan dapat dicapai (accessible) dari state i jika p > untuk beberapa n >. State j dapat dicapai (accessible) dari state i berarti bahwa sistem bisa mencapai state j jika berangkat dari state i. 2. Berkomunikasi (Communicate) jika state j dapat dicapai dari state i, dan state i dapat dicapai dari state j, maka state i dan j dikatakan berkomuniasi (communicate). Secara umum : a. setiap state berkomunikasi dengan dirinya sendiri. Karena : p ii () = P{X = i X = i} = ).
8 Rantai Markov 56 Penelitian Operasional II b. Jika state i berkomunikasi dengan state j, maka state j berkomunikasi dengan state i. c. Jika state i berkomunikasi dengan state j dan state j berkomunikasi dengan state k, maka state i berkomunikasi dengan state k. Dari ketiga sifat ini, maka suatu state mungkin dipartisi menjadi kelas-kelas yang saling asing (disjoint classes) dengan states yang saling berkomunikasi dikatakan berada dalam satu kelas. 3. Tak dapat direduksi (Irreducible) Rantai markov dikatakan irreducible jika hanya mempunyai satu kelas saja, jadi semua keadaan saling berkomunikasi. 4. Absorbing Suatau state i dikatakan sebagai state yang absorbing jika probabilitas transisi satu langkah p ii =. Jadi sekali sistem memasuki state i maka sistem akan tetap selamanya berada di state i tersebut. 5. Recurrent dan Transient State i dikatakan recurrent jika dan hanya jika : n = p ii = mulai dari state i, setelah keluar dari state i sistem pasti akan dapat kembali lagi ke state i (karena pasti maka nilai peluangnya adalah sehingga p ii = ) n = State i dikatakan transient jika dan hanya jika : n = p ii < Relevansi : Jika state i recurrent, maka di mulai dari state i, sistem akan kembali lagi dan kembali lagi ke state i berulang-ulang sampai tak berhingga kali. Sebaliknya jika state i transient, sekali saja sistem memasuki state i maka terdapat suatu peluang positif yang akan membawa sistem ini untuk tidak pernah lagi memasuki state i. Jika state i recurrent dan state i berkomunikasi dengan state j, maka state j juga bersifat recurrent. Semua state dalam suatu rantai markov dengan state yang bersifat irreducible terbatas adalah recurrent berarti juga seluruh state dalam proses berkomunikasi.
9 Penelitian Operasional II Rantai Markov Periode Periode dari state i didefinisikan sebagai bilangan bulat t (t > ) sedemikian hingga p ii = untuk seluruh n yang bukan kelipatan t (t, 2t, 3t, ) dan t adalah bilangan bulat terbesar dengan sifat ini Contoh 4. Pada contoh 4.7, misalkan p = ½ P = / 2 / 2 / 2 / 2 P 2 = / 2 / 4 / 4 / 4 / 4 / 2 P 3 = * * * P 4 = * * * * * * * * * Terlihat bahwa p = p 22 = untuk seluruh n, pada saat n =,3,5, berarti periode t (bukan n) adalah 2. Artinya : proses tersebut dapat masuk ke state hanya pada saat 2,4, 7. Aperiodik Jika terdapat 2 bilangan berurutan, s dan (s+) sedemikian hingga proses dapat berada pada state i pada saat s dan (s+), state i dikatakan memiliki periode dan disebut sebagai aperiodik state. 8. Positif Recurrent Jika state i recurrent, maka state i dikatakan positif recurrent Jika dimulai dari state i, waktu harapan sampai proses kembali lagi ke state i adalah terbatas. 9. Null Recurrent Jika state i recurrent tetapi tidak positif recurrent maka state i adalah Null Recurrent.. Ergodic Jika suatu state bersifat positif recurrent dan aperiodik maka state tersebut disebut ergodic. 4.9 WAKTU LINTASAN PERTAMA (FIRST PASSAGE TIME) Waktu yang dibutuhkan oleh suatu proses untuk menuju state j dari state i untuk pertama kali disebut sebagai waktu lintasan pertama (first passage time, fpt). Jika j=, waktu lintasan pertama ini merupakan jumlah transisi hingga proses kembali ke state mula-mula yaitu i. Dalam hal ini waktu lintasan pertama disebut sebagai waktu recurrence untuk state i.
10 Rantai Markov 58 Penelitian Operasional II Contoh 4.2 Dari contoh 4.5 (level inventori). Diketahui X = 3 (inventori awal). Andaikan : X = 2, X 2 =, X 3 =, X 4 = 3 dan X 5 =. Dalam hal ini FPT dari state 3 ke state adalah 2 minggu, FPT dari state 3 ke state adalah 3 minggu dan waktu recurrent adalah 4 minggu. Secara umum first passage time merupakan perubah acak dan memiliki distribusi probabilitas yang bersesuaian dengan mereka. Distribusi probabilitas ini tergantung pada peluang transisi dari proses. Misalkan : F : merupakan probabilitas bahwa first passage time dari state i ke state j sama dengan n. Dapat ditunjukkan bahwa probabilitas ini memenuhi hubungan rekursif sebagai berikut : f n (k) (n k) = p f.p jj k= Jadi probabilitas dari suatu first passage time dari state i ke state j dalam langkah n dapat dihitung secara rekursif dari probabilitas transisi satu langkah. Contoh 4.3: Dari contoh 4.5 : () f 3 =.8 (2) f 3 = (.8) (.8) =.243 untuk i dan j yang tetap, f merupakan bilangan nonnegatif sedemikian hingga : n= ( n ) f sayangnya, jumlahan ini sangatlah mungkin kurang dari, yang berarti bahwa suatu proses yang diawali dari state i tidak pernah mencapai state j. Jika jumlahan =, f (untuk n =, 2, ) dapat dianggap sebagai distribusi probabilitas untuk peubah acak, FPT. Menghitung, f untuk seluruh n mungkin sulit, relatif lebih sederhana untuk menghitung FPT harapan dari state i ke state j. Diberikan nilai harapan µ yang didefinisiakan sebagai berikut : ( n ) jika f < n= µ = ( n ) ( n ) = n f jika f n= n=
11 Penelitian Operasional II Rantai Markov 59 Bila ( n ) f = maka µ memenuhi persamaan berikut secara unik. n= µ = + p ik µ kj k j jika i = j, µ ii disebut recurrent time harapan. Contoh 4.4: Dari contoh 4.5. Persamaan di atas dapat digunakan untuk menghitung waktu harapan hingga kamera habis. Asumsikan proses dimulai dengan persediaan kamera = 3 lintasan waktu pertama harapan, µ 3 dapat dicapai karena seluruh state recurrent, maka : µ 3 = + p 3 µ + p 32 µ 2 + p 33 µ 3 µ 2 = + p 2 µ + p 22 µ 2 + p 23 µ 3 µ = + p µ + p 2 µ 2 + p 3 µ 3 atau µ 3 = +.84 µ µ µ 3 µ 2 = µ µ 2 µ = µ Di dapat : µ =,58 minggu µ 2 = 2,5 minggu µ 3 = 3,5 minggu Waktu yang dibutuhkan agar kamera kehabisan stok adalah 3,5 minggu. 4.5 RANTAI MARKOV DALAM JANGKA PANJANG (Long Run Properties of Markov Chain) 4.5. Probabilitas pada keadaan stabil (steady state probabilities) Untuk rantai markov yang irreducible ergodic dapat ditunjukkan bahwa : ( n ) lim p ada dan independen terhadap i. n Selanjutnya lim n p ( n ) = π j dimana π j secara unik memenuhi persamaan-persamaan steady state berikut : π j > M π j = π p i untuk j =,,2,, M M j= i= π j =
12 Rantai Markov 6 Penelitian Operasional II π j disebut sebagai probabilitas pada keadaan stabil dari rantai markov dan memiliki hubungan resiprokal terhadap waktu recurrent harapan. π j = untuk j =,,, M µ jj! Steady state probability artinya adalah : bahwa probabilitas bahwa untuk mendapatkan proses dalam suatu state tertentu, katakan j, setelah sejumlah besar transisi cenderung menuju nilai π j. Independen dari distribusi probabilitas awal yang telah didefinisikan terhadap states tersebut.! π j dapat juga diinterpretasikan sebagai probabilitas stasioner. Contoh 4.5 Dari contoh 4.5 π = π p + π p +π 2 p 2 +π 3 p 3 π = π p + π p +π 2 p 2 +π 3 p 3 π 2 = π p 2 + π p 2 +π 2 p 22 +π 3 p 32 π 3 = π p 3 + π p 3 +π 2 p 23 +π 3 p 33 = π + π + π 2 + π 3 substitutikan nilai p ke dalam persamaan di atas, didapat : π = (.8) π + (.632) π + (.264) π 2 + (.8) π 3 π = (.84)π + (.368) π + (.368) π 2 + (.84) π 3 π 2 = (.368)π + (.368) π 2 + (.368) π 3 π 3 = (.368)π + (.368) π 3 = π + π + π 2 + π 3 di dapat : π =.285 π =.285 π 2 =.264 π 3 =.66 µ = / π = 3.5 minggu µ = / π = 3.5 minggu µ 22 = / π 2 = 3.79 minggu µ 33 = / π 3 = 6.2 minggu Catatan 4.6 Pada steady state probabilitas berlaku :! Jika i dan j merupakan states yang recurrent dengan kelas-kelas yang berbeda maka : p = untuk setiap n! Jika j merupakan state yang transient maka p = Berarti bahwa probabilitas untuk mendapatkan suatu proses dalam suatu state yang transient setelah sejumlah besar transisi cenderung menuju ke nol Biaya rata-rata harapan/unit waktu Untuk suatu rantai markov yang irreducible dengan recurent state positif, suatu rantai dengan state terbatas, berlaku :
13 Penelitian Operasional II Rantai Markov 6 N ( k ) lim p = π j n n N k = dimana π j memenuhi persamaan-persamaan stedy state. Andaikan bahwa suatu biaya (atau fungsi penalti lainnya) C(X t ) terjadi ketika proses berada di state X t pada saat t, untuk t =,,2, Catatan 4.7 C(X t ) adalah peubah acak dengan nilai C(), C(),, C(N) dan fungsi C(X t ) independen terhadap t.
Stochastic process. Stochastic process. Stochastic process. Stochastic process 08/05/2015 STOCHASTIC PROCESS OPERATIONAL RESEARCH II
OPERATIONAL RESEARCH II Agustina Eunike, ST., MT., MBA. Industrial Engineering University of Brawijaya STOCHASTIC PROCESS Sample space (ruang sample): all possible outcome Random variable: Fungsi nilai
Lebih terperinciBAB 3 PEMBAHASAN. Contoh 1:
BAB 3 PEMBAHASAN 3.1 Pengolahan Data Seperti yang telah dijelaskan sebelumnya, rantai markov atau proses markov akan digunakan untuk menganalisa data yang diperoleh dalam penelitian ini. Contoh kasus yang
Lebih terperinciBAB 2 LANDASAN TEORI
BAB 2 LANDASAN TEORI 2.1 Pengantar Pada bab ini akan diuraikan beberapa landasan teori untuk menunjang penulisan skripsi ini. Uraian ini terdiri dari beberapa bagian yang akan dipaparkan secara terperinci
Lebih terperinciBAB III METODE PENELITIAN
18 BAB III METODE PENELITIAN Pada bab ini akan dikemukakan metode-metode yang akan digunakan pada bab selanjutnya. Metode-metode pada bab ini yaitu metode Value at Risk dengan pendekatan distribusi normal
Lebih terperinciPengantar Proses Stokastik
Bab 3: Rantai Markov Diskrit Atina Ahdika, S.Si, M.Si Statistika FMIPA Universitas Islam Indonesia Rantai Markov Rantai Markov Rantai Markov Misalkan sebuah proses stokastik {X t } dengan t = 0, 1, 2,....
Lebih terperinciBAB 1. Rantai Markov 1.1 ILUSTRASI
BAB 1 Rantai Markov 1.1 ILUSTRASI (Ilustrasi 1) Akhir-akhir ini, hujan dan panas (baca: tidak hujan) datang silih berganti tanpa bisa diduga. Kalau hari ini hujan, besok mungkin hujan mungkin juga panas.
Lebih terperinciII. TINJAUAN PUSTAKA. real. T dinamakan himpunan indeks dari proses atau ruang parameter yang
II. TINJAUAN PUSTAKA 2.1 Proses Stokastik Stokastik proses = { ( ), } adalah kumpulan dari variabel acak yang didefinisikan pada ruang peluang (Ω, ς, P) yang nilai-nilainya pada bilangan real. T dinamakan
Lebih terperinciBAB II TINJAUAN PUSTAKA
BAB II TINJAUAN PUSTAKA Dalam bab ini dijelaskan beberapa definisi dan teorema yang digunakan dalam pembahasan selanjutnya. 2.1 Teori Peluang Definisi 2.1.1 (Percobaan Acak) (Ross 2000) Suatu percobaan
Lebih terperinciSilabus. Proses Stokastik (MMM 5403) Proses Stokastik. Contoh
Silabus Proses Stokastik (MMM 5403) Status: Wajib Minat Statistika Rantai Markov, klasifikasi rantai Markov. Limit rantai Markov dan aplikasinya. Rantai Markov kontinu, contoh-contoh klasik. Proses renewal,
Lebih terperinciRANTAI MARKOV ( MARKOV CHAIN )
RANTAI MARKOV ( MARKOV CHAIN ) 2.1 Tujuan Praktikum Rantai markov (Markov Chain ) merupakan salah satu materi yang akan dipelajari dalam praktikum stokastik. Berikut ini terdapat beberapa tujuan yang akan
Lebih terperinciPr { +h =1 = } lim. Suatu fungsi dikatakan h apabila lim =0. Dapat dilihat bahwa besarnya. probabilitas independen dari.
6.. Proses Kelahiran Murni Dalam bab ini, akan dibahas beberapa contoh penting dari waktu kontinu, state diskrit, proses Markov. Khususnya, dengan kumpulan dari variabel acak {;0 } di mana nilai yang mungkin
Lebih terperinciBAB 2 LANDASAN TEORI
BAB 2 LANDASAN TEORI 2.1. Teori Pemeliharaan Untuk menjamin kontinuitas kegiatan operasional suatu sistem, keandalan setiap komponen peralatan sangat dijaga agar peralatan tersebut tidak mengalami kegagalan
Lebih terperinciBab 2 LANDASAN TEORI. 2.1 Pengantar Proses Stokastik
Bab 2 LANDASAN TEORI Pada bab ini akan diberikan penjelasan singkat mengenai pengantar proses stokastik dan rantai Markov, yang akan digunakan untuk analisis pada bab-bab selanjutnya. 2.1 Pengantar Proses
Lebih terperinciBAB II LANDASAN TEORI
BAB II LANDASAN TEORI 2.1 Teori Peluang Definisi 2.1.1 Percobaan Acak (Ross 2000) Suatu percobaan yang dapat diulang dalam kondisi yang sama dan semua kemungkinan hasil yang muncul dapat diketahui tetapi
Lebih terperinciBAB 2 LANDASAN TEORI
BAB 2 LANDASAN TEORI 2.1 Peluang Peluang mempunyai banyak persamaan arti, seperti kemungkinan, kesempatan dan kecenderungan. Peluang menunjukkan kemungkinan terjadinya suatu kejadian yang bersifat acak.
Lebih terperinci6.6 Rantai Markov Kontinu pada State Berhingga
6.6 Rantai Markov Kontinu pada State Berhingga Markov chain kontinu 0 adalah proses markov pada state 0, 1, 2,.... Diasumsikan bahwa probabilitas transisi adalah stasioner, pada persamaan, (6.53) Pada
Lebih terperinciBAB III. Hidden Markov Models (HMM) Namun pada beberapa situasi tertentu yang ditemukan di kehidupan nyata,
BAB III Hidden Markov Models (HMM) 3.1 Pendahuluan Rantai Markov mempunyai state yang dapat diobservasi secara langsung. Namun pada beberapa situasi tertentu yang ditemukan di kehidupan nyata, beberapa
Lebih terperinciPengantar Proses Stokastik
Bab 6: Rantai Markov Waktu Kontinu Atina Ahdika, S.Si, M.Si Statistika FMIPA Universitas Islam Indonesia 2015 Pendahuluan Rantai Markov Waktu Kontinu Pendahuluan Pada bab ini, kita akan belajar mengenai
Lebih terperinciBAB 1. Rantai Markov 1.1 ILUSTRASI
BAB 1 Rantai Markov 1.1 ILUSTRASI (Ilustrasi 1) Akhir-akhir ini, hujan dan panas (baca: tidak hujan) datang silih berganti tanpa bisa diduga. Kalau hari ini hujan, besok mungkin hujan mungkin juga panas.
Lebih terperinciKlasifikasi Keadaan dalam Rantai Markov Menggunakan Algoritma Graf Classification of States of Markov Chains Using Graph Algorithms
Prosiding Statistika ISSN: 460-6456 Klasifikasi Keadaan dalam Rantai Markov Menggunakan Algoritma Graf Classification of States of Markov Chains Using Graph Algorithms 1 Yussy Anistia Nurislamiyati, Suwanda,
Lebih terperinciPENENTUAN KLASIFIKASI STATE PADA RANTAI MARKOV DENGAN MENGGUNAKAN NILAI EIGEN DARI MATRIKS PELUANG TRANSISI
PENENTUAN KLASIFIKASI STATE PADA RANTAI MARKOV DENGAN MENGGUNAKAN NILAI EIGEN DARI MATRIKS PELUANG TRANSISI Yohanes A.R. Langi 1) 1) Program Studi Matematika FMIPA Universitas Sam Ratulangi, Manado 95115
Lebih terperinciBAB II TINJAUAN PUSTAKA. komoditas, model pergerakan harga komoditas, rantai Markov, simulasi Standard
BAB II TINJAUAN PUSTAKA Pada bab ini akan dibahas beberapa tinjauan mengenai teori yang diperlukan dalam pembahasan bab-bab selanjutnya antara lain tentang kontrak berjangka komoditas, model pergerakan
Lebih terperinciBAB II LANDASAN TEORI
BAB II LANDASAN TEORI 2.1 Ruang Contoh, Kejadian dan Peluang Dalam suatu percobaan seringkali dilakukan pengulangan yang biasanya dilakukan dalam kondisi yang sama. Semua kemungkinan hasil yang akan muncul
Lebih terperinciBAB III PROSES POISSON MAJEMUK
BAB III PROSES POISSON MAJEMUK Pada bab ini membahas tentang proses stokastik, proses Poisson dan proses Poisson majemuk yang akan diaplikasikan pada bab selanjutnya. 3.1 Proses Stokastik Koleksi atau
Lebih terperinciReliabilitas Suatu Mesin Menggunakan Rantai Markov (Studi Kasus: Mesin Proofer Di Pabrik Roti Super Jam Banten)
Jurnal Matematika Integratif ISSN 42-684 Volume 3 No, April 27, pp 4-47 Reliabilitas Suatu Mesin Menggunakan Rantai Markov (Studi Kasus: Mesin Proofer Di Pabrik Roti Super Jam Banten) Mega Novia Andriani,
Lebih terperinciPENENTUAN PROBABILITAS ABSORPSI DAN EKSPEKTASI DURASI PADA MASALAH KEBANGKRUTAN PENJUDI
PENENTUAN PROBABILITAS ABSORPSI DAN EKSPEKTASI DURASI PADA MASALAH KEBANGKRUTAN PENJUDI Aditya Candra Laksmana, Respatiwulan, dan Ririn Setiyowati Program Studi Matematika Fakultas Matematika dan Ilmu
Lebih terperinciBAB 1. Rantai Markov 1.1 ILUSTRASI
BAB 1 Rantai Markov 1.1 ILUSTRASI (Ilustrasi 1) Akhir-akhir ini, hujan dan panas (baca: tidak hujan) datang silih berganti tanpa bisa diduga. Kalau hari ini hujan, besok mungkin hujan mungkin juga panas.
Lebih terperinciBAB II TINJAUAN PUSTAKA. X(t) disebut ruang keadaan (state space). Satu nilai t dari T disebut indeks atau
BAB II TINJAUAN PUSTAKA 2.1 Proses Stokastik Menurut Gross (2008), proses stokastik adalah himpunan variabel acak Semua kemungkinan nilai yang dapat terjadi pada variabel acak X(t) disebut ruang keadaan
Lebih terperinciBAB 2 LANDASAN TEORI
BAB 2 LANDASAN TEORI 2.1 Model Markov Dalam teori probabilitas, model Markov adalah model stokastik yang digunakan untuk memodelkan sistem yang berubah-ubah secara random di mana diasumsikan bahwa kondisi
Lebih terperinciBAB III HIDDEN MARKOV MODELS. Rantai Markov bermanfaat untuk menghitung probabilitas urutan keadaan
BAB III HIDDEN MARKOV MODELS Rantai Markov bermanfaat untuk menghitung probabilitas urutan keadaan yang dapat diamati. Tetapi terkadang ada urutan dari suatu keadaan yang ingin diketahui tetapi tidak dapat
Lebih terperinciMA4081 PENGANTAR PROSES STOKASTIK
Catatan Kuliah MA4081 PENGANTAR PROSES STOKASTIK Orang Pintar Belajar Stokastik disusun oleh Khreshna I.A. Syuhada, MSc. PhD. Kelompok Keilmuan STATISTIKA - FMIPA Institut Teknologi Bandung 2012 Tentang
Lebih terperinciBAB IV MODEL HIDDEN MARKOV
BAB IV MODEL HIDDEN MARKOV 4.1 State dan Proses Observasi Semua proses didefinisikan pada ruang peluang (Ω, F, P). Misalnya X = {X : k N} adalah rantai Markov dengan state berhingga yang bersifat homogen
Lebih terperinciCATATAN KULIAH PENGANTAR PROSES STOKASTIK
CATATAN KULIAH PENGANTAR PROSES STOKASTIK Oleh Atina Ahdika, S.Si, M.Si PROGRAM STUDI STATISTIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS ISLAM INDONESIA 2016 Daftar Isi Daftar Isi iv
Lebih terperinciBAB 2 TINJAUAN PUSTAKA
BAB 2 TINJAUAN PUSTAKA 2. Pengertian Pemeliharaan Menurut Agus Ahyari (99) pemeliharaan merupakan suatu kegiatan mutlak yang diperlukan dalam perusahaan yang saling berkaitan dengan proses produksi, sehingga
Lebih terperinciCatatan Kuliah. MA4181 Pengantar Proses Stokastik Stochastics: Precise and Prospective. Dosen: Khreshna I.A. Syuhada, MSc. PhD.
Catatan Kuliah MA4181 Pengantar Proses Stokastik Stochastics: Precise and Prospective Dosen: Khreshna I.A. Syuhada, MSc. PhD. Kelompok Keilmuan Statistika - FMIPA Institut Teknologi Bandung 2017 1 Tentang
Lebih terperinciBAB III MODEL HIDDEN MARKOV KONTINU DENGAN PROSES OBSERVASI ZERO DELAY
BAB III MODEL HIDDEN MARKOV KONTINU DENGAN PROSES OBSERVASI ZERO DELAY 3.1 State dan Proses Observasi Semua proses didefinisikan pada ruang peluang Ω,,. Misalkan ; adalah rantai Markov dengan state berhingga
Lebih terperinciModel Hibrida ARIMA dan Fuzzy Time Series Markov Chain
SEMINAR MATEMATIKA DAN PENDIDIKAN MATEMATIKA UNY 2017 Model Hibrida ARIMA dan Fuzzy Time Series Markov Chain Dennis Frisca Ayudya, Dewi Retno Sari Saputro Program Studi Matematika Universitas Sebelas Maret
Lebih terperinciPenentuan Probabilitas Absorpsi dan Ekspektasi Durasi pada Masalah Kebangkrutan Penjudi
Penentuan Probabilitas Absorpsi dan Ekspektasi Durasi pada Masalah Kebangkrutan Penjudi Aditya Candra Laksmana 1*, Respatiwulan 2, dan Ririn Setiyowati 3 1, 3 Program Studi Matematika Fakultas MIPA, Universitas
Lebih terperinciSIMULASI PADA MASALAH KEBANGKRUTAN PENJUDI
SIMULASI PADA MASALAH KEBANGKRUTAN PENJUDI Dwi Ardian Syah, Respatiwulan, dan Vika Yugi Kurniawan Program Studi Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Sebelas Maret ABSTRAK.
Lebih terperinciPengantar Proses Stokastik
Bab 1: Dasar-Dasar Probabilitas Statistika FMIPA Universitas Islam Indonesia Peluang Percobaan adalah kegiatan yang menghasilkan keluaran/hasil yang mungkin secara acak. Contoh: pelemparan sebuah dadu.
Lebih terperinciRENCANA PEMBELAJARAN SEMESTER (RPS) PROGRAM STUDI STATISTIKA
RENCANA PEMBELAJARAN SEMESTER (RPS) PROGRAM STUDI STATISTIKA A. MATA KULIAH Nama Mata Kuliah : Proses Stokastik Kode/sks : MAS 4113 /3 Semester : III Status (Wajib/Pilihan) : Pilihan (P) Prasyarat : MAS
Lebih terperinciMata Kuliah Pemodelan & Simulasi. Riani Lubis. Program Studi Teknik Informatika Universitas Komputer Indonesia
Mata Kuliah Pemodelan & Simulasi Riani Lubis Program Studi Teknik Informatika Universitas Komputer Indonesia Teori Inventori Inventory merupakan pengumpulan atau penyimpanan komoditas yang akan digunakan
Lebih terperinciPengantar Proses Stokastik
Bab 1: Dasar-Dasar Probabilitas Atina Ahdika, S.Si, M.Si Statistika FMIPA Universitas Islam Indonesia Ruang Sampel dan Kejadian Ruang Sampel dan Kejadian Ruang Sampel dan Kejadian Percobaan adalah kegiatan
Lebih terperinciPENDAHULUAN LANDASAN TEORI
1 PENDAHULUAN Latar Belakang Dalam kehidupan sehari-hari, banyak permasalahan yang dapat dimodelkan dengan proses stokastik. Proses stokastik dapat dibedakan menjadi dua yaitu proses stokastik dengan waktu
Lebih terperinciBAB II TINJAUAN PUSTAKA
3 BAB II TINJAUAN PUSTAKA 2.1 Proses Poisson Periodik Definisi 2.1 (Proses stokastik) Proses stokastik X = {X(t), t T} adalah suatu himpunan dari peubah acak yang memetakan suatu ruang contoh ke suatu
Lebih terperinciArisma Yuni Hardiningsih. Dra. Laksmi Prita Wardhani, M.Si. Jurusan Matematika. Surabaya
ANALISIS KESTABILAN DAN MEAN DISTRIBUSI MODEL EPIDEMIK SIR PADA WAKTU DISKRIT Arisma Yuni Hardiningsih 1206 100 050 Dosen Pembimbing : Dra. Laksmi Prita Wardhani, M.Si Jurusan Matematika Institut Teknologi
Lebih terperinciBAB III DARI MODEL ANTRIAN M/M/1 DENGAN POLA KEDATANGAN BERKELOMPOK KONSTAN. 3.1 Model Antrian M/M/1 Dengan Pola Kedatangan Berkelompok Acak
BAB III PERUMUSAN PROBABILITAS DAN EKSPEKTASI DARI MODEL ANTRIAN M/M/1 DENGAN POLA KEDATANGAN BERKELOMPOK KONSTAN 3.1 Model Antrian M/M/1 Dengan Pola Kedatangan Berkelompok Acak Model antrian ini para
Lebih terperinciBAB 2 LANDASAN TEORI
14 BAB 2 LANDASAN TEORI 2.1. Pendahuluan Antrian adalah kejadian yang sering dijumpai dalam kehidupan seharihari. Menunggu di depan loket untuk mendapatakan tiket kereta api, menunggu pengisian bahan bakar,
Lebih terperinciPengantar Proses Stokastik
Bab 1: Dasar-Dasar Probabilitas Statistika FMIPA Universitas Islam Indonesia 2015 Percobaan adalah kegiatan yang menghasilkan keluaran/hasil yang mungkin secara acak. Contoh: pelemparan sebuah dadu. Ruang
Lebih terperinciPemodelan Sistem Antrian Satu Server Dengan Vacation Queueing Model Pada Pola Kedatangan Berkelompok
SEMINAR NASIONAL MATEMATIKA DAN PENDIDIKAN MATEMATIKA UNY 2015 Pemodelan Sistem Antrian Satu Server Dengan Vacation Queueing Model Pada Pola Kedatangan Berkelompok Sucia Mentari, Retno Subekti, Nikenasih
Lebih terperinciCatatan Kuliah. MA4181 Pengantar Proses Stokastik Stochastics: Precise and Prospective. Dosen: Khreshna I.A. Syuhada, MSc. PhD.
Catatan Kuliah MA4181 Pengantar Proses Stokastik Stochastics: Precise and Prospective Dosen: Khreshna I.A. Syuhada, MSc. PhD. Kelompok Keilmuan Statistika - FMIPA Institut Teknologi Bandung 2017 1 Tentang
Lebih terperinciCatatan Kuliah. MA4181 PENGANTAR PROSES STOKASTIK Smart and Stochastic. disusun oleh Khreshna I.A. Syuhada, MSc. PhD.
Catatan Kuliah MA4181 PENGANTAR PROSES STOKASTIK Smart and Stochastic disusun oleh Khreshna I.A. Syuhada, MSc. PhD. Kelompok Keilmuan STATISTIKA - FMIPA Institut Teknologi Bandung 2014 Tentang MA4181 (Pengantar)
Lebih terperinciDISTRIBUSI PROBABILITAS TOTAL WAKTU BEKERJA SUATU SISTEM
DISTRIBUSI PROBABILITAS TOTAL WAKTU BEKERJA SUATU SISTEM Taryo, Suyono, Dian Handayani JURUSAN MATEMATIKA FAKULTAS MATEMATIKAN DAN ILMU PENGETAHUAN ALAM UNIVERSITAS NEGERI JAKARTA 2 Agustus 27 Abstraksi
Lebih terperinciDISTRIBUSI SATU PEUBAH ACAK
0 DISTRIBUSI SATU PEUBAH ACAK Dalam hal ini akan dibahas macam-macam peubah acak, distribusi peluang, fungsi densitas, dan fungsi distribusi. Pada pembahasan selanjutnya, fungsi peluang untuk peubah acak
Lebih terperinciPROSES KEPUTUSAN MARKOVIAN TEKNIK RISET OPERASI
PROSES KEPUTUSAN MARKOVIAN TEKNIK RISET OPERASI Contoh TIA 310 3 Contoh TIA 310 4 TIA 310 5 TIA 310 6 TIA 310 7 TIA 310 8 Cara Perhitungan 0.2 x 7 + 0.5 x 6 + 0.3 x 3 = 5.3 0 x 0 + 0.5 x 5 + 0.5 x 1 =
Lebih terperinciKAJIAN MODEL MARKOV WAKTU DISKRIT UNTUK PENYEBARAN PENYAKIT MENULAR PADA MODEL EPIDEMIK SIR. Oleh: RAFIQATUL HASANAH NRP.
TUGAS AKHIR KAJIAN MODEL MARKOV WAKTU DISKRIT UNTUK PENYEBARAN PENYAKIT MENULAR PADA MODEL EPIDEMIK SIR Oleh: RAFIQATUL HASANAH NRP. 1208 100 021 Dosen Pembimbing: Dra. Laksmi Prita Wardhani, M.Si. Drs.
Lebih terperinciCatatan Kuliah MA4181 Pengantar Proses Stokastik Precise and Stochastic. Dosen: Khreshna I.A. Syuhada, MSc. PhD.
Catatan Kuliah MA4181 Pengantar Proses Stokastik Precise and Stochastic Dosen: Khreshna I.A. Syuhada, MSc. PhD. Kelompok Keilmuan Statistika - FMIPA Institut Teknologi Bandung 2015 Tentang MA4181 (Pengantar)
Lebih terperinciBAB III METODE PROBABILISTIK P
BAB III METODE PROBABILISTIK P A. Metode Probabilistik P Metode probabilistik P adalah suatu sistem pengendalian persediaan yang jarak waktu antar pemesanan adalah tetap, namun jumlah pesanan berubah-ubah.
Lebih terperinci6.3 PROSES KELAHIRAN DAN KEMATIAN
6.3 PROSES KELAHIRAN DAN KEMATIAN Penjelasan dari proses-proses kelahiran murni dan kematian murni telah diskusikan pada bagian 6.1 dan 6.2 bahwa X(t) memungkinkan untuk naik ataupun turun. Jadi, apabila
Lebih terperinciPertemuan 5 ANALISIS RANTAI MARKOV
Pertemuan 5 ANALISIS RANTAI MARKOV Objektif: 1. Mahasiswa dapat merumuskan masalah dalam analisis rantai markov 2. Mahasiswa dapat mencari penyelesaian masalah dalam prorses perhitungan probabilitas dengan
Lebih terperinciKONSEP DASAR PROBABILITAS DAN DISTRIBUSI PROBABILITAS LELY RIAWATI, ST, MT.
KONSEP DASAR PROBABILITAS DAN DISTRIBUSI PROBABILITAS LELY RIAWATI, ST, MT. EKSPERIMEN suatu percobaan yang dapat diulang-ulang dengan kondisi yang sama CONTOH : Eksperimen : melempar dadu 1 kali Hasilnya
Lebih terperinciBAB II LANDASAN TEORI
BAB II LANDASAN TEORI Bab ini terdiri dari 3 bagian. Pada bagian pertama diberikan tinjauan pustaka dari penelitian-penelitian sebelumnya. Pada bagian kedua diberikan teori penunjang untuk mencapai tujuan
Lebih terperinciMA2082 BIOSTATISTIKA Bab 3 Peubah Acak dan Distribusi
MA2082 BIOSTATISTIKA Bab 3 Peubah Acak dan Distribusi Orang Biologi Tidak Anti Statistika Silabus Silabus dan Tujuan Konsep peubah acak, fungsi peluang (probability density function), fungsi distribusi
Lebih terperinciBAB II TINJAUAN PUSTAKA
BAB II TINJAUAN PUSTAKA 2.1 Proses Poisson Periodik Definisi 2.1 (Proses stokastik) Proses stokastik X = {X(t), t T } adalah suatu himpunan dari peubah acak yang memetakan suatu ruang contoh Ω ke suatu
Lebih terperinciBAB II LANDASAN TEORI
BAB II LANDASAN TEORI 2. Pengertian Distribusi Eksponensial Distribusi eksponensial adalah distribusi yang paling penting dan paling sederhana kegagalan mesin penghitung otomatis dan kegagalan komponen
Lebih terperinciMINGGU KE-8 HARGA HARAPAN DAN BEBERAPA KETAKSAMAAN DALA
MINGGU KE-8 HARGA HARAPAN DAN BEBERAPA KETAKSAMAAN DALAM STATISTIKA HARGA HARAPAN Definisi Misalkan X variabel random. Bila X variabel random kontinu dengan f.k.p. f (x) dan maka harga harapan X adalah
Lebih terperinciCatatan Kuliah MA4181 Pengantar Proses Stokastik Precise and Stochastic. Dosen: Khreshna I.A. Syuhada, MSc. PhD.
Catatan Kuliah MA4181 Pengantar Proses Stokastik Precise and Stochastic Dosen: Khreshna I.A. Syuhada, MSc. PhD. Kelompok Keilmuan Statistika - FMIPA Institut Teknologi Bandung 2015 Tentang MA4181 (Pengantar)
Lebih terperinciBAB II LANDASAN TEORI. ilmiah. Pencacahan atau pengukuran karakteristik suatu objek kajian yang
BAB II LANDASAN TEORI 2.1 Konsep Dasar Peluang Pada dasarnya statistika berkaitan dengan penyajian dan penafsiran hasil yang berkemungkinan (hasil yang belum dapat ditentukan sebelumnya) yang muncul dalam
Lebih terperinciPengantar Proses Stokastik
Bab 1: Dasar-Dasar Probabilitas Statistika FMIPA Universitas Islam Indonesia Peluang Percobaan adalah kegiatan yang menghasilkan keluaran/hasil yang mungkin secara acak. Contoh: pelemparan sebuah dadu.
Lebih terperinciII LANDASAN TEORI. 2.1 Ruang Contoh, Kejadian dan Peluang. 2.2 Peubah Acak dan Fungsi Sebaran
II LANDASAN TEORI 2.1 Ruang Contoh, Kejadian dan Peluang Dalam suatu percobaan sering kali diperlukan pengulangan yang dilakukan dalam kondisi yang sama. Semua kemungkinan hasil yang akan muncul akan diketahui
Lebih terperinciVolume 2 No 1 Desember 216 ISSN:288-3943 ANALISIS PERSEDIAAN BAHAN BAKU YANG OPTIMAL MENGGUNAKAN RANTAI MARKOV DI PT. PDM INDONESIA Muslena Layla Program Studi Komputerisasi Akuntansi Politeknik Trijaya
Lebih terperinciMINGGU KE-6 VARIABEL RANDOM DAN DISTRIBUSINYA
MINGGU KE-6 VARIABEL RANDOM DAN DISTRIBUSINYA VARIABEL RANDOM Misalkan (Ω, A, P) ruang probabilitas dan R = {x < x < } dan B : Borel field pada R. Andaikan X : Ω R dan untuk setiap A R, kita definisikan
Lebih terperinciBAB 1 PENDAHULUAN. 1.1 Latar Belakang
BAB 1 PENDAHULUAN 1.1 Latar Belakang Bidang statistika berhubungan dengan cara atau metode pengumpulan data, pengolahan, penyajian, dan analisisnya serta pengambilan kesimpulan berdasarkan data dan analisis
Lebih terperinciMA4081 PENGANTAR PROSES STOKASTIK
Catatan Kuliah MA4081 PENGANTAR PROSES STOKASTIK Orang Pintar Belajar Stokastik disusun oleh Khreshna I.A. Syuhada, MSc. PhD. Kelompok Keilmuan STATISTIKA - FMIPA Institut Teknologi Bandung 2012 Tentang
Lebih terperinciANALISIS ESTIMASI PERUBAHAN MINAT MAHASISWA UNIVERSITAS SUMATERA UTARA TERHADAP TUJUH OPERATOR GSM
Saintia Matematika Vol., No. 2 (2), pp. 9 9. ANALISIS ESTIMASI PERUBAHAN MINAT MAHASISWA UNIVERSITAS SUMATERA UTARA TERHADAP TUJUH OPERATOR GSM Hasoloan M Nababan, Open Darnius Sembiring, Ujian Sinulingga
Lebih terperinciANALISIS MARKOV Proses Markov Matriks kemungkinan perpindahan keadaan / transisi
ANALISIS MARKOV Analisis Markov adalah suatu teknik matematik untuk peramalan perubahan pada variabelvariabel tertentu berdasarkan pengetahuan dari perubahan sebelumnya Pada analisis ini terlihat suatu
Lebih terperinciCatatan Kuliah. MA5181 Proses Stokastik
Catatan Kuliah MA5181 Proses Stokastik Precise. Prospective. Dosen: Khreshna I.A. Syuhada, MSc. PhD. Kelompok Keilmuan Statistika - FMIPA Institut Teknologi Bandung 2016 1 Tentang MA5181 Proses Stokastik
Lebih terperinciCatatan Kuliah. MA4181 Pengantar Proses Stokastik Stochastics: Precise and Prospective. Dosen: Khreshna I.A. Syuhada, MSc. PhD.
Catatan Kuliah MA4181 Pengantar Proses Stokastik Stochastics: Precise and Prospective Dosen: Khreshna I.A. Syuhada, MSc. PhD. Kelompok Keilmuan Statistika - FMIPA Institut Teknologi Bandung 2017 1 Tentang
Lebih terperinciBAB I PENDAHULUAN. Dalam kehidupan sehari-hari, sering dijumpai peristiwa-peristiwa yang terjadi
BAB I PENDAHULUAN 1.1 Latar Belakang Masalah Dalam kehidupan sehari-hari, sering dijumpai peristiwa-peristiwa yang terjadi secara beruntun dan dengan kemungkinan yang berbeda-beda. Sebagai contoh sekarang
Lebih terperinciCatatan Kuliah. MA4181 PENGANTAR PROSES STOKASTIK Smart and Stochastic. disusun oleh Khreshna I.A. Syuhada, MSc. PhD.
Catatan Kuliah MA4181 PENGANTAR PROSES STOKASTIK Smart and Stochastic disusun oleh Khreshna I.A. Syuhada, MSc. PhD. Kelompok Keilmuan STATISTIKA - FMIPA Institut Teknologi Bandung 2014 Tentang MA4181 (Pengantar)
Lebih terperinciPROSES KEPUTUSAN MARKOV DENGAN METODE THE POLICY IMPROVEMENT ALGORITHM. (Skripsi) Oleh Nafisatutaliah
PROSES KEPUTUSAN MARKOV DENGAN METODE THE POLICY IMPROVEMENT ALGORITHM Skripsi) Oleh Nafisatutaliah JURUSAN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS LAMPUNG BANDAR LAMPUNG 2018
Lebih terperinciII. LANDASAN TEORI. 2. P bersifat aditif tak hingga, yaitu jika dengan. 2.1 Ruang Contoh, Kejadian dan Peluang
II. LANDASAN TEORI 2.1 Ruang Contoh, Kejadian dan Peluang Dalam suatu percobaan sering kali diperlukan pengulangan yang dilakukan dalam kondisi yang sama. Semua kemungkinan hasil yang akan muncul akan
Lebih terperinciPEMODELAN KELAHIRAN MURNI DAN KEMATIAN MURNI DENGAN DUA JENIS KELAMIN DENGAN PROSES STOKASTIK
Jurnal Matematika UNAND Vol. 3 No. 2 Hal. 72 79 ISSN : 2303 2910 c Jurusan Matematika FMIPA UNAND PEMODELAN KELAHIRAN MURNI DAN KEMATIAN MURNI DENGAN DUA JENIS KELAMIN DENGAN PROSES STOKASTIK FEBI OKTORA
Lebih terperinciPrediksi Indeks Saham Syariah Indonesia Menggunakan Model Hidden Markov
A39 Prediksi Indeks Saham Syariah Indonesia Menggunakan Model Hidden Markov Risa Septi Pratiwi dan Daryono Budi Utomo Departemen Matematika, Fakultas Matematka dan Ilmu Pengetahuan Alam, Institut Teknologi
Lebih terperinciRantai Markov Diskrit (Discrete Markov Chain)
#10 Rantai Markov Diskrit (Discrete Markov Chain) 10.1. Pendahuluan Berbagai teknik analitis untuk mengevaluasi reliability dari suatu sistem telah diuraikan pada bab terdahulu. Teknik analitis ini mengasumsikan
Lebih terperinciPengantar Statistika Matematik(a)
Catatan Kuliah Pengantar Statistika Matematik(a) Statistika Lebih Dari Sekadar Matematika disusun oleh Khreshna I.A. Syuhada, MSc. PhD. Kelompok Keilmuan STATISTIKA - FMIPA Institut Teknologi Bandung 2014
Lebih terperinciBAB I PENDAHULUAN 1.1 Latar Belakang
BAB I PENDAHULUAN 1.1 Latar Belakang Masalah persediaan merupakan masalah yang penting untuk dikendalikan. Baik persediaan barang di toko untuk dijual maupun persediaan bahan baku untuk proses produksi.
Lebih terperinciSISTEM PENGOLAHAN ISYARAT. Kuliah 2 Sinyal Acak
TK 403 SISTM PNGOLAHAN ISYARAT Kuliah Sinyal Acak Indah Susilawati, S.T., M.ng. Program Studi Teknik lektro Fakultas Teknik dan Ilmu Komputer Universitas Mercu Buana Yogyakarta 009 KULIAH SISTM PNGOLAHAN
Lebih terperinciKarakteristik Limit dari Proses Kelahiran dan Kematian
Karakteristik Limit dari Proses Kelahiran dan Kematian Disusun guna memenuhi tugas mata kuliah Pengantar Proses Stokastik Disusun oleh : Saidun Nariswari Setya Dewi Lisa Apriana Marvina Puspito Nita Eka
Lebih terperinciCatatan Kuliah. MA5181 Proses Stokastik
Catatan Kuliah MA5181 Proses Stokastik Precise. Prospective. Dosen: Khreshna I.A. Syuhada, MSc. PhD. Kelompok Keilmuan Statistika - FMIPA Institut Teknologi Bandung 2016 1 Tentang MA5181 Proses Stokastik
Lebih terperinciBI5106 ANALISIS BIOSTATISTIK Bab 3 Peubah Acak dan Dist
BI5106 ANALISIS BIOSTATISTIK Bab 3 Peubah Acak dan Distribusi Orang Biologi Tidak Anti Statistika Silabus Silabus dan Tujuan Konsep peubah acak, fungsi peluang (probability density function), fungsi distribusi
Lebih terperinciSTATISTIKA EKONOMI I Chapter 4 Distribusi Probabilitas Normal dan Binomial Chapter 5 Teori Sampling
STATISTIKA EKONOMI I Chapter 4 Distribusi Probabilitas Normal dan Binomial Chapter 5 Teori Sampling Rengganis Banitya Rachmat rengganis.rachmat@gmail.com 4. Distribusi Probabilitas Normal dan Binomial
Lebih terperinciMODEL STOKASTIK.
11 12. MODEL STOKASTIK alsen.medikano@gmail.com 1 PENDAHULUAN Model Stokastik adalah model matematika dimana gejala-gejala dapat diukur dengan derajat kepastian yang tidak stabil. Pada Model Stokastik
Lebih terperinciDistribusi Peluang Kontinu. Bahan Kuliah II2092 Probabilitas dan Statistik Oleh: Rinaldi Munir Sekolah Teknik Elektro dan Informatika ITB
Distribusi Peluang Kontinu Bahan Kuliah II9 Probabilitas dan Statistik Oleh: Rinaldi Munir Sekolah Teknik Elektro dan Informatika ITB 1 Fungsi Padat Peluang Untuk peubah acak kontinu, fungsi peluangnya
Lebih terperinciBAB II TINJAUAN PUSTAKA. (b) Variabel independen yang biasanya dinyatakan dengan simbol
BAB II TINJAUAN PUSTAKA A. Regresi Regresi adalah suatu studi statistik untuk menjelaskan hubungan dua variabel atau lebih yang dinyatakan dalam bentuk persamaan. Salah satu variabel merupakan variabel
Lebih terperinciKumpulan pasangan nilai-nilai dari variabel acak X dengan probabilitas nilai-nilai variabel random X, yaitu P(X=x) disebut distribusi probabilitas X
Kumpulan pasangan nilai-nilai dari variabel acak X dengan probabilitas nilai-nilai variabel random X, yaitu P(X=) disebut distribusi probabilitas X (distribusi X) Diskrit Seragam Binomial Hipergeometrik
Lebih terperinciBAB 2 LANDASAN TEORI
BAB 2 LANDASAN TEORI 2.1 Arti dan Peranan Persediaan Merujuk pada penjelasan Herjanto (1999), persediaan dapat diartikan sebagai bahan atau barang yang disimpan yang akan digunakan untuk memenuhi tujuan
Lebih terperinciPROSES MARKOV KONTINYU (CONTINOUS MARKOV PROCESSES)
#11 PROSES MARKOV KONTINYU (CONTINOUS MARKOV PROCESSES) 11.1. Pendahuluan Masalah keandalan yang berhubungan dengan sistem secara normal adalah space memiliki sifat diskrit yaitu sistem tersebut dapat
Lebih terperinciBAB III MODEL ANTRIAN MULTISERVER DENGAN VACATION
BAB III MODEL ANTRIAN MULTISERVER DENGAN VACATION Dalam sebuah sistem antrian akan terdapat individu yang datang untuk mendapatkan pelayanan yang disebut dengan customer, juga individu yang akan memberikan
Lebih terperincidengan probabilitas laju kelahiran dengan probabilitas laju kematian
6.5 Proses Kelahiran(kemunculan) dan Kematian(kehilangan) dengan State Absorpsi Proses kelahiran dan kematian dimana 0 (kondisi awal laju kelahiran sama dengan nol, atau dapat dikatakan bahwa tidak ada
Lebih terperinci