BAB IV ANALISIS MARKOV

dokumen-dokumen yang mirip
Pertemuan 5 ANALISIS RANTAI MARKOV

Hanna Lestari, ST, M.Eng. Lecture 11 : Rantai Markov

Markov Chain. Game Theory. Dasar Simulasi

MODUL PANDUAN PRAKTIKUM. Riset Operasional 2. Oleh: Tim Pengembangan Laboratorium Manajemen Menengah Fakultas Ekonomi Universitas Gunadarma

Keterangan Bulan 1 Bulan 2. Untung Rugi Jumlah Untung Rugi

RISET OPERASIONAL 2 OR 2

BAB I PENDAHULUAN. Perkembangan ilmu pengetahuan dan teknologi yang sangat pesat,

BAB 2 TINJAUAN PUSTAKA

BAB II LANDASAN TEORI

BAB 3 PEMBAHASAN. Contoh 1:

BAB 2 LANDASAN TEORI

ANALISIS MARKOV Proses Markov Matriks kemungkinan perpindahan keadaan / transisi

ANALISIS ESTIMASI PERUBAHAN MINAT MAHASISWA UNIVERSITAS SUMATERA UTARA TERHADAP TUJUH OPERATOR GSM

BAB III. Hidden Markov Models (HMM) Namun pada beberapa situasi tertentu yang ditemukan di kehidupan nyata,

BAB III HIDDEN MARKOV MODELS. Rantai Markov bermanfaat untuk menghitung probabilitas urutan keadaan

ANALISIS PERPIDAHAN PENGGUNAAN MEREK SIMCARD DENGAN PENDEKATAN RANTAI MARKOV

PENDEKATAN PERSAMAAN CHAPMAN-KOLMOGOROV UNTUK MENGUKUR RISIKO KREDIT. Chairunisah

PROSES KEPUTUSAN MARKOVIAN TEKNIK RISET OPERASI

BAB I PENDAHULUAN. Dalam kehidupan sehari-hari, sering dijumpai peristiwa-peristiwa yang terjadi

LABORATORIUM STATISTIK DAN OPTIMASI INDUSTRI FAKULTAS TEKNIK PROGRAM STUDI TEKNIK INDUSTRI UNIVERSITAS PEMBANGUNAN NASIONAL VETERAN JAWA TIMUR

Bab 1 PENDAHULUAN. 1.1 Latar Belakang Masalah

ANALISA SIFAT-SIFAT ANTRIAN M/M/1 DENGAN WORKING VACATION

BAB 2 LANDASAN TEORI DAN KERANGKA PEMIKIRAN. Analisis Markov merupakan sebuah teknik yang berhubungan dengan

BAB III MODEL HIDDEN MARKOV KONTINU DENGAN PROSES OBSERVASI ZERO DELAY

RENCANA PROGRAM KEGIATAN PERKULIAHAN SEMESTER (RPKPS)

Bab 2 LANDASAN TEORI. 2.1 Pengantar Proses Stokastik

PERTEMUAN 12 KEMEROSOTAN (DEGENERACY)

BAB 2 LANDASAN TEORI

BAB III METODE PENELITIAN

PERAMALAN PANGSA PASAR KARTU GSM DENGAN PENDEKATAN RANTAI MARKOV

BAB 2 LANDASAN TEORI

KONSEP MARKOV CHAINS UNTUK MENYELESAIKAN PREDIKSI BENCANA ALAM DI WILAYAH INDONESIA DENGAN STUDI KASUS KOTAMADYA JAKARTA UTARA

PREDIKSI BENCANA ALAM DI WILAYAH KABUPATEN WONOGIRI DENGAN KONSEP MARKOV CHAINS

RENCANA PEMBELAJARAN SEMESTER (RPS) PROGRAM STUDI STATISTIKA

BAB II TINJAUAN PUSTAKA. komoditas, model pergerakan harga komoditas, rantai Markov, simulasi Standard

BAB I PENDAHULUAN. digunakan oleh masyarakat pada umumnya. Dahulu keramik hanya dimanfaatkan

Penelitian Operasional II Rantai Markov RANTAI MARKOV

BAB III MODEL ANTRIAN MULTISERVER DENGAN VACATION

BAB V HASIL DAN PEMBAHASAN

Rantai Markov Diskrit (Discrete Markov Chain)

METODE MARKOV DAN PENERAPANNYA Markov Model and Its Applications. Noor Cholis Basjaruddin POLBAN

GARIS-GARIS BESAR PROGRAM PENGAJARAN PROGRAM STUDI: S1 SISTEM INFORMASI Semester : 4

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB 3 LANGKAH PEMECAHAN MASALAH

Matematika dan Statistika

BAB I PENDAHULUAN. sumber yang dapat dipercaya, petunjuk atau reputasi yang telah dibuat.

Silabus. Proses Stokastik (MMM 5403) Proses Stokastik. Contoh

PROSES MARKOV KONTINYU (CONTINOUS MARKOV PROCESSES)

VI. ANALISIS PANGSA PASAR KOPI ARABIKA DI KABUPATEN TANA TORAJA DAN ENREKANG. Dinamika sebaran pangsa pasar (market share) dari enam daerah

BAB V STUDI KASUS: HASIL DAN PEMBAHASAN

IMPLEMENTASI PENERAPAN MARKOV CHAIN PADA DATABASE MARKETING STUDI KASUS PELANGGAN E-COMMERCE

BAB 2 LANDASAN TEORI

BAB IV HASIL DAN PEMBAHASAN. 4.1 Distribusi probabilitas banyaknya pelanggan dalam sistem antrian

STUDI KASUS : SIMULASI MODEL PERMINTAAN SUPERMARKET DENGAN TEKNIK MONTECARLO

BAB I PENDAHULUAN 1.1 Latar Belakang dan Permasalahan

ANALISIS PASAR PERPINDAHAN KARTU PRA BAYAR GSM DENGAN RANTAI MARKOV. (Studi Kasus Mahasiswa UNDIP Semarang)

Solusi Sistem Persamaan Linear Ax = b

BAB I PENDAHULUAN 1.1 Latar Belakang

ANALISA SIFAT-SIFAT ANTRIAN M/M/1 DENGAN WORKING VACATION

Riset Operasional. Tahun Ajaran 2014/2015 ~ 1 ~ STIE WIDYA PRAJA TANA PASER

PERENCANAAN PERAWATAN MESIN MENGGUNAKAN METODE MARKOV CHAIN UNTUK MEMINIMUMKAN BIAYA PERAWATAN

II. TINJAUAN PUSTAKA. real. T dinamakan himpunan indeks dari proses atau ruang parameter yang

BAB II LANDASAN TEORI

6 Sistem Persamaan Linear

Rantai Markov dan Aplikasinya Sebagai Bagian dari Ilmu Probabilitas

Matriks. Baris ke 2 Baris ke 3

Pengantar Proses Stokastik

Sifat 1 Untuksebarang bilangan rasional a tak nol dan sebarang bilangan bulat m dan n, berlaku a m. a m = a m + n

BAB I PENDAHULUAN. penggunaan mesin secara terus - menerus, maka dibutuhkan kegiatan

DAFTAR ISI KATA PENGANTAR... DAFTAR ISI... DAFTAR TABEL... DAFTAR GAMBAR... DAFTAR PERSAMAAN... BAB I PENDAHULUAN Latar Belakang...

BAB II TINJAUAN PUSTAKA. X(t) disebut ruang keadaan (state space). Satu nilai t dari T disebut indeks atau

PENENTUAN PROBABILITAS ABSORPSI DAN EKSPEKTASI DURASI PADA MASALAH KEBANGKRUTAN PENJUDI

MODEL STOKASTIK.

BAB III METODE JUKES-CANTOR DAN METODE KIMURA. Pada Bab ini akan dibahas mengenai metode Jukes-Cantor dan

Penerapan Rantai Markov Dalam Pemilihan Minat Masuk Siswa SMA Ke Universitas Di Indonesia

BAB III DARI MODEL ANTRIAN M/M/1 DENGAN POLA KEDATANGAN BERKELOMPOK KONSTAN. 3.1 Model Antrian M/M/1 Dengan Pola Kedatangan Berkelompok Acak

Prediksi Produksi Kayu Bundar Kabupaten Malang Dengan Menggunakan Metode Markov Chains

PERENCANAAN PEMELIHARAAN PERALATAN BATCHING PLANT OPERATION DENGAN METODE MARKOV CHAIN GUNA MEMINIMUMKAN BIAYA PERAWATAN DI CV. PRIMADONA SNACK SKRPSI

BAB I PENDAHULUAN. 1.1 Latar Belakang

Pertemuan Ke 2 SISTEM PERSAMAAN LINEAR (SPL) By SUTOYO,ST.,MT

BAB 2 LANDASAN TEORI

KONTRAK PEMBELAJARAN

KHAIRUL MUKMIN LUBIS

BAB IV PROSES BIRTH-DEATH DAN APLIKASINYA DALAM SISTEM ANTRIAN. Kebanyakan sistem antrian dimodelkan menggunakan interarrival times dan

BAB 2 LANDASAN TEORI

ANALISIS SISTEM ANTRIAN SATU SERVER (M/M/1)

BAB 8 TEORI ANTRIAN (QUEUEING THEORY)

(Departemen Matematika FMIPA-IPB) Matriks Bogor, / 66

Modul 14. PENELITIAN OPERASIONAL I MODEL SIMULASI. Oleh : Eliyani PROGRAM KELAS KARYAWAN PROGRAM STUDI TEKNIK INDUSTRI FAKULTAS TEKNOLOGI INDUSTRI

BAB 2 LANDASAN TEORI

MENENTUKAN RENCANA JUMLAH DAN BIAYA PEREKRUTAN TENAGA KERJA DENGAN PROSES MARKOV DI PT. TASMA PUJA - KAMPAR

HASIL DAN PEMBAHASAN. Keempat Kelas PBAS

Analisis Rantai Markov Untuk Memprediksi Perpindahan Merek Shampoo Di Hypermart Swalayan Manado Town Square

Bab 4 SOLUSI PENGAMBILAN KEPUTUSAN. 4.1 Masalah Pengambilan Keputusan Markov dengan Pendekatan Program Linier

8 MATRIKS DAN DETERMINAN

PERBANDINGAN PENGGUNAAN RANTAI MARKOV DAN DISTRIBUSI CAMPURAN DATA TIDAK HUJAN DAN DATA HUJAN UNTUK MENSIMULASI DATA HUJAN HARIAN TUGAS AKHIR

Pendekatan Rantai Markov Waktu Diskrit dalam Perencanaan Kebutuhan Tempat Tidur Rumah Sakit. Oleh: Enjela Puspadewi

Pertemuan 1 Sistem Persamaan Linier dan Matriks

PENYELESAIAN MODEL TAHAP TERHINGGA DAN TAKHINGGA PADA PROSES KEPUTUSAN MARKOV DAN APLIKASINYA DI BIDANG PERTANIAN BILYAN USTAZILA

PREDIKSI JUMLAH LULUSAN DAN PREDIKAT KELULUSAN MAHASISWA FMIPA UNTAN TAHUN ANGKATAN 2013/2014 DENGAN METODE RANTAI MARKOV

Transkripsi:

BAB IV ANALISIS MARKOV 1. Pendahuluan Model Rantai Markov dikembangkan oleh seorang ahli Rusia A.A. Markov pada tahun 1906. Pada umumnya Riset Operasional bertujuan untuk mengambil keputusan yang optimal atas suatu permasalahan. Namun Analisis markov digunakan untuk menghasilkan suatu informasi probabilistik yang dapat digunakan untuk membantu pengambilan keputusan. Dengan kata lain teknik-teknik yang lain dalam Riset Operasional pada umumnya merupakan teknik optimisasi sedangkan pada Analisis Markov merupakan teknik deskriptif. Rantai Markov adalah suatu teknik matematik yang biasa digunakan untuk melakukan pembuatan model bermacam-macam sistem dan proses bisnis. Teknik ini dapat digunakan untuk memperkirakan perubahan-perubahan yang akan terjadi di waktu yang akan datang dalam variabel-variabel dinamis atas dasar perubahan-perubahan variabel tersebut di waktu lampau. 2. Ciri-ciri Proses Markov Probabilitas Transisi adalah perubahan dari satu status ke status yang lain pada periode (waktu) berikutnya dan merupakan suatu proses random yang dinyatakan dalam probabilitas. Untuk lebih jelasnya akan digunakan sebuah contoh kasus pada kendaraan umum. Dalam kasus ini terdapat dua buah state (kondisi / status) yaitu narik dan mogok. Jadi kendaraan umum tersebut akan selalu berada pada salah satu dari dua state tersebut, jika tidak narik maka mogok. Agar dapat digunakan dalam proses Markov dibutuhkan beberapa asumsi seperti berikut : a. Jika state kendaraan saat ini adalah narik maka hanya ada dua kemungkinan untuk kondisi waktu (hari) berikutnya yaitu narik kembali atau mogok. Sehingga jumlah probabilitas transisi pada setiap baris adalah satu. b. Probabilitas transisi itu tidak akan berubah untuk selamanya. c. Probabilitas transisi hanya tergantung pada status sekarang bukan status periode sebelumnya. 3. Menyusun Probabilitas Transisi Untuk menunjukkan cara penyusunan probabilitas transisi, akan digunakan contoh kasus diatas dengan probabilitas-probabilitas sebagai berikut:

Status (saat ini) Banyaknya Mobil Hari l Hari II Narik 120 144 100 76 Jumlah 220 220 Table 3.1 Hari l Hari II Narik Jumlah Narik 70 50 120 74 26 100 Jumlah 144 76 220 Tabel 3.2 Dari tabel di atas dapat diperoleh Probabilitas Transisi sebagai berikut: Hari II Hari l Narik Narik 70/120= 0,5833 50/120 = 0,4167 74/100 = 0,74 26/100 = 0,26 Tabel 3.3 4. Probabilitas Tree Probabilitas Tree merupakan cara yang mudah untuk menggambarkan sejumlah terbatas transisi dari suatu proses Markov. Agar lebih jelas kita masih akan mengambil contoh kasus di atas. Semisal ingin diketahui : a. Probabilitas hari ke-3 narik jika hari ke-1 narik b. Probabilitas hari ke-3 mogok jika hari ke-1 narik c. Probabilitas hari ke-3 narik jika hari ke-1 mogok d. Probabilitas hari ke-3 mogok jika hari ke-1 mogok

Maka kita akan buat Probabilitas Tree dari kasus di atas sebagai berikut: Hari ke-1 Hari ke-2 Hari ke-3 0,5833 0,5833 0,3402 Narik Narik 0,5833 0,4167 Narik 0,4167 0,74 0,2431 0,3084 Narik 0,1083 0,4167 0,26 Probabilitas Tree hari ke-1 narik Hari ke-1 Hari ke-2 Hari ke-3 0,4316 0,74 0,5833 Narik Narik 0,74 0,3084 0,4167 0,192 0,74 Narik 0,26 0,26 0,26 0,0676 Probabilitas Tree hari ke-1 mogok Dari gambar 3.1 dan Gambar 3.2 dapat kita jawab soal di atas, sehingga : a. Probabilitas hari ke-3 narik, jika hari ke-1 narik = 0,3402 + 0,3084 = 0,6486 b. Probabilitas hari ke-3 mogok jika hari ke-1 narik = 0,2431 + 0,1083 = 0,3514 c. Probabilitas hari ke-3 narik, jika hari ke-1 mogok = 0,4316 + 0,1924 = 0,642 d. Probabilitas hari ke-3 mogok jika hari ke-1 mogok = 0,3084 + 0,0676 = 0,376 5. Pendekatan Matriks Ada kalanya kita harus mencari probabilitas pada periode yang sangat besar, misalkan periode hari ke-9, ke-10 dan seterusnya, akan sangat menyulitkan dan membutuhkan media penyajian yang khusus jika kita menggunakan Probabilitas Tree.

Permasalahan tersebut dapat diselesaikan dengan menggunakan metode Pendekatan Matriks Probabilitas Adapun Matriks Probabilitas dari contoh kasus di atas adalah sebagai berikut: 0,5833 0,4167 Probabilitas kendaraan narik pada periode ke-i jika pada periode ke-1 narik, dilambangkan dengan: Probabilitas Narik Nn (i) Periode ke-i Status Awal Narik Probabilitas kendaraan mogok pada periode ke-3 jika pada periode ke-1 mogok, dilambangkan dengan: Probabilitas Mm (3) Periode ke-3 Status Awal Jika kendaraan pada hari ke-1 narik maka berlaku probabilitas sebagai berikut: Nn(l) = 1 sedangkan Mm(l) = 0 Jika probabilitas di atas disusun ke dalam vektor baris, maka kita dapatkan: (Nn(l) Mm(l)) = (l 0) Adapun rumus untuk mencari probabilitas periode berikutnya (i+1) adalah: (Nn(i+1) Mn(i+1)) = (Nn(i) Mn(i)) x Matriks Probabilitas Transisi Bila rumus di atas kita gunakan untuk mencari probabilitas hari ke-2, maka: (Nn(2) Mn(2)) = (Nn(1) Mn(1)) 0,5833 0,4167 = (1 0) 0,5833 0,4167 = (0,5833 0,4167) Terlihat bahwa hasilnya sama dengan yang diperoleh dengan menggunakan metode Probabilities Tree. Dengan menggunakan cara yang sama kita akan dapatkan status untuk

periode-periode berikutnya sebagai berikut: (Nn(3) Mn(3)) = (0,6486 0,3514) (Nn(4) Mn(4)) = (0,6384 0,3616) (Nn(5) Mn(5)) = (0,6400 0,3400) (Nn(6) Mn(6)) = (0,6397 0,3603) (Nn(7) Mn(7)) = (0,6398 0,3602) (Nn(8) Mn(8)) = (0,6398 0,3602) Terlihat bahwa perubahan probabilitas semakin lama semakin mengecil sampai akhirnya tidak tampak adanya perubahan. Probabilitas tersebut tercapai mulai dari periode ke-7, dengan probabilitas status: (Nn(7) Mn(7)) = (0,6398 0,3602) Ini berarti pemilik kendaraan dapat menarik kesimpulan bahwa jika awalnya kendaraan berstatus narik, setelah beberapa periode di masa depan probabilitasnya narik adalah sebesar 0,6398 dan probabilitasnya mogok adalah sebesar 0,3602. Untuk perhitungan probabilitas status hari pertama mogok dapat kita cari dengan metode yang sama dan akan kita dapatkan probabilitas yang akan sama untuk periode selanjutnya, mulai dari periode ke-8. Adapun probabilitas pada periode ke-8 adalah: (Nm(8) Mm(8)) = (0,6398 0,3602) F. Probabilitas Steady State Dalam banyak kasus, proses markov akan menuju pada Steady State (keseimbangan) artinya setelah proses berjalan selama beberapa periode, probabilitas yang dihasilkan akan bernilai tetap, dan probabilitas ini dinamakan Probabilitas Steady State. Dari contoh di atas Probabilitas Steady Statenya adalah probabilitas narik sebesar 0,6398 dan probabilitas mogok sebesar 0,3602. Untuk mencari Probabilitas Steady State dari suatu Matriks Transisi, maka kita dapat menggunakan rumus: (Nn(i+1) Mn(i+1)) = (Nn(i) Mn(i)) x Matriks Probabilitas Transisi Karena Steady State akan menghasilkan probabilitas yang sama pada periode ke depan maka rumus tersebut akan berubah menjadi: (Nn(i) Mn(i)) = (Nn(i) Mn(i)) x Matriks Probabilitas Transisi

Dari contoh kasus di atas dengan status hari ke-1 narik, maka kita dapatkan: 0,5833 0,4167 Untuk mengurangi keruwetan, periode (i) dapat kita hilangkan, karena pada saat Steady State tercapai periode tidak akan mempengaruhi perhitungan. Sehingga perhitungan di atas akan menjadi: 0,5833 0,4167 (Nn Mn) = (Nn Mn) x Dari perhitungan di atas akan menghasilkan persamaan berikut: Nn = 0,5833Nn + 0,74Mn...(1) Mn = 0,4167Nn + 0,26Mn... (2) Karena salah satu ciri proses markov adalah: Nn(i) + Mn(i) = 1, maka: Nn + Mn = 1 Mn = 1 - Nn Dengan menstubstitusikan Mn = 1 -Nn ke persamaan (1) didapatkan: Nn = 0,5833Nn + 0,74(l-Nn) Nn = 0,5833Nn + 0,74-0,74Nn l,1567nn = 0,74 Nn = 0,6398 Lalu kita masukkan nilai Nn = 0,6398 ke dalam persamaan (2) didapatkan: Mn = 0,3602 G. Penggunaan Probabilitas Steady State Dari contoh kasus kita ketahui bahwa Pemilik Kendaraan memiliki 220 kendaraan. Dengan menggunakan Probabilitas Steady State yang sudah kita dapatkan, Pemilik dapat mengharapkan jumlah kendaraan setiap harinya narik atau mogok sebanyak: Narik : Nn x 220 = 0,6398 x 220= 140,756 atau sebanyak 141 kendaraan : Mn x 220 = 0,3602 x 220= 79,244 atau sebanyak 79 kendaraan

Misalkan Pemilik kurang puas dengan tingkat operasi yang ada dan ingin meningkatkannya, sehingga Pemilik mengambil kebijakan untuk menggunakan suku cadang asli dalam setiap perawatan armada. Kebijakan ini membuat Matriks Probabilitas Transisi berubah menjadi: 0,7 0,3 Artinya kebijakan ini membuat Probabilitas saat ini narik, lalu hari berikutnya mogok menurun dari 0,4 menjadi 0,3. Probabilitas Steady State yang baru adalah: (Nn Mn) = (Nn Mn) x 0,7 0,3 Sehingga kita adpatkan persamaan berikut: Nn = 0,7Nn + 0,74Mn (1) Mn = 0,3Nn + 0,26Mn (2) Substitusikan Nn = 1 - Mn ke persamaan (2), sehingga kita dapatkan: Mn = 0,2885 dan Nn = 0,7116 Artinya setiap harinya Pemilik dapat mengharapkan kendaraan yang narik atau mogok sebanyak: Narik : Nn x 220 = 0,7116 x 220 = 156,55 atau sebanyak 157 kendaraan : Mn x 220 = 0,2885 x 220 = 63,47 atau sebanyak 63 kendaraan Kebijakan tersebut menghasilkan kenaikan operasional dari 141 kendaraan perhari menjadi 157 kendaraan perhari. Dalam hal ini Pemilik harus mengevaluasi kebijakan ini, apakah kenaikan pendapatan operasional dapat menutupi kenaikan biaya operasional karena kebijakan ini. Misalkan karena kebijakan ini terjadi kenaikan biaya perawatan kendaraan sebesar Rp. 1.000.000,- setiap harinya. Jadi bila kenaikan pendapatan operasional lebih besar dari Rp. 1.000.000,- maka kebijakan tersebut layak untuk dijalankan. Dari contoh ini menunjukkan bahwa Analisis Markov tidak memberikan solusi atau keputusan, namun analisis tersebut memberikan informasi yang dapat membantu pembuatan

keputusan. CONTOH SOAL : 1) Sebuah Restoran BIASA AJA telah berdiri sejak 3 tahun yang lalu. Sang Pemilik Restoran ingin mengetahui perkembangan usahanya tersebut. Berikut ini data-data yang diperoleh Sang pemilik restoran selama 2 tahun : Keterangan Tahun 1 Tahun 2 2325 2250 2360 2435 Jumlah 4685 4685 Dalam waktu 2 tahun terakhir terdapat perubahan terhadap keuntungan dan kerugian pada restorannya. Untuk data lebih jelasnya, lihat tabel dibawah ini : Tahun 1 Tahun 2 Jumlah 525 1800 2325 1725 635 2360 Jumlah 2250 2435 4685 Ditanya: a. Buatlah tabel probabilitasnya! b. Tentukanlah probabilitas tahun ke-3 mengalami rugi, jika pada tahun ke-1 untung! c. Tentukanlah probabilitas tahun ke-3 mengalami rugi, jika pada tahun ke-1 rugi! d. Tentukanlah probabilitas tahun ke-3 mengalami untung, jika pada tahun ke-1 untung! e. Tentukanlah probabilitas tahun ke-3 mengalami untung, jika pada tahun ke-1 rugi! f. Tentukan probabilitas pada kondisi Steady State

Jawab : a) a) Tahun 1 Tahun 2 525/2325=0,2258 1800/2325=0,7742 1725/2360=0,7309 635/2360=0,2691 Bulan ke-1 Bulan ke-2 Bulan ke-3 0,0510 0,2258 0,2258 0,2258 0,7742 0,7742 0,7309 0,1748 0,5659 0,2083 0,7742 0,2691 Bulan ke-1 Bulan ke-2 Bulan ke-3 0,1650 0,7309 0,2258 0,7309 0,2691 0,7742 0,7309 0,5659 0,1967 0,0724 b),1748 + 0,2083 = 0,3831 0,2691 0,2691 c) 0,5659 + 0,0724 = 0,6383

d) 0,0501 + 0,5659 = 0,6168 e) 0,1650 + 0,1967 = 0,3617 Dalam menghitung Steady State dapat menggungakan cara seperti dibawah ini : X 1 = 0,2258 (X 1 ) + 0,7309 (1- X 1 ) X 1 = 0,2258 X 1 + 0,7309 0,7309 X 1 X 1 = -0,5051 X 1 + 0,7309 X 1 + 0,5051 X 1 = 0,7309 1,5051 X 1 = 0,7309 X 1 = 0,4856 X 2 = 1- X 1 X 2 = 1 0,4856 X 2 = 0,5144