BAB III KAJIAN SIMULASI

dokumen-dokumen yang mirip
BAB IV APLIKASI JARAK MAHALANOBIS

BAB I PENDAHULUAN. 1.1 Latar Belakang Masalah

BAB II TINJAUAN PUSTAKA. satu peubah prediktor dengan satu peubah respon disebut analisis regresi linier

BAB II LANDASAN TEORI. : Ukuran sampel telah memenuhi syarat. : Ukuran sampel belum memenuhi syarat

(R.14) METODE MINIMUM COVARIANCE DETERMINANT PADA ANALISIS REGRESI LINIER BERGANDA DENGAN KASUS PENCILAN

(α = 0.01). Jika D i > , maka x i atau pengamatan ke-i dianggap pencilan (i = 1, 2,..., 100). HASIL DAN PEMBAHASAN

BAB III ANALISIS KORELASI KANONIK ROBUST DENGAN METODE MINIMUM COVARIANCE DETERMINAN

BAB III CONTOH KASUS. Pada bab ini akan dibahas penerapan metode robust dengan penaksir M

BAB III REGRESI TERSENSOR (TOBIT) Model regresi yang didasarkan pada variabel terikat tersensor disebut

BAB II KAJIAN PUSTAKA. dicatat, atau diobservasi sepanjang waktu secara berurutan. Periode waktu dapat

TINJAUAN PUSTAKA. Matriks adalah suatu susunan bilangan berbentuk segi empat. Bilangan-bilangan

DISTRIBUSI KUADRAT JARAK MAHALANOBIS KLASIK : KAJIAN LITERATUR DAN SIMULASI. Diajukan sebagai syarat mengikuti sidang Sarjana Matematika

TINJAUAN PUSTAKA. Dalam proses pengumpulan data, peneliti sering menemukan nilai pengamatan

PERBANDINGAN METODE MCD-BOOTSTRAP DAN LAD- BOOTSTRAP DALAM MENGATASI PENGARUH PENCILAN PADA ANALISIS REGRESI LINEAR BERGANDA

BAB III. Model Regresi Linear 2-Level. Sebuah model regresi dikatakan linear jika parameter-parameternya bersifat

PENERAPAN BOOTSTRAP DALAM METODE MINIMUM COVARIANCE DETERMINANT (MCD) DAN LEAST MEDIAN OF SQUARES (LMS) PADA ANALISIS REGRESI LINIER BERGANDA

BAB 2 LANDASAN TEORI

BAB II LANDASAN TEORI. metode kuadrat terkecil (MKT), outlier, regresi robust, koefisien determinasi,

REGRESI LINIER. b. Variabel tak bebas atau variabel respon -> variabel yang terjadi karena variabel bebas. Dapat dinyatakan dengan Y.

BAB 2 LANDASAN TEORI

METODE ORDINARY LEAST SQUARES DAN LEAST TRIMMED SQUARES DALAM MENGESTIMASI PARAMETER REGRESI KETIKA TERDAPAT OUTLIER

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB II LANDASAN TEORI. Data merupakan bentuk jamak dari datum. Data merupakan sekumpulan

BAB 3 METODA PENELITIAN. industri penghasil bahan baku sektor pertambangan yang terdaftar di

DATA DAN METODE Sumber Data

BAB II LANDASAN TEORI

BAB I PENDAHULUAN. menyelidiki hubungan di antara dua atau lebih peubah prediktor X terhadap peubah

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI. kuantitas ataupun kualitatif dari karakteristik tertentu yang berlainan. Dan hasilnya merupakan data perkiraan atau estimate.

PENERAPAN METODE LEAST MEDIAN SQUARE-MINIMUM COVARIANCE DETERMINANT (LMS-MCD) DALAM REGRESI KOMPONEN UTAMA

Azzakiy Fiddarain ABSTRACT

BAB I PENDAHULUAN. Statistika adalah salah satu cabang ilmu yang mempelajari prosedur-prosedur

BAB III METODE PENELITIAN

BAB III METODE PENELITIAN. Metode penelitian ini menggunakan penelitian survey. Metode survey menurut

BAB II TINJAUAN PUSTAKA

Metode Minimum Covariance Determinan Pada Analisis Regresi Linier Berganda Dengan Kasus Pencilan

, dengan. Karakteristik dari vektor peubah acak X dan Y sebagai berikut:

MATRIKS SATUAN ACARA PERKULIAHAN MATA KULIAH PROBABILITA TERAPAN (SI) KODE / SKS: KD / 3 SKS

III. METODOLOGI PENELITIAN. Data yang digunakan dalam penulisan ini adalah data sekunder berupa data

BAB III MINIMUM VOLUME ELLIPSOID PADA ANALISIS KOMPONEN UTAMA ROBUST. Pada bab ini akan dikaji bahasan utama yaitu pencilan dan analisis

BAB III METODE PENELITIAN. dan penguasaan keterampilan kognitif baik secara sendiri-sendiri atau bersama -

BAB II TINJAUAN PUSTAKA. (b) Variabel independen yang biasanya dinyatakan dengan simbol

Bab 2 LANDASAN TEORI

BAB I PENDAHULUAN 1.1. Latar Belakang

BAB III MODEL REGRESI DATA PANEL. Pada bab ini akan dikemukakan dua pendekatan dari model regresi data

BAB 1 PENDAHULUAN. Perkembangan dunia teknologi berkembang sangat pesat di dalam kehidupan

ESTIMASI PARAMETER MODEL REGRESI LINIER BERGANDA DENGAN TEKNIK BOOTSTRAP

III. METODE PENELITIAN. series dan (2) cross section. Data time series yang digunakan adalah data tahunan

BAB IV HASIL PENELITIAN DAN PEMBAHASAN

II. TINJAUAN PUSTAKA. Dalam proses penelitian untuk mengkaji karakteristik penduga GMM pada data

KAJIAN TELBS PADA REGRESI LINIER DENGAN KASUS PENCILAN

BAB 2 LANDASAN TEORI. Bentuk umum persamaan regresi linier berganda adalah

BAB III METODE PENELITIAN. September). Data yang dikumpulkan berupa data jasa pelayanan pelabuhan, yaitu

BAB 3 METODOLOGI PENELITIAN

MA5283 STATISTIKA Bab 7 Analisis Regresi

Pertemuan 4-5 ANALISIS REGRESI SEDERHANA

REGRESI LINIER GANDA. Fitriani Agustina, Math, UPI

PENERAPAN METODE BOOTSTRAP RESIDUAL DALAM MENGATASI BIAS PADA PENDUGA PARAMETER ANALISIS REGRESI

Hitung Perataan Kuadrat Terkecil (Least Squares Adjustment)

BAB III METODE PENELITIAN. Agar suatu penelitian dapat dipertanggungjawabkan kebenarannya, maka

BAB IV HASIL PENELITIAN DAN PEMBAHASAN. A. Pengaruh Rasio Profitabilitas, Rasio Solvabilitas Dan Rasio Likuiditas Terhadap

BAB ΙΙ LANDASAN TEORI

Modul Praktikum Analisis Numerik

BAB 3 METODE PENELITIAN. jenis data yang berbentuk angka (metric) yang terdiri dari:

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB 2 LANDASAN TEORI

III. METODE PENELITIAN. Penelitian ini merupakan kajian mengenai Faktor-Faktor Yang Mempengaruhi

TINJAUAN PUSTAKA. Analisis regresi adalah suatu metode analisis data yang menggambarkan

BAB 2 LANDASAN TEORI

III. METODE PENELITIAN. Jenis dan sumber data yang digunakan dalam penelitian ini adalah sebagai

BAB I PENDAHULUAN. 1.1 Latar Belakang

Tabel 1 Sudut terjadinya jarak terdekat dan terjauh pada berbagai kombinasi pemilihan arah acuan 0 o dan arah rotasi HASIL DAN PEMBAHASAN

REGRESI KUANTIL (STUDI KASUS PADA DATA SUHU HARIAN) Abstrak

BAB 2 TINJAUAN PUSTAKA = (2.2) =

BAB 2 LANDASAN TEORI

BAB IV ANALISIS HASIL DAN PEMBAHASAN. Perusahaan emiten manufaktur sektor (Consumer Goods Industry) yang

BAB 4 ANALISIS DAN HASIL PENELITIAN. Penggunaan analisis statistik deskriptif untuk memberikan gambaran data yang akan

BAB III METODE PENELITIAN. Populasi dalam penelitian ini adalah seluruh perusahaan yang tercatat dalam

MODUL 3 BIDANG RATA. [Program Studi Pendidikan Matematika STKIP PGRI Sumatera Barat]

PENERAPAN REGRESI LINIER MULTIVARIAT PADA DISTRIBUSI UJIAN NASIONAL 2014 (Studi Kasus Nilai Ujian Nasional 2014 SMP Negeri 1 Sayung)

REGRESI LINEAR SEDERHANA

BAB IV HASIL PENELITIAN DAN PEMBAHASAN Deskripsi Hasil Penelitian tentang Bimbingan Orang Tua

BAB III IDENTIFIKASI VARIABEL MODERATOR KATEGORIK

1. Model Regresi Linear dan Penaksir Kuadrat Terkecil 2. Prediksi Nilai Respons 3. Inferensi Untuk Parameter-parameter Regresi 4.

Bab V Pembahasan. Hasil perhitungan cadangan dengan menggunakan masing-masing metode dapat di lihat pada tabel 5.1 (lampiran B)

BAB 4 HASIL PENELITIAN Deskripsi Data Terdistribusi Kualitas Sistem Informasi Business

BAB IV ANALISIS HASIL DAN PEMBAHASAN. penelitian ini meliputi jumlah sampel (N), nilai minimum, nilai maksimum,

BAB III METODE PENELITIAN

Penerapan Turunan MAT 4 D. PERSAMAAN GARIS SINGGUNG KURVA A. PENDAHULUAN B. DALIL L HÔPITAL C. PERSAMAAN PADA KINEMATIKA GERAK TURUNAN. materi78.co.

BAB III METODE PENELITIAN. tertentu yaitu untuk mencari pemecahan dari permasalahan yang telah

BAB III OBJEK DAN METODE PENELITIAN. Objek penelitian yang dianalisis adalah faktor-faktor yang mempengaruhi

PERBANDINGAN REGRESI ROBUST PENDUGA MM DENGAN METODE RANDOM SAMPLE CONSENSUS DALAM MENANGANI PENCILAN

PERBANDINGAN METODE LEAST TRIMMED SQUARES DAN PENAKSIR M DALAM MENGATASI PERMASALAHAN DATA PENCILAN

BAB II KAJIAN TEORI. Sebuah Matriks adalah susunan segi empat siku-siku dari bilangan-bilangan.

HASIL DAN PEMBAHASAN. Algoritma Cepat Penduga GS

BAB III METODE PENELITIAN. Pemerintah Daerah Kabupaten Lampung Barat tahun 2007 sampai dengan 2012.

METODOLOGI PENELITIAN

BAB I PENDAHULUAN. melakukan penelitian ada tiga jenis, yaitu data deret waktu (time series), data silang

BAB III METODE PENELITIAN. Ruang lingkup penelitian ini adalah menganalisis pengaruh antara upah

Transkripsi:

BAB III Kajian Simulasi 12 BAB III KAJIAN SIMULASI 3.1 Kajian simulasi tentang efektifitas pengujian 1 outlier Kajian terhadap literatur menghasilkan kesimpulan bahwa pendeteksian outlier dengan menggunakan jarak Mahalanobis sangat efektif jika hanya ada 1 buah outlier. Pada sub-bab ini akan dikemukakan kajian simulasi untuk memperlihatkan sejauh mana kesimpulan ini cocok dengan eksperimen. Langkah langkahnya sebagai berikut. 1 Bangkitkan data acak sebanyak n dari distribusi normal p-variat (0, ) N I p dengan n = 0 dan p = 5. Kemudian pada setiap elemen dari vektor data ke 3 yaitu x3, kita tambahkan 5. Dengan demikian, data ke 3 adalah outlier. Hasil simulasi ini disimpan data dengan label A15. 2 Selanjutnya terhadap setiap elemen pada vektor data ke 95 pada himpunan data A15, kita tambahkan pula 5. Hasilnya kita simpan dalam himpunan data berlabel A. Jadi, A mengandung 2 outlier yaitu data ke 3 dan ke 95. 3 Sekarang kita buat himpunan data berlabel A yang diperoleh dari A dengan menambahkan 5 pada setiap elemen vektor data ke. Jadi, A mengandung 3 outlier yaitu pada data ke 3, ke dan ke 95. 4 Lakukan langkah 1 sampai 3 di atas untuk n yang tetap tapi p = dan p =. Kita tuliskan Axy menyatakan himpunan data yang mengandung x buah outlier dengan p = y. Contohnya, A15 menyatakan himpunan data dengan 1 buah outlier dan p = 5. A (2 outlier p = 5), A (3 outlier p = 5), A1 (1

BAB III Kajian Simulasi 13 outlier p = ), A2 (2 outlier p = ), A3 (3 outlier p = ), A1 (1 outlier p = ), A2 (2 outlier p = ) dan A3 (3 outlier p = ). Terhadap 9 himpunan data hasil simulasi di atas, kemudian terapkan algoritma pendeteksian outlier yang telah dikemukakan pada Bab 1. Berikut adalah 9 buah plot kuadrat jarak Mahalanobis. 70 60 0 0 60 70 80 90 0 Gambar A15

BAB III Kajian Simulasi 14 45 15 5 0 0 60 70 80 90 0 Gambar A 15 5 0 0 60 70 80 90 0 Gambar A

BAB III Kajian Simulasi 15 70 60 0 0 60 70 80 90 0 Gambar A1 45 15 5 0 0 60 70 80 90 0 Gambar A2

BAB III Kajian Simulasi 16 15 5 0 0 60 70 80 90 0 Gambar A3 90 80 70 60 0 0 60 70 80 90 0 Gambar A1

BAB III Kajian Simulasi 17 70 60 0 0 60 70 80 90 0 Gambar A2 45 15 5 0 60 70 80 90 0 Gambar A3 Keterangan : Data A15, A, A, A1, A2 dan A3 tercantum pada lampiran A.

BAB III Kajian Simulasi 18 Pada himpunan-himpunan data dengan p = 5, plot kuadrat jarak Mahalanobis menunjukkan bahwa kehadiran 1 dan 2 outlier masih terlihat jelas. Plot kuadrat jarak Mahalanobis untuk dua data outlier tersebut cukup jauh dari kebanyakan data yang lain. Namun, untuk data dengan 3 outlier, sulit mengidentifikasi outlier karena di sini terjadi masking effect yaitu ditunjukkan dengan plot kuadrat jarak mahalanobis data ke (outlier) yang dekat dengan plot kuadrat jarak mahalanobis data ke 37 (bukan outlier). Untuk himpunan-himpunan data dengan p =, plot kuadrat jarak Mahalanobis hanya bisa mengidentifikasi 1 outlier. Kedua outlier pada A2 sulit diamati karena adanya masking effect yaitu oleh data ke 11 di mana plot kuadrat jarak Mahalanobis data ke 3 dan 95 (outlier) sudah cukup dekat dengan plot kuadrat jarak Mahalanobis data ke 11 (bukan outlier). Pada himpunan data A3 dengan 3 outlier, jarak Mahalanobis tidak mampu mengidentifikasi satu pun outlier. Gejala seperti di atas lebih tampak jelas pada himpunan data dengan p =. Dalam hal ini, jarak Mahalanobis hanya dapat mengidentifikasi 1 outlier saja. Untuk 2 dan 3 outlier, jarak Mahalanobis tidak mampu membedakan data outlier dan data bukan outlier. Masking effect tidak dapat dihindari. Dari eksperimen simulasi di atas dapat disimpulkan bahwa pendeteksian outlier dengan menggunakan jarak Mahalanobis hanya efektif diterapkan pada himpunan data yang mengandung 1 outlier, untuk n dan p berapapun.

BAB III Kajian Simulasi 19 3.2 Kajian simulasi tentang distribusi pendekatan kuadrat jarak Mahalanobis Untuk menyelidiki distribusi pendekatan kuadrat jarak Mahalanobis, pada sub-bab ini dilakukan eksperimen simulasi dengan membangkitkan data acak tanpa outlier. Simulasi akan dilakukan dengan pertama-tama menebak bahwa kuadrat jarak Mahalanobis berdistribusi chi-square dengan parameter p. Berikut langkahlangkah simulasinya. 1. Bangkitkan data acak dari distribusi normal p-variat (0, ) N I p sebanyak n = dengan p = 5. Hal ini dilakukan sebanyak kali sehingga diperoleh buah himpunan data. 2. Langkah 1 dilakukan untuk n dan p yang berbeda-beda yaitu (n, p) = (0, ), (0, ), (0, ) dan (00, 0). Untuk setiap pasangan (n, p) dilakukan replikasi sebanyak kali. 3. Kemudian terapkan algoritma perhitungan jarak Mahalanobis pada himpunan data di atas. Hasilnya diurutkan dari nilai terkecil hingga nilai terbesar. 4. Selanjutnya, hitung kuantil-kuantil distribusi chi-square dengan derajat kebebasan p. Dengan menggunakan MS Excel, perintahnya adalah sebagai berikut: = CHIINV(1-(k 0.5)/n, p), untuk k = 1, 2,.., n. 5. Buat diagram pencar dengan sumbu x menyatakan kuantil distribusi chi-square dan sumbu y adalah nilai kuadrat jarak Mahalanobis yang sudah diurut. Lalu buat garis regresi linier yang

BAB III Kajian Simulasi melewati titik (0,0) (set intercept = 0) dan tampilkan persamaan regresi beserta nilai R-square. Keterangan: data normal N(0, I p ) dengan n =, p = 5 dan n = 0, p = sebanyak 5 buah terlampir pada lampiran B. Dari simulasi di atas didapat buah persamaan (gradien persamaan) dan nilai R-square untuk masing-masing nilai n dan p. Berikut nilai-nilainya. 1. Untuk n =, p = 5 Replikasi Gradien R-Square 1 0.996 0.9697 2 0.9681 0.9829 3 0.9554 0.9637 4 0.9438 0.9736 5 0.9392 0.97 6 0.9578 0.9661 7 0.91 0.9428 8 0.91 0.9428 9 0.9691 0.9669 0.9191 0.9187 2. Untuk n = 0, p = Replikasi Gradien R-Square 1 0.9672 0.9611 2 0.9998 0.9768 3 0.9995 0.9823 4 0.9624 0.9473 5 0.9906 0.9926 6 0.9773 0.9803 7 0.9677 0.94 8 0.979 0.9752 9 0.9826 0.985 0.9769 0.9855

BAB III Kajian Simulasi 21 3. Untuk n = 0, p = Replikasi Gradien R-Square 1 0.9903 0.9916 2 0.9829 0.9648 3 0.9887 0.9886 4 0.988 0.9902 5 0.9932 0.9948 6 0.99 0.9948 7 0.9879 0.9863 8 0.9922 0.9895 9 0.9908 0.9903 0.9907 0.9934 4. Untuk n = 0, p = Replikasi Gradien R-Square 1 0.9957 0.9929 2 0.9972 0.9962 3 0.9984 0.9964 4 0.9948 0.9896 5 0.996 0.9943 6 0.9959 0.9927 7 0.9967 0.9955 8 0.9968 0.994 9 0.9975 0.9963 0.9952 0.9889 5. Untuk n = 00, p = 0 Replikasi Gradien R-Square 1 0.9981 0.9963 2 0.9981 0.9955 3 0.9476 0.9933 4 0.9977 0.994 5 0.9983 0.9965 6 0.9987 0.9982 7 0.9983 0.9978 8 0.9979 0.9949 9 0.9983 0.9962 0.9982 0.9957

BAB III Kajian Simulasi 22 Nilai gradien persamaan dan R-Square yang mendekati 1, untuk masing-masing percobaan dengan nilai n dan p yang berbeda-beda, menunjukkan bahwa distribusi chisquare dengan derajat kebebasan p sudah cukup baik dalam mendekati distribusi kuadrat jarak Mahalanobis. Mengingat kemudahan perhitungan dengan distribusi chi-square dengan derajat kebebasan p, maka untuk selanjutnya distribusi tersebut digunakan sebagai distribusi pendekatan bagi kuadrat jarak Mahalanobis. 3.3 Kajian simulasi tentang cut-off distribusi pendekatan distribusi beta, Distribusi eksak kuadrat jarak Mahalanobis adalah konstanta dikalikan d 2 ( x, x ) ~ S i 2 ( n 1) p ( n p 1) n Beta(, ) 2 2 Sedangkan distribusi pendekatanya adalah distribusi chi-square. d 2 ( x, x ) ~ S i 2 χ p Baik distribusi eksak maupun distribusi pendekatan, kedua-duanya dapat digunakan untuk menentukan nilai cut-off. Karena distribusi eksak mengandung dua parameter n dan p sedangkan distribusi pendekatan hanya melibatkan satu parameter p, agar distribusi pendekatan efektif, maka perlu diteliti nilai-nilai n. Penggunaan distribusi pendekatan sangat menarik karena perhtungannya lebih mudah dan cepat daripada distribusi eksak. Maka dari itu, dengan menggunakan simulasi, akan dicari nilai n minimum yang menghasilkan pendekatan yang

BAB III Kajian Simulasi 23 memuaskan. Simulasi dilakukan pada distribusi normal p-variat (0, ) N I p dengan suatu nilai n dan p di mana data ke n dibuat sebagai outlier. Berikut nilai cut-off kuadrat jarak Mahalanobis hasil pendekatan dengan yang eksak untuk berbagai nilai n dan p dengan α = 2.5 %. 1. Untuk p=5 n Pendekatan Eksak 12.8322 7.462483 15 12.8322 9.3276 12.8322.262 12.8322.76528 12.8322 11.1178 12.8322 11.36762 12.8322 11.55394 45 12.8322 11.6982 12.8322 11.81321 60 12.8322 11.989 70 12.8322 12.7 80 12.8322 12.19879 90 12.8322 12.26976 0 12.8322 12.3264 0 12.8322 12.58034 0 12.8322 12.66458 0 12.8322 12.70664 0 12.8322 12.73185 00 12.8322 12.78218 Untuk p = 5 ternyata cut-off kuadrat jarak Mahalanobisk hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak mahalanobis klasik yang eksak jika n > 15. Simulasi dengan p = 5 dan n > 15 ini masing masing dilakukan kali dan dari kali simulasi ini akhirnya didapat cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak.

BAB III Kajian Simulasi 24 Berikut plot kuadrat jarak Mahalanobis dengan cut-off hasil distribusi pendekatan dan eksak untuk p = 5 dengan n = 15 dan n = 16. 14 14 12 12 8 8 6 6 4 4 2 2 0 0 5 15 0 0 2 4 6 8 12 14 16 Gambar p5n15 Gambar p5n16 Pada Gambar p5n15 dan Gambar p5n16 terdapat garis biru dan garis hijau. Garis biru adalah cut-off dari distribusi hasil pendekatan sedangkan yang hijau adalah cutoff distribusi eksak. Pada gambar p5n15, cut-off distribusi eksak mendeteksi bahwa data terakhir adalah outlier sedangkan cut-off distribusi pendekatan tidak, artinya untuk n = 15 cut-off distribusi pendekatan tidak sama efektifnya dengan cut-off distribusi eksak. Namun pada Gambar p5n16, cut-off distribusi pendekatan dan cutoff distribusi eksak sama-sama hanya mendeteksi data terakhir sebagai outlier. Ini berarti untuk n = 16 (n > 15), cut-off distribusi pendekatan sama efektifnya dengan cut-off distribusi eksak.

BAB III Kajian Simulasi 2. Untuk p= n Pendekatan Eksak 15.483177 12.1.483177 14.707.483177 15.94586.483177 16.74213.483177 17.29942.483177 17.71166 45.483177 18.02913.483177 18.28127 60.483177 18.65639 70.483177 18.92223 80.483177 19.149 90.483177 19.274 0.483177 19.39644 0.483177 19.94314 0.483177.12386 0.483177.211 0.483177.26795 00.483177.37569 Untuk p = ternyata cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak jika n > 24. Simulasi dengan p = dan n > 24 ini masing masing dilakukan kali dan dari kali. Hasil simulasi memberikan cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak. Berikut plot kuadrat jarak Mahalanobis dengan cut-off hasil distribusi pendekatan dan eksak untuk p = dengan n = 24 dan n =.

BAB III Kajian Simulasi 26 22 18 16 14 12 8 6 4 2 0 5 15 Gambar pn24 22 18 16 14 12 8 6 4 2 0 5 15 Gambar pn Pada Gambar pn24, cut-off distribusi eksak mendeteksi bahwa data terakhir adalah outlier sedangkan cut-off distribusi pendekatan tidak. Artinya untuk n = 24, cut-off distribusi pendekatan tidak sama efektifnya dengan cut-off distribusi eksak. Namun pada Gambar pn, cut-off distribusi pendekatan dan cut-off distribusi eksak sama-sama hanya mendeteksi data terakhir sebagai outliernya. Ini berarti, untuk n = (n > 24), cut-off distribusi pendekatan sama efektifnya dengan cut-off distribusi eksak. 3. Untuk p=15 n Pendekatan Eksak 27.488393 17.558 27.488393 19.87616 27.488393 21.29454 27.488393 22.656 27.488393 22.95601 45 27.488393 23.4888 27.488393 23.90865

BAB III Kajian Simulasi 27 60 27.488393 24.52879 70 27.488393 24.96517 80 27.488393.28917 90 27.488393.53933 0 27.488393.73831 0 27.488393 26.6 0 27.488393 26.91271 0 27.488393 27.05727 0 27.488393 27.14383 00 27.488393 27.31645 Untuk p = 15 cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak jika n >. Simulasi dengan p = dan n >, masing masing dilakukan kali dan dari kali simulasi tersebut didapat cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak. Berikut plot kuadrat jarak Mahalanobis dengan cut-off hasil distribusi pendekatan dan eksak untuk p = dengan n = dan n = 31. 15 15 5 0 5 15 5 0 5 15 Gambar p15n Gambar p15n31 Pada Gambar p15n, cut-off distribusi eksak mendeteksi bahwa data terakhir adalah outlier sedangkan cut-off distribusi pendekatan tidak. Artinya, untuk n =

BAB III Kajian Simulasi 28 cut-off distribusi pendekatan tidak sama efektifnya dengan cut-off distribusi eksak. Namun pada Gambar p15n31, cut-off distribusi pendekatan dan cut-off distribusi eksak sama-sama hanya mendeteksi data terakhir sebagai outlier. Jadi, untuk n = 31 (n > ), cut-off distribusi pendekatan sama efektifnya dengan cut-off distribusi eksak. 4. Untuk p= n pendekatan eksak 34.169607 22.51397 34.169607 24.96914 34.169607 26.429 34.169607 27.58141 45 34.169607 28.3858 34.169607 29.01178 60 34.169607 29.969 70 34.169607.56244 80 34.169607 31.03222 90 34.169607 31.39331 0 34.169607 31.67966 0 34.169607 32.94283 0 34.169607 33.555 0 34.169607 33.56045 0 34.169607 33.68287 00 34.169607 33.9269 Untuk p = cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak jika n > 38. Simulasi dengan p = dan n > 38 masing masing dilakukan kali. Hasilnya memberikan cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak. Berikut plot kuadrat jarak Mahalanobis dengan cut-off hasil distribusi pendekatan dan eksak untuk p = dengan n = 38 dan n = 39.

BAB III Kajian Simulasi 29 15 15 5 0 5 15 Gambar pn38 0 5 15 gambar pn39 Pada Gambar pn38, cut-off distribusi eksak mendeteksi bahwa data terakhir adalah outlier sedangkan cut-off distribusi pendekatan tidak. Artinya untuk n = 38 cut-off distribusi pendekatan tidak sama efektifnya dengan cut-off distribusi eksak. Namun pada Gambar pn39, cut-off distribusi pendekatan dan cut-off distribusi eksak sama-sama hanya mendeteksi data terakhir sebagai outlier. Ini berarti untuk n = 39 (n > 38), cut-off distribusi pendekatan sama efektifnya dengan cut-off distribusi eksak. 5. Untuk p= n Pendekatan Eksak.646469 27.51546.646469.02865.646469 31.646 45.646469 32.8069.646469 33.69198 60.646469 34.9614 70.646469.83321 80.646469 36.4709 90.646469 36.95838 0.646469 37.34336 0.646469 39.02795

BAB III Kajian Simulasi 0.646469 39.579 0.646469 39.84462 0.646469.00611 00.646469.32736 Untuk p = ternyata cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak jika n > 44. Simulasi dengan p = dan n > 44 masing masing dilakukan kali dan dari kali didapat cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak. Berikut plot kuadrat jarak Mahalanobis dengan cut-off hasil distribusi pendekatan dan eksak untuk p = dengan n = 44 dan n = 45. 45 45 15 15 0 5 15 45 Gambar pn44 0 5 15 45 Gambar pn45 Pada Gambar pn44, cut-off distribusi eksak mendeteksi bahwa data terakhir adalah outlier sedangkan cut-off distribusi pendekatan tidak. Jadi, untuk n = 44 cutoff distribusi pendekatan tidak sama efektifnya dengan cut-off distribusi eksak. Namun pada Gambar pn45, cut-off distribusi pendekatan dan cut-off distribusi

BAB III Kajian Simulasi 31 eksak sama-sama hanya mendeteksi data terakhir sebagai outlier. Ini berarti untuk n = 45 (n > 44), cut-off distribusi pendekatan sama efektifnya dengan cut-off distribusi eksak. 6. Untuk p= n Pendekatan Eksak 46.979242 32.51618 46.979242.07 45 46.979242 36.74627 46.979242 37.9731 60 46.979242 39.68285 70 46.979242.833 80 46.979242 41.66399 90 46.979242 42.2949 0 46.979242 42.79077 0 46.979242 44.93953 0 46.979242 45.614 0 46.979242 45.97127 0 46.979242 46.17464 00 46.979242 46.57869 Untuk p = ternyata cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak jika n >. Simulasi dengan p = dan n > masing masing dilakukan kali dan dari kali diperoleh cut-off kuadrat jarak Mahalanobis hasil pendekatan yang sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak. Berikut plot kuadrat jarak Mahalanobis dengan cut-off hasil distribusi pendekatan dan eksak untuk p = dengan n = dan n=51.

BAB III Kajian Simulasi 32 45 45 0 5 15 45 15 0 60 Gambar pn Gambar pn51 Pada Gambar pn, cut-off distribusi eksak mendeteksi data terakhir sebagai outlier sedangkan cut-off distribusi pendekatan tidak. Jadi, untuk n = cut-off distribusi pendekatan tidak sama efektifnya dengan cut-off distribusi eksak. Namun pada Gambar pn, cut-off distribusi pendekatan dan cut-off distribusi eksak sama-sama hanya mendeteksi data terakhir sebagai outlier. Artinya untuk n = 51 (n > ), cut-off distribusi pendekatan sama efektifnya dengan cut-off distribusi eksak. 7. Untuk p= n Pendekatan Eksak 53.3349 37.51655 45 53.3349.041 53.3349 41.829 60 53.3349 44.2 70 53.3349 45.58586

BAB III Kajian Simulasi 33 80 53.3349 46.64222 90 53.3349 47.43644 0 53.3349 48.0568 0 53.3349.7144 0 53.3349 51.56008 0 53.3349 51.97665 0 53.3349 52.22468 00 53.3349 52.71664 Untuk p = ternyata cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak jika n > 56. Simulasi dengan p = dan n > 56 masing masing dilakukan kali dan dari kali diperoleh cut-off kuadrat jarak Mahalanobis hasil pendekatan yang sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak. Berikut plot kuadrat jarak Mahalanobis dengan cut-off hasil distribusi pendekatan dan eksak untuk p = dengan n = 56 dan n = 57. 55 55 45 45 0 60 0 60 Gambar pn56 Gambar pn57

BAB III Kajian Simulasi 34 Pada Gambar pn56, cut-off distribusi eksak mendeteksi bahwa data terakhir adalah outlier sedangkan cut-off distribusi pendekatan tidak. Artinya untuk n = 56 cut-off distribusi pendekatan tidak sama efektifnya dengan cut-off distribusi eksak. Namun pada Gambar pn56, cut-off distribusi pendekatan dan cut-off distribusi eksak sama-sama hanya mendeteksi data terakhir sebagai outlier. Jadi, untuk n = 57 (n > 56), cut-off distribusi pendekatan sama efektifnya dengan cut-off distribusi eksak. 8. Untuk p= n Pendekatan Eksak 45 59.341707 42.51674 59.341707 45.12371 60 59.341707 48.232 70 59.341707.09997 80 59.341707 51.483 90 59.341707 52.189 0 59.341707 53.16234 0 59.341707 56.37626 0 59.341707 57.38777 0 59.341707 57.88439 0 59.341707 58.17961 00 59.341707 58.76429 Untuk p = ternyata cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak jika n > 63. Simulasi dengan p = dan n > 63 masing masing dilakukan kali dan dari kali didapat cut-off kuadrat jarak Mahalanobis hasil pendekatan yang sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak. Berikut plot kuadrat jarak Mahalanobis dengan cut-off hasil distribusi pendekatan dan eksak untuk p = dengan n = 63 dan n = 64.

BAB III Kajian Simulasi 60 55 45 0 60 70 Gambar pn63 65 60 55 45 0 60 70 Gambar pn64 Pada Gambar pn63, cut-off distribusi eksak mendeteksi bahwa data terakhir adalah outlier sedangkan cut-off distribusi pendekatan tidak. Jadi, untuk n = 63 cutoff distribusi pendekatan tidak sama efektifnya dengan cut-off distribusi eksak. Namun pada Gambar pn64, cut-off distribusi pendekatan dan cut-off distribusi eksak sama-sama hanya mendeteksi data terakhir sebagai outlier. Artinya untuk n = 64 (n > 63), cut-off distribusi pendekatan sama efektifnya dengan cut-off distribusi eksak. 9. Untuk p=45 N pendekatan eksak 65.4159 47.51683 60 65.4159 51.92 70 65.4159 54.36539 80 65.4159 56.004 90 65.4159 57.6 0 65.4159 58.11997 0 65.4159 61.94171 0 65.4159 63.1295 0 65.4159 63.78 0 65.4159 64.05582 00 65.4159 64.73795

BAB III Kajian Simulasi 36 Untuk p = 45 ternyata cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak jika n > 69. Simulasi dengan p = 45 dan n > 69 masing masing dilakukan kali. Hasilnya adalah cut-off kuadrat jarak Mahalanobis hasil pendekatan yang sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak. Berikut plot kuadrat jarak Mahalanobis dengan cut-off hasil distribusi pendekatan dan eksak untuk p = 45 dengan n = 69 dan n = 70. 70 70 65 65 60 60 55 55 45 45 0 60 70 0 60 70 Gambar p45n69 Gambar p45n70 Pada Gambar p45n69, cut-off distribusi eksak mendeteksi bahwa data terakhir adalah outlier sedangkan cut-off distribusi pendekatan tidak. Jadi, untuk n = 69 cut-off distribusi pendekatan tidak sama efektifnya dengan cut-off distribusi eksak. Namun pada Gambar p45n70, cut-off distribusi pendekatan dan cut-off distribusi eksak sama-sama hanya mendeteksi data terakhir sebagai outlier. Ini artinya untuk n = 70 (n > 69), cut-off distribusi pendekatan sama efektifnya dengan cut-off distribusi eksak.

BAB III Kajian Simulasi 37. Untuk p= n Pendekatan Eksak 60 71.4195 55.15707 70 71.4195 58.329 80 71.4195 60.38593 90 71.4195 61.83665 0 71.4195 62.93613 0 71.4195 67.42247 0 71.4195 68.7974 0 71.4195 69.46775 0 71.4195 69.867 00 71.4195 70.64914 Untuk p = ternyata cut-off kuadrat jarak Mahalanobis hasil pendekatan sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak jika n > 75. Simulasi dengan p = dan n > 75 masing masing dilakukan kali. Hasilnya didapat cut-off kuadrat jarak Mahalanobis hasil pendekatan yang sama efektifnya dengan cut-off kuadrat jarak Mahalanobis yang eksak. Berikut plot kuadrat jarak Mahalanobis metode klasik dengan cut-off hasil distribusi pendekatan dan eksak untuk p = dengan n = 75 dan n = 76. 75 70 65 60 55 45 0 60 70 80 75 70 65 60 55 45 0 60 70 80 Gambar pn75 gambar pn76

BAB III Kajian Simulasi 38 Pada Gambar pn75, cut-off distribusi eksak mendeteksi bahwa data terakhir adalah outlier sedangkan cut-off distribusi pendekatan tidak. Artinya untuk n = 75 cut-off distribusi pendekatan tidak sama efektifnya dengan cut-off distribusi eksak. Namun pada Gambar pn76, cut-off distribusi pendekatan dan cut-off distribusi eksak sama-sama hanya mendeteksi data terakhir sebagai outlier. Ini artinya untuk n = 76 (n > 75), cut-off distribusi pendekatan sama efektifnya dengan cut-off distribusi eksak. Dari nilai n minimum yang diperoleh agar cut-off distribusi hasil pendekatan dapat dipakai dan keefektifannya sama dengan cut-off distribusi eksak untuk nilai p yang berbeda-beda didapat model nilai n minimum untuk masing-masing nilai p. Berikut data nilai p dan nilai minimum nya. p n minimum 5 16 15 31 39 45 51 57 64 45 70 76 Dari nilai n minimum di atas akan dilakukan regresi linear dengan p sebagai prediktor (variabel bebas atau biasa disebut x) dan n minimum sebagai respon (variabel terikat atau biasa disebut y) sehingga diperoleh,

BAB III Kajian Simulasi 39 n minimum 90 80 70 60 0 0 60 y = 1.91x + 11.4 R 2 = 0.9978 Dari hasil regresi linier diperoleh model n minimum terhadap p yaitu : Minimum n = 1.91 * p + 11.4 dengan R-square = 0.9978, artinya kecocokan model regresi terhadap data sangat bagus karena R-square nya sudah mendekati 1. Jadi, untuk data dengan p variabel sebaiknya menggunakan cut-off kuadrat jarak Mahalanobis hasil pendekatan jika nilai n data n minimum yang didapat dari model regresi (n minimum sebagai fungsi dari p). tapi nilai n minimum dikhawatirkan hanya berlaku untuk beberapa buah data saja contohnya seperti data yang kuadrat jarak mahalanobis klasiknya diplot diatas. Untuk mengatasi masalah ini maka untuk menentukan n minimum agar efektifitas cut-off pendekatan dapat dianggap sama efektifnya dengan cut-off eksak maka harus dicari nilai n minimum untuk suatu nilai p sehingga selisih cut-off pendekatan dengan cut-off eksak tidak terlalu besar atau cukup kecil, dalam hal ini ambil selisihnya 1.

BAB III Kajian Simulasi Untuk p = 5, cut-off pendekatan dengan cut-off eksak mempunyai selisih sekitar 1 untuk n =. untuk p = cut-off pendekatan dengan cut-off eksak mempunyai selisih sekitar 1 untuk n = 0. kemudian untuk p = maka n = 0, untuk p = maka n = 0, untuk p = maka n = 0 dan untuk p = maka n = 00. berikut tabel nilai n minimum sehingga cut-off pendekatan dan cut-off eksak dapat dianggap cukup dekat/hampir berimpit sehingga untuk data N(0,I p ) seperti apapun, cut-off pendekatan sama efektifnya dengan cut-off eksak : p n_minimum2 5 0 0 0 0 0 Dari nilai n_minimum2 untuk p=5,,,, dan akan dilakukan regresi linier untuk mendapatkan taksiran model n_minimum2 untuk sebarang nilai p. Berikut plot n_minimum2 terhadap p beserta model regresinya: plot n_minimum2 terhadap p n_minimum2 600 0 0 0 0 0 0 y =.822x + 28.767 R 2 = 0.9273 0 60 p

BAB III Kajian Simulasi 41 Dari hasil regresi diperoleh model n_minimum2 =.822*p + 28.767 dengan R 2 = 0.9273 (kecocokan model regresi dengan titik-titik yang diregresikan). Jadi, jika n lebih dari n_minimum2 untuk suatu p maka cut-off pendekatan akan sama efektifnya dengan cut-off eksak. Keterangan : data simulasi untuk p = 5 dengan n = 15 dan n = 16 serta data untuk p = dengan n = 24 dan n = terlampir di Lampiran C.