PERBANDINGAN REGRESI KOMPONEN UTAMA DAN ROBPCA DALAM MENGATASI MULTIKOLINEARITAS DAN PENCILAN PADA REGRESI LINEAR BERGANDA

dokumen-dokumen yang mirip
PENERAPAN METODE LEAST MEDIAN SQUARE-MINIMUM COVARIANCE DETERMINANT (LMS-MCD) DALAM REGRESI KOMPONEN UTAMA

PENERAPAN METODE GENERALIZED RIDGE REGRESSION DALAM MENGATASI MASALAH MULTIKOLINEARITAS

PERBANDINGAN METODE MCD-BOOTSTRAP DAN LAD- BOOTSTRAP DALAM MENGATASI PENGARUH PENCILAN PADA ANALISIS REGRESI LINEAR BERGANDA

PERBANDINGAN REGRESI ROBUST PENDUGA MM DENGAN METODE RANDOM SAMPLE CONSENSUS DALAM MENANGANI PENCILAN

PENERAPAN REGRESI ZERO-INFLATED NEGATIVE BINOMIAL (ZINB) UNTUK PENDUGAAN KEMATIAN ANAK BALITA

PENERAPAN METODE BOOTSTRAP RESIDUAL DALAM MENGATASI BIAS PADA PENDUGA PARAMETER ANALISIS REGRESI

BAB I PENDAHULUAN. menyelidiki hubungan di antara dua atau lebih peubah prediktor X terhadap peubah

PENERAPAN BOOTSTRAP DALAM METODE MINIMUM COVARIANCE DETERMINANT (MCD) DAN LEAST MEDIAN OF SQUARES (LMS) PADA ANALISIS REGRESI LINIER BERGANDA

Judul : Perbandingan Metode MCD Bootstrap dan. Analisis Regresi Linear Berganda. Pembimbing : 1. Dra. Ni Luh Putu Suciptawati,M.Si

PERBANDINGAN TRANSFORMASI BOX-COX DAN REGRESI KUANTIL MEDIAN DALAM MENGATASI HETEROSKEDASTISITAS

REGRESI ROBUST MM-ESTIMATOR UNTUK PENANGANAN PENCILAN PADA REGRESI LINIER BERGANDA

KNM XVI 3-6 Juli 2012 UNPAD, Jatinangor

Metode Regresi Ridge dengan Iterasi HKB dalam Mengatasi Multikolinearitas

Forum Statistika dan Komputasi, Oktober 2009 p : ISSN :

PERBANDINGAN TINGKAT EFISIENSI ANTARA METODE KUADRAT TERKECIL DENGAN METODE MINIMUM COVARIANCE DETERMINANT

ANALISIS KOMPONEN UTAMA DENGAN MENGGUNAKAN MATRIK VARIAN KOVARIAN YANG ROBUST

BAB I PENDAHULUAN. 1.1 Latar Belakang

PENERAPAN METODE PERMUKAAN RESPONS DALAM MASALAH OPTIMALISASI

STUDI METODE REGRESI RIDGE DAN METODE ANALISIS KOMPONEN UTAMA DALAM MENYELESAIKAN MASALAH MULTIKOLINEARITAS SKRIPSI OCKTAVALANNI SIREGAR

Tingkat Efisiensi Metode Regresi Robust dalam Menaksir Koefisien Garis Regresi Jika Ragam Galat Tidak Homogen

KINERJA JACKKNIFE RIDGE REGRESSION DALAM MENGATASI MULTIKOLINEARITAS

BAB I PENDAHULUAN. Analisis regresi merupakan sebuah alat statistik yang memberi penjelasan

MANAJEMEN DATA PENCILAN PADA ANALISIS REGRESI KOMPONEN UTAMA MAGRI HANDOKO

Pengaruh Outlier Terhadap Estimator Parameter Regresi dan Metode Regresi Robust

PERBANDINGAN ANALISIS LEAST ABSOLUTE SHRINKAGE AND SELECTION OPERATOR DAN PARTIAL LEAST SQUARES (Studi Kasus: Data Microarray)

EFISIENSI ESTIMASI SCALE (S) TERHADAP ESTIMASI LEAST TRIMMED SQUARES (LTS) PADA PRODUKSI PADI DI PROVINSI JAWA TENGAH

BAB II TINJAUAN PUSTAKA. satu peubah prediktor dengan satu peubah respon disebut analisis regresi linier

ISSN: Vol. 1 No. 1 Agustus 2012

METODE PARTIAL LEAST SQUARES UNTUK MENGATASI MULTIKOLINEARITAS PADA MODEL REGRESI LINEAR BERGANDA

METODE ORDINARY LEAST SQUARES DAN LEAST TRIMMED SQUARES DALAM MENGESTIMASI PARAMETER REGRESI KETIKA TERDAPAT OUTLIER

PEMODELAN UPAH MINIMUM KABUPATEN/KOTA DI JAWA TENGAH BERDASARKAN FAKTOR-FAKTOR YANG MEMPENGARUHINYA MENGGUNAKAN REGRESI RIDGE

STUDI KOMPARATIF METODE KUADRAT TERKECIL DENGAN METODE REGRESI ROBUST PEMBOBOT WELSCH PADA DATA YANG MENGANDUNG PENCILAN

PENERAPAN METODE REGRESI GULUD DAN REGRESI KOMPONEN UTAMA DALAM MENGATASI PENYIMPANGAN MULTIKOLINEARITAS PADA ANALISIS REGRESI LINEAR BERGANDA

E-Jurnal Matematika Vol. 2, No.3, Agustus 2013, ISSN:

Estimasi Interval Kepercayaan Bootstrap pada Parameter Regresi Komponen Utama

MENGATASI MULTIKOLINEARITAS MENGGUNAKAN PRINCIPAL COMPONENT ANALYSIS (PCA)

PENERAPAN METODE GENERALIZED RIDGE REGRESSION DALAM MENGATASI MASALAH MULTIKOLINEARITAS

PENERAPAN BOOTSTRAP DALAM METODE MINIMUM COVARIANCE DETERMINANT (MCD) DAN LEAST MEDIAN OF SQUARES (LMS) PADA ANALISIS REGRESI LINIER BERGANDA

PERMASALAHAN AUTOKORELASI PADA ANALISIS REGRESI LINIER SEDERHANA

BAB I PENDAHULUAN 1.1 Latar Belakang dan Permasalahan

REDUKSI DIMENSI ROBUST DENGAN ESTIMATOR MCD UNTUK PRA-PEMROSESAN DATA PEMODELAN STATISTICAL DOWNSCALING

Estimasi Model Seemingly Unrelated Regression (SUR) dengan Metode Generalized Least Square (GLS)

SKRIPSI. Disusun Oleh: Ana Kartikawati NIM. J2E009024

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

PEMODELAN REGRESI SPLINE (Studi Kasus: Herpindo Jaya Cabang Ngaliyan)

MODEL REGRESI ROBUST MENGGUNAKAN ESTIMASI S DAN ESTIMASI GS

PERTURBASI NILAI EIGEN DALAM MENGATASI MULTIKOLINIERITAS

BAB I PENDAHULUAN 1.1 Latar Belakang Masalah

PEMODELAN ANGKA KEMATIAN BAYI DENGAN PENDEKATAN GEOGRAPHICALLY WEIGHTED POISSON REGRESSION DI PROVINSI BALI

PERBANDINGAN ANALISIS FAKTOR KLASIK DAN KELOMPOK BAHAN MAKANAN DI JAWA TENGAH

1. PENDAHULUAN PADA PRODUKSI JAGUNG DI JAWA TENGAH

PENERAPAN REGRESI LINIER MULTIVARIAT PADA DISTRIBUSI UJIAN NASIONAL 2014 (Pada Studi Kasus Nilai Ujian Nasional 2014 SMP Negeri 1 Sayung)

TINJAUAN PUSTAKA. Dalam proses pengumpulan data, peneliti sering menemukan nilai pengamatan

BAB I PENDAHULUAN. Beberapa penelitian sering sekali melibatkan banyak variabel. Hal ini

GEOGRAPHICALLY WEIGHTED REGRESSION PRINCIPAL COMPONENT ANALYSIS (GWRPCA) PADA PEMODELAN PENDAPATAN ASLI DAERAH DI JAWA TENGAH

BAB I PENDAHULUAN. dependen disebut dengan regresi linear sederhana, sedangkan model regresi linear

PEMAKAIAN VARIABEL INDIKATOR DALAM PEMODELAN. Mike Susmikanti *

III. METODE PENELITIAN. Berdasarkan sifat penelitiannya, penelitian ini merupakan sebuah penelitian

Metode Minimum Covariance Determinan Pada Analisis Regresi Linier Berganda Dengan Kasus Pencilan

PENERAPAN REGRESI GENERALIZED POISSON UNTUK MENGATASI FENOMENA OVERDISPERSI PADA KASUS REGRESI POISSON

KAJIAN TELBS PADA REGRESI LINIER DENGAN KASUS PENCILAN

SIMULASI DAMPAK MULTIKOLINEARITAS PADA KONDISI PENYIMPANGAN ASUMSI NORMALITAS

PENDUGAAN MODEL REGRESI SEMIPARAMETRIK MENGGUNAKAN PENDUGA KERNEL [SKRIPSI] KOMPETENSI STATISTIKA


BAB II LANDASAN TEORI. Analisis regresi (regressison analysis) merupakan suatu teknik untuk membangun persamaan

(R.14) METODE MINIMUM COVARIANCE DETERMINANT PADA ANALISIS REGRESI LINIER BERGANDA DENGAN KASUS PENCILAN

ISSN: Vol. 1 No. 1 Agustus 2012

Efektivitas Metode Regresi Robust Penduga Welsch dalam Mengatasi Pencilan pada Pemodelan Regresi Linear Berganda

ESTIMASI REGRESI ROBUST M PADA FAKTORIAL RANCANGAN ACAK LENGKAP YANG MENGANDUNG OUTLIER

PERBANDINGAN REGRESI KOMPONEN UTAMA DENGAN REGRESI RIDGE PADA ANALISIS FAKTOR-FAKTOR PENDAPATAN ASLI DAERAH (PAD) PROVINSI JAWA TENGAH

SKRIPSI WANDA SURIANTO

BAB I PENDAHULUAN. 1.1 Latar Belakang

BAB VI ANALISIS REGRESI LINEAR GANDA

= parameter regresi = variabel gangguan Model persamaan regresi linier pada persamaan (2.2) dapat dinyatakan dalam bentuk matriks berikut:

Analisis Model Regresi Linear Berganda dengan Metode Response Surface

Perbandingan Metode Stepwise, Best Subset Regression, dan Fraksi dalam Pemilihan Model Regresi Berganda Terbaik

FAKTOR-FAKTOR YANG MEMPENGARUHI JUMLAH PENDUDUK DI JAWA TENGAH MENGGUNAKAN MODEL REGRESI ROBUST DENGAN ESTIMASI LEAST MEDIAN OF SQUARES (LMS)

JURNAL MATEMATIKA DAN KOMPUTER Vol. 4. No. 2, 71-81, Agustus 2001, ISSN :

TINJAUAN PUSTAKA. Matriks adalah suatu susunan bilangan berbentuk segi empat. Bilangan-bilangan

ANALISIS MODEL REGRESI NONPARAMETRIK SIRKULAR-LINEAR BERGANDA KOMPETENSI STATISTIKA SKRIPSI

ESTIMASI PARAMETER MODEL REGRESI LINIER BERGANDA DENGAN TEKNIK BOOTSTRAP

PENERAPAN ANALISIS REGRESI RIDGE PADA DATA PASIEN HIPERTENSI DI RUMAH SAKIT UMUM DAERAH SIDIKALANG TAHUN 2014

BAB 2 LANDASAN TEORI

PERBANDINGAN ORDINARY RIDGE REGRESSION DAN UNBIASED RIDGE REGRESSION DALAM MENGATASI MULTIKOLINEARITAS PADA DATA

X 3 : Flow Top (Aliran Atas) (lt/min) X 4 : Speed (Kecepatan) (m/min)

Perturbasi Nilai Eigen dalam Mengatasi Multikolinearitas

LEAST SQUARE AND RIDGE REGRESSION ESTIMATION ABSTRAK ( ) = ( + ) Kata kunci: regresi linear ganda, multikolinearitas, regresi gulud.

Ketakbiasan Dalam Model Analisis Faktor Konfirmatori Pada Metode Pendugaan Maximum Likelihood Untuk Data Ordinal

KAJIAN TERHADAP TINGKAT PEMERATAAN PENDIDIKAN MENGGUNAKAN ANALISIS BIPLOT KLASIK DAN BIPLOT KEKAR

BAB 1 PENDAHULUAN Latar Belakang

Kata Kunci: Analisis Regresi Linier, Penduga OLS, Penduga GLS, Autokorelasi, Regresor Bersifat Stokastik

BAB I PENDAHULUAN Latar Belakang dan Permasalahan

(α = 0.01). Jika D i > , maka x i atau pengamatan ke-i dianggap pencilan (i = 1, 2,..., 100). HASIL DAN PEMBAHASAN

PENANGANAN MULTIKOLINEARITAS (KEKOLINEARAN GANDA) DENGAN ANALISIS REGRESI KOMPONEN UTAMA. Tatik Widiharih Jurusan Matematika FMIPA UNDIP

BAB I PENDAHULUAN 1.1. Latar Belakang Masalah

PENERAPAN REGRESI POISSON UNTUK MENGETAHUI FAKTOR-FAKTOR YANG MEMENGARUHI JUMLAH SISWA SMA/SMK YANG TIDAK LULUS UN DI BALI

E-Jurnal Matematika Vol. 2, No.3, Agustus 2013, ISSN:

TUGAS AKHIR PEMODELAN REGRESI SPLINE. (Studi Kasus: Herpindo Jaya Cabang Ngaliyan) KOMPETENSI STATISTIKA I MADE BUDIANTARA PUTRA JURUSAN MATEMATIKA

Jl. Ir. M. Putuhena, Kampus Unpatti, Poka-Ambon ABSTRAK

III. METODOLOGI PENELITIAN. Modal, Dinas Penanaman Modal Kota Cimahi, Pemerintah Kota Cimahi, BPS Pusat

Transkripsi:

E-Jurnal Matematika Vol. 2, No.4, Nopember 2013, 1-5 ISSN: 2303-1751 PERBANDINGAN REGRESI KOMPONEN UTAMA DAN ROBPCA DALAM MENGATASI MULTIKOLINEARITAS DAN PENCILAN PADA REGRESI LINEAR BERGANDA NI WAYAN YULIANI 1, I KOMANG GDE SUKARSA 2, I GUSTI AYU MADE SRINADI 3 1,2,3 Jurusan Matematika FMIPA Universitas Udayana, Bukit Jimbaran-Bali e-mail: 1 yuliani_ani@rocketmail.com, 2 sukarsakomang@yahoo.co.id, 3 srinadiigustiayumade@yahoo.co.id Abstract Multiple linear regression analysis with a lot of independent variable always makes many problems because there is a relationship between two or more independent variables. The independent variables which correlated each other are called multicollinearity. Principal component analysis which based on variance covariance matrix is very sensitive toward the existence of outlier in the observing data. Therefore in order to overcome the problem of outlier it is needed a method of robust estimator toward outlier. ROBPCA is a robust method for PCA toward the existence of outlier in the data. In order to obtain the robust principal component is needed a combination of Projection Pursuit (PP) with Minimum Covariant Determinant (MCD). The results showed that the ROBPCA method has a bias parameter and Mean Square Error (MSE) parameter lower than Principal Component Regression method. This case shows that the ROBPCA method better cope with the multicollinearity observational data influenced by outlier. Keywords: Multiple Linear Regression, Principal Component Regression, ROBPCA (Robust Principal Component Analysis), multicollinearity, Outlier 1. Pendahuluan Analisis regresi linear berganda adalah salah satu metode statistika yang digunakan untuk mengetahui pengaruh sebuah variabel tidak bebas (dependent variable) dengan dua atau lebih variabel bebas (independent variable)[2]. Adapun tujuan dari analisis regresi linier berganda adalah mengetahui seberapa besar pengaruh beberapa variabel bebas terhadap variabel tidak bebas dan juga dapat meramalkan nilai variabel tidak bebas apabila seluruh variabel bebas sudah diketahui nilainya. Pada analisis regresi linier berganda dengan banyak variabel bebas, sering timbul masalah karena adanya hubungan antara dua atau lebih variabel bebas. Variabel bebas yang saling berkorelasi disebut multikolineari. Permasalahan yang terjadi pada analisis regresi berganda dapat mengakibatkan hasil analisis yang 1 Mahasiswa Jurusan Matematika FMIPA Universitas Udayana 2,3 Staf Pengajar Jurusan Matematika FMIPA Universitas Udayana 1

Ni Wayan Yuliani, Komang Gde Sukarsa, I G.A.M. Srinadi Perbandingan Regresi Komponen Utama & ROBPCA dalam Mengatasi Multikolinearitas & Pencilan kurang akurat. Multikolinearitas merupakan salah satu masalah yang terjadi pada analisis regresi linear berganda. Masalah lain yang dapat memengaruhi hasil analisis data adalah pencilan (outlier). Pada penelitian ini akan dibahas dua permasalahan statistik tersebut. Pada kasus multikolinearitas, korelasi antar variabel akan menyebabkan jumlah kuadrat galat yang semakin besar sehingga menghasilkan keputusan yang tidak significant. Kasus multikolinearitas juga sangat berpengaruh pada bentuk matriks. Pada pendugaan parameter β = X X 1 X Y, apabila terjadi multikolinearitas maka matriks X X singular, sehingga persamaan untuk pendugaan estimasi parameter tidak lagi mempunyai penyelesaian yang tunggal. Hal ini akan berdampak pada dugaan koefisien variabel tidak tunggal, melainkan tidak terhingga banyaknya sehingga tidak mungkin untuk menduganya [3]. Metode regresi komponen utama (Principal Component Regression) merupakan salah satu teknik dalam mengatasi multikolinearitas dengan cara mereduksi variabel variabel yang ada menjadi beberapa variabel baru yang saling bebas dan merupakan kombinasi linier dari variabel asal (Montgomery [1]). Dalam menentukan komponen utama pada metode Regresi Komponen Utama yakni melalui tahapan Principal Component Analysis (PCA). Analisis komponen utama yang berdasarkan matriks varian kovarian sangat sensitif terhadap adanya pencilan pada data pengamatan, sehingga untuk mengatasi masalah pencilan diperlukan suatu metode penduga yang tegar terhadap pencilan. ROBPCA (Robust Principal Component Analysis) adalah suatu metode yang kuat (robust) untuk PCA terhadap keberadaan pencilan pada data, untuk mendapatkan komponen utama yang robust diperlukan penggabungkan konsep Projection Pursuit (PP) dengan penduga robust Minimum Covariance Determinant (MCD)[4]. Penduga robust MCD merupakan nilai matriks rata-rata dan matriks kovarian dari sebagian pengamatan yang meminimumkan determinan matriks kovarian. Penduga ini didapat dengan cara mencari h pengamatan yang memberikan nilai minimum dari matrik kovarian (Sunaryo, [4]). Nilai matriks rata-rata t l dan matriks kovarians C l dirumuskan sebagai: 2. Metode Penelitian C l = 1 h t l = 1 H h b T. V H b V t T T l H b V t T l Data yang digunakan pada penelitian ini adalah data simulasi yang diperoleh dengan membangkitkan data yang berdistribusi normal, pemeriksaan multikolinearitas, pemeriksaan pencilan, serta penyelesaian Regresi Komponen Utama dan Robust Principle Component Analisys. Software yang digunakan adalah MINITAB 15 dan R i386 2.15.2. (1.1) (1.2) 2

e-jurnal Matematika Vol. 2, No. 4, Nopember 2013, 1-5 Langkah langkah yang dilakukan dalam penelitian ini yakni: 1. Membangkitkan data yang mengandung multikolinearitas dengan empat variabel bebas dan satu variabel tidak bebas, amatan yang dibangkitkan sebanyak amatan (n=). Nilai sisaan ε yang dibangkitkan berdistribusi normal dengan rataan nol dan ragam satu. Nilai sisaan yang dibangkitkan berukuran amatan. 2. Melakukan analisis regresi linear berganda setelah membentuk vaiabel tidak bebas dari beberapa variabel bebas. Pada langkah ini model regresi yang didapat tidak sesuai dengan yang diharapkan sehingga diperlukan suatu analisis untuk mendapatkan nilai penduga yang mendekati nilai yang diharapkan. 3. Menganalisis data bangkitan dengan metode regresi Komponen utama. Hasil analisis ini akan menjadi nilai penduga yang fit untuk mencari bias parameter. 4. Membangkitkan pencilan yang berdistribusi normal (N(40;0,05)) dengan persentase pencilan 10%, 15%, dan 20%. Selanjutnya menambahkan pencilan pada masing-masing peubah bebas dan melakukan analisis komponen utama. 5. Melakukan analisis dengan Robust Principle Component Analisys (ROBPCA) pada data pengamatan yang dipengaruhi oleh pencilan. 6. Langkah terakhir yakni membandingkan dan menganalisis kedua metode tersebut. Yang digunakan sebagai pembanding adalah nilai bias parameter dan nilai Mean Square Error. 3. Hasil dan Pembahasan 3.1 Perbandingan Regresi Komponen Utama (RKU) dan Robust Principle Component Analysis (ROBPCA) Bias parameter merupakan nilai harapan dari selisih antara nilai estimasi dan nilai yang sebenarnya. Nilai yang digunakan sebagai acuan adalah nilai penduga dari metode Regresi Komponen Utama yang tidak dipengaruhi oleh pencilan, sedangkan nilai yang digunakan sebagai nilai estimasi adalah nilai penduga dari metode Regresi Komponen Utama dan Robust Principle Component Analysis yang dipengaruhi oleh pencilan dengan persentase 10%, 15%, dan 20%. Bias parameter untuk kali ulangan diperoleh dengan rumus berikut ini: BIAS β i = fit j =1 β j p j =1 β j, i = 1,,4 Mean Square Error (MSE) suatu estimator merupakan nilai harapan dari bias kuadrat. Mean Square Error parameter untuk kali ulangan diperoleh dengan menggunakan rumus berikut ini: MSE β i = j =1 β j fit βj p 2, i = 1,,4 Hasil perhitungan bias parameter dan Mean Square Error untuk kali ulangan disajikan berturut-turut pada Tabel 1 dan Tabel 2. (3.1) (3.2) 3

Ni Wayan Yuliani, Komang Gde Sukarsa, I G.A.M. Srinadi Perbandingan Regresi Komponen Utama & ROBPCA dalam Mengatasi Multikolinearitas & Pencilan Tabel 1. Perbandingan Regresi Komponen Utama Dan ROBPCA Berdasarkan Pencilan Komponen Regresi Komponen Utama ROBPCA Intercept 19,6368 1,3057 PC1 1,4974 0,3775 10% PC2 0,4915 0,1309 PC3 0,0803 0,0023 PC4 0,6893 0,1160 Intercept 29,8135 6,3881 PC1 1,5809 0,3581 15% PC2 0,5197 0,0714 PC3 0,2581 0,0610 PC4 0,9431 0,3668 Intercept 39,8165 13,0083 PC1 1,1576 0,1045 20% PC2 0,4013 0,1743 PC3 1,4120 0,0457 PC4 1,1039 0,4341 Sumber : Data diolah (2013) Estimasi yang baik adalah estimasi yang menghasilkan nilai bias yang rendah atau kecil. Semakin besar nilai bias, maka semakin jauh penyimpangan dari nilai yang sebenarnya. Pada Tabel 1 munjukkan bahwa nilai penduga dari metode ROBPCA selalu lebih kecil dibandingkan dengan Regresi Komponen Utama. Oleh Karena itu nilai penduga dari metode ROBPCA lebih baik dibandingkan dengan metode Regresi Komponen Utama. Hal ini karena metode ROBPCA dapat mengatasi data pengamatan yang dipengaruhi oleh pencilan. Tabel 2. Perbandingan Regresi Komponen Utama Dan ROBPCA Berdasarkan Nilai Mean Square Error Parameter Pencilan Komponen Regresi Komponen Utama ROBPCA Intercept 392,0726 6,6843 PC1 3,9182 1,5095 10% PC2 2,8191 2,4226 PC3 0,1875 0,0206 PC4 2,7543 1,5256 Intercept 891,3347 48,4942 PC1 4,0961 1,4267 15% PC2 3,1972 3,0118 PC3 0,4456 0,0494 PC4 3,0174 1,6895 Intercept 1587,84599 173,4866 PC1 3,012465527 1,8322 20% PC2 2,682504765 2,2665 PC3 2,164030949 0,0714 PC4 3,060462252 1,8983 Sumber : Data diolah (2013) 4

e-jurnal Matematika Vol. 2, No. 4, Nopember 2013, 1-5 Semakin kecil nilai Mean Square Error suatu estimator, maka hasil estimasinya akan semakin baik. Pada Tabel 2 munjukkan bahwa nilai penduga dari metode ROBPCA selalu lebih kecil dibandingkan dengan Regresi Komponen Utama. Sehingga nilai penduga dari metode ROBPCA lebih baik dibandingkan dengan metode Regresi Komponen Utama. Hal ini karena metode ROBPCA dapat mengatasi data pengamatan yang dipengaruhi oleh pencilan. 4. Kesimpulan Pada penelitian ini nilai penduga dari metode ROBPCA memiliki nilai bias parameter dan nilai Mean Square Error (MSE) yang lebih kecil dibandingkan dengan nilai penduga dari metode Regresi Komponen Utama, sehingga metode ROBPCA memiliki nilai estimasi yang lebih baik dibandingkan dengan metode Regresi Komponen Utama. Daftar Pustaka [1] Montgomery, D.C. dan Peck, E.A. (1991) Introduction to Linear Regression Analysis, 2 nd edition, A Wiley-Interscience,New York. [2] Neter, J. (1997) Model Linear Terapan, Bandung: Diterjemahkan oleh Bambang Sumantri, IPB. [3] Notiragayu.2008.Pembandingan Beberapa Metode Analisis Regresi Komponen Utama Robust.Prosiding Seminar Hasil Penelitian dan Pengabdian kepada Masyarakat, Universitas Lampung. [4] Sunaryo, S. (2011) Mengatasi Masalah Multikolinearitas dan Outlier dengan Pendekatan ROBPCA (Studi Kasus: Angka Kematian Bayi di Jawa Timur), Jurnal Matematika, Saint dan Teknologi, Jurusan Statistika, ITS, vol. 12, Nomor 1, Maret, pp. 1-10. 5