MENGATASI MULTIKOLINEARITAS MENGGUNAKAN PRINCIPAL COMPONENT ANALYSIS (PCA)

dokumen-dokumen yang mirip
BAB 1 PENDAHULUAN Latar Belakang

METODE PENELITIAN. A. Variabel Penelitian dan Definisi Operasional. Untuk memperjelas dan memudahkan pemahaman terhadap variabelvariabel

III. METODE PENELITIAN. Berdasarkan sifat penelitiannya, penelitian ini merupakan sebuah penelitian

III. METODE PENELITIAN. menjadi dua macam, yaitu: pendekatan kuantitatif dan pendekatan kualitatif.

PRINCIPAL COMPONENT ANALYSIS (PCA) SEBAGAI SALAH SATU METODE UNTUK MENGATASI MASALAH MULTIKOLINEARITAS OLEH : SOEMARTINI

METODE PENELITIAN. A. Variabel Penelitian dan Definisi Operasional. Untuk memperjelas dan memudahkan pemahaman terhadap variabelvariabel

Analisis Regresi 2. Multikolinier & penanganannya

BAB. IX ANALISIS REGRESI FAKTOR (REGRESSION FACTOR ANALYSIS)

BAB II TINJAUAN PUSTAKA. Hal ini sangat membantu dalam proses pembuktian sifat-sifat dan perhitungan

BAB I PENDAHULUAN. Analisis regresi merupakan sebuah alat statistik yang memberi penjelasan

BAB 2 TINJAUAN PUSTAKA

Analisis Regresi 2. Multikolinier & penanganannya

BAB 2 LANDASAN TEORI

JURNAL MATEMATIKA DAN KOMPUTER Vol. 4. No. 2, 71-81, Agustus 2001, ISSN :

Peranan dari Pemilihan Level sebagai Referensi pada Variabel Bebas Bertipe Kategori terhadap Derajat Multikolinieritas dalam Model Regresi Linier

Metode Regresi Ridge dengan Iterasi HKB dalam Mengatasi Multikolinearitas

PERBANDINGAN REGRESI KOMPONEN UTAMA DAN ROBPCA DALAM MENGATASI MULTIKOLINEARITAS DAN PENCILAN PADA REGRESI LINEAR BERGANDA

PENERAPAN METODE REGRESI GULUD DAN REGRESI KOMPONEN UTAMA DALAM MENGATASI PENYIMPANGAN MULTIKOLINEARITAS PADA ANALISIS REGRESI LINEAR BERGANDA

BAB II TINJAUAN PUSTAKA. Dalam bab ini dibahas tentang matriks, metode pengganda Lagrange, regresi

PEMODELAN PRINCIPAL COMPONENT REGRESSION DENGAN SOFTWARE R

TINJAUAN PUSTAKA. Analisis regresi merupakan suatu teknik statistika untuk menyelidiki dan

BAB I PENDAHULUAN 1.1. Latar Belakang Masalah

III. METODOLOGI PENELITIAN

Bab 2 LANDASAN TEORI

III. METODE PENELITIAN. Jenis data yang digunakan dalam penelitian ini adalah data sekunder, time series triwulan dari

PERBANDINGAN REGRESI RIDGE DAN PRINCIPAL COMPONENT ANALYSIS DALAM MENGATASI MASALAH MULTIKOLINEARITAS

PENANGANAN MULTIKOLINEARITAS (KEKOLINEARAN GANDA) DENGAN ANALISIS REGRESI KOMPONEN UTAMA. Tatik Widiharih Jurusan Matematika FMIPA UNDIP

III. METODE PENELITIAN. Jenis data yang digunakan dalam penelitian ini adalah data sekunder deret waktu

Analisis Regresi: Regresi Linear Berganda

MODUL REGRESI LINIER SEDERHANA

BAB III MODEL REGRESI DATA PANEL. Pada bab ini akan dikemukakan dua pendekatan dari model regresi data

STK 511 Analisis statistika. Materi 7 Analisis Korelasi dan Regresi

Msi = x 100% METODE PENELITIAN

KNM XVI 3-6 Juli 2012 UNPAD, Jatinangor

METODE PENELITIAN. Cipondoh dan Kecamatan Pinang, Kota Tangerang. Penentuan lokasi sebagai

III. METODE PENELITIAN. deret waktu (time series) dengan periode waktu dari tahun 1993 sampai dengan

BAB II LANDASAN TEORI

BAB 2 LANDASAN TEORI. Analisis Korelasi adalah metode statstika yang digunakan untuk menentukan tingkat

Analisis Korelasi dan Regresi Sederhana

III. METODE PENELITIAN

IV METODOLOGI PENELITIAN

METODE PARTIAL LEAST SQUARES UNTUK MENGATASI MULTIKOLINEARITAS PADA MODEL REGRESI LINEAR BERGANDA

Estimasi Interval Kepercayaan Bootstrap pada Parameter Regresi Komponen Utama

BAB III LANDASAN TEORI

Perturbasi Nilai Eigen dalam Mengatasi Multikolinearitas

ESTIMASI PARAMETER REGRESI RIDGE MENGGUNAKAN ITERASI HOERL, KENNARD, DAN BALDWIN (HKB) UNTUK PENANGANAN MULTIKOLINIERITAS

VI. ANALISIS FAKTOR-FAKTOR YANG MEMPENGARUHI USAHA PEMBESARAN LELE DUMBO DI CV JUMBO BINTANG LESTARI

Regresi. Data : Untuk melakukan regresi linear, langkah-langkah sebagai berikut, 1. Pilih Stat > Regression > Regression

BAB 2 LANDASAN TEORI

= parameter regresi = variabel gangguan Model persamaan regresi linier pada persamaan (2.2) dapat dinyatakan dalam bentuk matriks berikut:

PERTURBASI NILAI EIGEN DALAM MENGATASI MULTIKOLINIERITAS

PENERAPAN METODE GENERALIZED RIDGE REGRESSION DALAM MENGATASI MASALAH MULTIKOLINEARITAS

METODE PENELITIAN. deposito berjangka terhadap suku bunga LIBOR, suku bunga SBI, dan inflasi

BAB II LANDASAN TEORI. Data merupakan bentuk jamak dari datum. Data merupakan sekumpulan

BAB III METODE PENELITIAN. Yang menjadi objek dari penelitian ini adalah investasi swasta di

BAB II TINJAUAN PUSTAKA. satu peubah prediktor dengan satu peubah respon disebut analisis regresi linier

BAB IV ANALISIS HASIL DAN PEMBAHASAN

Principal Component Analysis Siana Halim. Subhash Sharma, Applied Multivariate Techniques, John Willey & Sons, 1996

ABSTRAK. KU 1 = -0,396 Ln PDB 0,818 Inflasi 0,413 tk suku bunga, dengan proporsi kumulatif varians terhadap total varians sebesar 77,69 %.

BAB III METODE PENELITIAN. Daerah) di seluruh wilayah Kabupaten/Kota Eks-Karesidenan Pekalongan

TINJAUAN PUSTAKA. Model Regresi Linier Ganda

III. METODE PENELITIAN. Jenis dan sumber data yang digunakan dalam penelitian ini adalah sebagai

III. METODE PENELITIAN. Penelitian ini menggunakan data time series tahunan Data

BAB IV ANALISIS HASIL

RIDGE REGRESSION. Kelompok 2: Umi Salamah ( ) Evi Wahyu P ( ) Fandi Kusuma ( ) Imelda Lestari ( ) Mulatsih Mahambari (06.

Model regresi linier berganda dapat dirumuskan : Y = β + β X + β X +. + β X + ε

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

TINJAUAN PUSTAKA. Dalam proses pengumpulan data, peneliti sering menemukan nilai pengamatan

BAB IV. METODE PENELITIAN

BAB 3 METODOLOGI PENELITIAN. Obyek dari penelitian yang akan diteliti dalam penelitian ini adalah besarnya

BAB III METODOLOGI PENELITIAN. Sasaran penelitian ini berkaitan dengan obyek yang akan ditulis, maka

III. METODE PENELITIAN

BAB III METODE PENELITIAN. dependen yang digunakan dalam penelitian ini adalah pendapatan asli. sarana pendukung, dan jumlah obyek wisata.

PEMODELAN UPAH MINIMUM KABUPATEN/KOTA DI JAWA TENGAH BERDASARKAN FAKTOR-FAKTOR YANG MEMPENGARUHINYA MENGGUNAKAN REGRESI RIDGE

BAB IV HASIL DAN PEMBAHASAN. digunakan untuk mengetahui deskripsi suatu data, analisis ini digunakan

Penggunaan Kernel PCA Gaussian dalam Penyelesaian Plot Multivariat Non Linier. The Use of Gaussian PCA Kernel in Solving Non Linier Multivariate Plot

BAB IV HASIL PENELITIAN DAN PEMBAHASAN. Untuk menguji apakah alat ukur (instrument) yang digunakan memenuhi

Oleh : Fuji Rahayu W ( )

BAB I PENDAHULUAN 1.1 Latar Belakang dan Permasalahan

III. METODOLOGI PENELITIAN. Modal, Dinas Penanaman Modal Kota Cimahi, Pemerintah Kota Cimahi, BPS Pusat

BAB IV STUDI KASUS. Indeks merupakan daftar harga sekarang dibandingkan dengan

BAB 2 LANDASAN TEORI

BAB III OBJEK DAN METODE PENELITIAN

TINJAUAN PUSTAKA. Analisis regresi adalah suatu metode analisis data yang menggambarkan

ANALISIS INDEKS HARGA KONSUMEN TERHADAP INDEKS HARGA SANDANG DAN PANGAN DI KOTA AMBON

BAB III METODE PENELITIAN. analisis tersebut untuk memperoleh kesimpulan. 68 Jenis penelitian kuantitatif

Jurusan Statistika, FST, Institut Sains & Teknologi AKPRIND Yogyakarta

III. METODE PENELITIAN. Jenis data yang digunakan dalam penelitian ini adalah data sekunder yaitu

BAB 2 LANDASAN TEORI. disebut dengan bermacam-macam istilah: variabel penjelas, variabel

BAB 2 LANDASAN TEORI. Analisis regresi merupakan bentuk analisis hubungan antara variabel prediktor

BAB III METODOLOGI PENELITIAN. (Sugiyono, 2010). Populasi dalam penelitian ini adalah Bank Umum Milik

Pengaruh Suku Bunga, Inflasi dan Kurs terhadap Perkembangan Harga Saham PT. Telkom Tbk Menggunakan Analisis Regresi

STUDI METODE REGRESI RIDGE DAN METODE ANALISIS KOMPONEN UTAMA DALAM MENYELESAIKAN MASALAH MULTIKOLINEARITAS SKRIPSI OCKTAVALANNI SIREGAR

BAB III METOTOLOGI PENELITIAN

III. METODE PENELITIAN. Penelitian ini menggunakan data sekunder tahunan Data sekunder

Jl. Ir. M. Putuhena, Kampus Unpatti, Poka-Ambon ABSTRAK

BAB II KAJIAN PUSTAKA. dicatat, atau diobservasi sepanjang waktu secara berurutan. Periode waktu dapat

BAB IV ANALISA DAN PEMBAHASAN

III. METODE PENELITIAN. topik penelitian secara keseluruhan. Dalam kaitannya dengan hal ini, metode

BAB III METODELOGI PENELTIAN. Riau, DKI Jakarta, Jawa Barat, Jawa Tengah, DI. Yogyakarta, Jawa Timur,

Transkripsi:

MENGATASI MULTIKOLINEARITAS MENGGUNAKAN PRINCIPAL COMPONENT ANALYSIS (PCA) Laporan Praktikum ke-2 Disusun untuk Memenuhi Laporan Praktikum Analisis Regresi Lanjutan Oleh Nama : Faisyal Nim : 125090507111001 Asisten 1 : Windy Antika Antis Watin Asisten 2 : Faikotur Rohima LABORATORIUM STATISTIKA PROGRAM STUDI STATISTIKA JURUSAN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS BRAWIJAYA 2014

1.1 Latar Belakang BAB I PENDAHULUAN Analisis regresi adalah metode statistika yang digunakan untuk mengetahui sejauh mana ketergantungan atau hubungan sebuah variabel respon (variabel tak bebas) dengan sebuah atau lebih variabel prediktor (variabel bebas). Bila dalam analisisnya hanya melibatkan satu variabel prediktor, maka analisis yang digunakan adalah analisis regresi linear sederhana. Sedangkan bila dalam analisisnya melibatkan dua atau lebih variabel prediktor, maka analisis yang digunakan adalah analisis regresi linear berganda. Dalam kehidupan sehari-hari, banyak sekali permasalahan yang melibatkan analisis regresi linear berganda. Dalam analisis regresi yang memuat banyak variabel prediktor, sering timbul masalah karena adanya hubungan antara dua atau lebih variabel prediktornya. Variabel prediktor yang berkorelasi disebut kolinearitas ganda (multicollinearity). (Soemartini, 2008) Bentuk persamaan yang paling sederhana dari regresi linear berganda adalah yang mempunyai dua variabel prediktor X dan sebuah variabel respon seperti pada persamaan berikut: Y = β o + β 1 X 1i + β 2 X 2 Cara lain yang umum dipergunakan pada penulisan model regresi linear berganda untuk dua prediktor seperti yang dikembangkan oleh Yule dengan model persamaan berikut: Y i = β Y.12 + β Y1.2 X i1 + β Y3.1 X i2 + ε i Indeks (subscrift) dengan angka 1 pada variabel X adalah untuk variabel X 1 dan angka 2 untuk variabel X 2. Nilai koefisien regresi β Y.12 dalam model tersebut merupakan titik potong dengan sumbu tegak atau intercept, yang biasanya diartikan sebagai pengaruh ratarata (mean effect) tehadap variabel respon Y di luar variabel prediktor X yang ada dalam model atau nilai ratarata Y jika X 1 dan X 2 sama dengan nol (= 0). Koefisien regresi β Y1.2 adalah koefisien arah atau estimator regresi Y terhadap X 1 dengan X 2 dianggap konstan. Koefisien regresi β Y3.1 adalah koefisien arah atau estimator regresi Y terhadap variabel X 2 dengan X 1 dianggap konstan. Interprestasi dari analisis regresi linier berganda ini adalah hampir serupa dengan interprestasi analisis regresi linier sederhana, artinya variabel prediktor X 1 bersama-sama dengan variabel prediktor X 2 berpengaruh terhadap variabel 1

respon Y, yang masing-masing variabel X i bekerja secara linier dan bebas sesamanya. (Anonim, 2012) Secara umum persamaan regresi linier dengan k prediktor dinyatakan dengan : Y i = β o + β 1 X 1i + β 2 X 2i + + β k X ki + ε i dengan : Y i = variabel respon atau pengamatan ke i pada variabel yang dijelaskan y X i = prediktor atau pengamatan ke i pada variabel penjelas x k β 1 β k = parameter atau koefisien regresi variabel penjelas x k ε i = variabel gangguan atau error Ketika terjadi multikolinearitas maka akan mengakibatkan suatu model regresi menjadi tidak baik dijadikan sebagai penduga karena model yang digunakan akan berbias. Untuk mendeteksi terjadinya multikolinearitas maka menggunakan uji VIF (Variance inflation factors). Selanjutnya model yang terdeteksi adanya multikolinearitas harus melakukan penanganan supaya modelnya menjadi non multikolinearitas. Salah satu cara yang digunakan dalam mengatasi non multikolinearitas adalah menggunakan Principal Component Analysis (PCA). 1.2 Rumusan Masalah Yang menjadi rumusan masalah dalam laporan ini adalah: 1. Bagaimanakah cara mendeteksi adanya multikolinearitas menggunakan Variance inflation Factors (VIF)? 2. Bagaimanakah cara mengatasi multikoliearitas menggunakan Principal Component Analysis (PCA)? 1.3 Tujuan Tujuan dari pembuatan laporan ini yaitu menggunakan Principal Component Analysis untuk mengatasi masalah multikolinearitas pada yang terjadi pada model regresi berganda. Sehingga didapatkan model regresi yang baik untuk digunakan. 2

BAB II KAJIAN PUSTAKA 2.1 Multikolinearitas Multikolinearitas muncul ketika variabel-variabel prediktornya saling berkorelasi. Variabel-variabel prediktor yang berkorelasi membuat kita sulit mengambil kesimpulan mengenai masing-masing koefisien regresi dan masing-masing dampaknya terhadap variabel terikat. Pada akhirnya, hamper mustahil untuk memilih variabel-variabel yang benar-benar tidak berhubungan. Dengan kata lain, hampir mustahil untuk menciptakan kelompok kelompok variabel prediktor yang tidak berhubungan hingga tingkat tertentu. Alasan untuk menghindari variabel yang berkorelasi adalah kemungkinan menghasilkan hasil yang salah dalam pengujian hipotesis untuk masing-masing variabel prediktor. Hal ini disebabkan oleh ketidakstabilan dalam kesalahan standar estimasi. Beberapa petunjuk yang mengindikasikan masalah-masalah multikolinearitas adalah: a. Sebuah variabel prediktor yang diketahui merupakan prediktor penting ternyata memiliki koefisien regresi yang tidak signifikan. b. Sebuah koefisien regresi yang seharusnya memiliki nilai positif ternyata bernilai negatif, atau sebaliknya. c. Ketika sebuah variabel prediktor ditambahkan atau dihilangkan, terjadi perubahan yang drastis pada nilai koefisien regresi yang tersisa. Pada umumnya pendekatan yang digunakan untuk mengurangi resiko terjadinya multikolinearitas adalah memilih variabel prediktor secara hatihati. Aturan umumnya, jika korelasi antara dua variabel prediktor berada diantara -0.70 dan 0.70, tampaknya tidak masalah untuk menggunakan variabel-variabel prediktor tersebut (lind dkk, 2008). Tetapi ada pengujian yang lebih cermat dalam mendeteksi multikolinearitas yaitu uji variance inflation factor (VIF). 2.2 Variance Inflation Factors (VIF) 3

Variance Inflation Factors (VIF) merupakan salah satu indikator untuk mengukur besarnya kolinearitas. VIF menunjukkan peningkatan ragam dari koefisien regresi yang disebabkan karena adanya ketergantungan linear peubah prediktor tersebut dengan peubah prediktor yang lain. digunakan untuk mendeteksi adanya multikolinearitas. Rumus VIF adalah sebagai berikut: 1 VIF j = 1 R 2, j = 1,2,.,n j Dimana p = banyaknya peubah prediktor dan Suku R 2 j adalah koefisien determinasi, dimana variabel prediktor yang dipilih digunakan sebagai respon dan variabel prediktor lainnya digunakan sebagai variabel prediktor. Sebuah VIF yang lebih besar dari 10 dianggap tidak memuaskan, mengindikasikan bahwa variabel prediktor tersebut seharusnya dibuang (Suci, 2014). 2.3 Principal Component Analysis (PCA) Montgomery dan Hines (1990) menjelaskan bahwa dampak multikolinearitas dapat mengakibatkan koefisien regresi yang dihasilkan oleh analisis regresi berganda menjadi sangat lemah atau tidak dapat memberikan hasil analisis yang mewakili sifat atau pengaruh dari variabel prediktor yang bersangkutan. Dalam banyak hal masalah Multikolinearitas dapat menyebabkan uji T menjadi tidak signifikan padahal jika masingmasing variabel prediktor diregresikan secara terpisah dengan variabel respon (simple regression) uji T menunjukkan hasil yang signifikan. Hal tersebutlah yang sering kali membuat pusing para peneliti karena hasil analisis yang dilakukan pada regresi berganda dan regresi sederhana tidaklah sejalan atau bahkan sangat bertentangan. Akan tetapi, pada prakteknya prosedur penanggulangan yang telah disebutkan di atas sangat tergantung sekali pada kondisi penelitian, misalnya prosedur penggunaan informasi apriori sangat tergantung dari ada atau tidaknya dasar teori (literatur) yang sangat kuat untuk mendukung hubungan matematis antara variabel prediktor yang saling berkolinear, prosedur mengeluarkan variabel prediktor yang berkolinear seringkali membuat banyak peneliti keberatan karena prosedur ini akan mengurangi obyek penelitian yang diangkat, sedangkan prosedur lainya seperti menghubungkan data cross sectional dan time series, prosedur first difference dan penambahan data baru seringkali hanya memberikan efek 4

penanggulangan yang kecil pada masalah multikolinearitas. Oleh karena itu, kita dapat mengunakan teknik lain yang dapat digunakan untuk meminimumkan masalah multikolinearitas tanpa harus mengeluarkan variabel prediktor yang terlibat hubungan kolinear, yaitu dengan metode Principal Component Analysis (PCA) yang ada dalam analisis faktor. Prosedur PCA pada dasarnya adalah bertujuan untuk menyederhanakan variabel yang diamati dengan cara menyusutkan (mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi diantara variabel prediktor melalui transformasi variabel prediktor asal ke variabel baru yang tidak berkorelasi sama sekali atau yang biasa disebut dengan principal component. Setelah beberapa komponen hasil PCA yang bebas multikolinearitas diperoleh, maka komponen-komponen tersebut menjadi variabel prediktor baru yang akan diregresikan atau dianalisa pengaruhnya terhadap variabel respon (Y) dengan menggunakan analisis regresi. Keuntungan penggunaan Principal Component Analysis (PCA) dibandingkan metode lain : 1. Dapat menghilangkan korelasi secara bersih (korelasi = 0) sehingga masalah multikolinearitas dapat benar-benar teratasi secara bersih. 2. Dapat digunakan untuk segala kondisi data / penelitian. 3. Dapat dipergunakan tanpa mengurangi jumlah variabel asal. 4. Walaupun metode Regresi dengan PCA ini memiliki tingkat kesulitan yang tinggi, akan tetapi kesimpulan yang diberikan lebih akurat dibandingkan dengan pengunaan metode lain (Soemartini, 2008) Prinsip utama dari PCA atau biasa juga disebut dengan regresi komponen utama ialah skor komponen utama yang diregresikan dengan peubah respon atau dengan kata lain regresi komponen utama merupakan analisis regredi dari peubah respon terhadap komponen-komponen utama yang tidak saling berkorelasi. Dengan demikian apabila W 1, W 2,.., W m dinyatakan sebagai komponen utama yang dilibatkan dalam analisis regresi, serta Y sebagai peubah respon, maka model regresi komponen utama dapat dirumuskan sebagai: Y = α 0 + α 1 W 1 + α 2 W 2 + + α m W m + ε (2) Dimana: 5

W j = Peubah prediktor komponen utama yang merupakan kombinasi linear dari semua peubah baku Z (j=1,2,,m), α 0 = konstanta, α j = koefisien regresi (j=1,2,,m), ε = faktor pengganggu, m = banyaknya komponen utama, m p. Setiap komponen utama dalam persamaan (2) memiliki hubungan dengan semua peubah baku Z yang merupakan kombinasi linear dari semua peubah baku Z. Hubungan itu dinyatakan sebagai: W 1 = α 11 Z 1 + α 21 Z 2 +.+ α p1 Z p W 2 = α 12 Z 1 + α 22 Z 2 +.+ α p2 Z p (3) W m = α 1m Z 1 + α 2m Z 2 +.+ α pm Z p Dengan memanfaatkan hubungan antara komponen utama W 1, W 2, W m dengan peubah baku Z 1, Z 2, Z p pada persamaan (2), apabila disubstitusikan ke dalam persamaan (3) dan diselesaikan secara aljabar maka akan diperoleh persaman regresi dalam bentuk baku Z yaitu: Y = c 0 + c 1 Z 1 + c 2 Z 2 + + c p Z p (4) Dimana: c 0 = α 0, c 1 = α 0 a 11 + α 2 a 12 +..+ α m a 1m c 2 = α 1 a 21 + α 2 a 22 +..+ α m a 2m c p = α 1 a p1 + α 2 a p2 +..+ α m a pm (5) Persamaan (5) menunjukkan adanya hubungan antara koefisien regresi dari peubah asli (peubah baku Z) dan koefisien pembobot dari setiap komponen utama. Pendugaan parameter persamaan struktural yang asli (koefisien regresi c) dapat dilakukan berdasarkan koefisien regresi komponen utama (α). Dengan demikian apabila nilai dugaan bagi parameter model regresi komponen utama (α) telah diketahui maka secara otomotis nilai dugaan bagi parameter model struktural yang asli (c) dapat ditentukan (Gaspersz, 1995). Regresi komponen utama dalam bentuk matrik: Y = XVV T β + ε (6) = Wδ + ε Penduga parameter regresi komponen utama (δ) 6

δ = (W T W) -1 W T Y (7) Dimana: Y = vektor peubah respon (nx1), X = matrik peubah prediktor (nx(p+1)), β = vektor parameter regresi ((p+1)x1), ε = vektor galat (nx1), V = matrik (pxp) yang berisi vektor eigen yang telah dinormalisir dari matrik korelasi X T X yang bersesuaian dengan nilai eigen λ 1, λ 2,.,λ p. W = (W 1, W 2,..,W P ) = ZV = matrik komponen utama dari Z(Z ij = (X ij X j ) Var (X j ) (Suci, 2014) 7

BAB III METODOLOGI 8

3.1 Mendeteksi Multikolinearitas Menggunakan Software Minitab Langkah-langkah dalam mendeteksi adanya nilai multikolinearitas yaitu sebagai berikut: 1. Membuka software Minitab dengan cara mengklik dua kali shortcut Minitab pada Desktop. Seperti gambar berikut: 2. Selanjutnya akan muncul tampilan awal software Minitab seperti gambar dibawah ini: 3. Masukan data yang ingin di uji multikolinearitasnya pada worksheet seperti terlihat pada gambar berikut: 4. Klik stat => Regression => regression, sehingga akan muncul tampilan pada gambar berikut: 9

5. Masukan Y pada kolom response dan masukan X1, X2, X3 dan X4 pada kolom predictors. Seperti terlihat pada gambar berikut ini: 6. Klik options dan centang Variance Inflations Factors seperti terlihat pada gambar berikut: 7. Klik Ok, kemudian klik lagi Ok maka akan Muncul Outputnya. 3.2 Mengatasi Multikolinearitas dengan PCA Menggunakan Minitab Langkah-langkah dalam mengatasi adanya multikolinearitas dapat dilakukan sebagai berikut: 1. Melakukan standarisasi nilai peubah prediktor. 2. Sediakan tabel pada worksheet untuk Z 0, Z 1, Z 2, Z 3 dan Z 4. Untuk nilai Z 0 isikan dengan angka 1. Seperti terlihat pada gambar berikut: 10

3. Klik calc => standardize. Sehingga akan tampil gambar berikut: 4. Pada input column masukan X1, X2, X3, dan X4 dan pada store results masukan Z1, Z2, Z3 dan Z4. Seperti gambar berikut: 5. Klik ok maka akan muncul data yang sudah distandarisasi seperti pada gambar berikut: 6. Selanjutnya membentuk mencari regresi komponen utama. Sediakan kolom W1, W2, W3 dan W4 pada worksheet. Klik stat => multivariate => principal components analysis. Sehingga muncul gambar berikut: 11

7. Pada kolom variables masukan Z1, Z2, Z3, dan Z4 dan Type of matrix pilih correlation. Seperti gambar berikut: 8. Klik storage, pada kolom scores masukan W1, W2, W3 dan W4. Seperti gambar berikut: 9. Klik ok => ok. Maka akan muncul tampilan pada worksheet sebagai berikut: 12

10. Tampilan pada session sebagai berikut: 11. Nilai cumulative dari W1 dan W2 sampai > 75% maka bisa mewakili data yang lain. Sehingga regresikan W1 dan W2 dengan Y. langkahnya klik Stat Regressions Regression Sehingga muncul berikut: Pada response masukan Y dan pada predictors masukan W1 dan W2. Seperti gambar berikut: Klik ok dan akan terlihat tampilan regresinya pada session sebagai berikut: 13

12. Substitusikan nilai W1 dan W2 pada persamaan regresi yang baru. Sehingga akan dihasilkan persamaan regresi PCA. 13. Mencari mean dan variance. Klik stat => basic statistics => store descriptive statistics. Sehingga muncul gambar berikut: Pada kolom variables masukan X1, X2, X3 dan X4. Seperti gambar berikut: Klik statistics centang mean dan variance seperti gambar berikut: Lalu klik ok. Maka pada worksheet maka akan muncul tampilan berikut: 14

14. Selanjutnya mencari nilai b0, b1, b2 dan b4. Siapin dulu tempat untuk b0, b1, b2 dan b4 pada worksheet. Klik calc => calculator maka muncul gambar berikut: Untuk mencari bo maka pada store result in variable masukan b0 pada expression masukan perhitungan sesuai dengan rumus regresi ridge yaitu nilai b0 PCA-(b1 PCA*mean1/var1)-(b2 PCA*mean2/var2)-(b3 PCA*mean3/var3)-(b4 PCA*mean4/var4). Untuk b1 maka pada store result in variable masukan b1 dan pada expresision perhitungannya b1 PCA/var1. Untuk b2 maka pada store result in variable masukan b2 dan pada expresision perhitungannya b2 PCA/var2. Untuk b3 maka pada store result in variable masukan b3 dan pada expresision perhitungannya b3 PCA/var3. Untuk b4 maka pada store result in variable masukan b4 dan pada expresision perhitungannya b4 PCA/var4. Sehingga pada worksheet akan muncul nilai b0, b1, b2. b3 dan b4. 15

16

BAB IV HASIL DAN PEMBAHASAN 4.1 Permasalahan Diketahui data poros dalam semen yang diakibatkan oleh penambahan 4 jenis aditif X 1, X 2, X 3, X 4. Hasil pengamatan sebagai berikut dengan Y merupakan panas (kalor) semen : Y X1 X2 X3 X4 78.5 7 26 6 60 74.3 1 29 15 52 104.3 11 56 8 20 87.6 11 31 8 47 95.9 7 52 6 33 109.2 11 55 9 22 102.7 3 71 17 6 72.5 1 31 22 44 93.1 2 54 18 22 115.9 21 47 4 26 83.8 1 40 23 34 113.3 11 66 9 12 109.4 10 68 8 12 4.2 Penyelesaian a. Pengujian Hipotesis Multikolinearitas Pengujian hipotesis multikolinearitas berguna untuk mengetahui apakah data yang diuji mengandung multikolinearitas atau tidak. Hipotesis H 0 : prediktor saling bebas H 1 : Prediktor tidak saling bebas Langkah-langkah pengujian sesuai pada metodologi dalam bab 3. Sehingga didapatkan output Minitab seperti terlihat pada gambar berikut: 17

Dari output minitab terlihat bahwa nilai VIF untuk semua prediktor yaitu > 10 sehingga mengakibatkan tolak H 0 yang berarti terdapat multikolinearitas pada variabel-variabel prediktornya. Jadi dapat disimpulkan bahwa sudah cukup bukti untuk mengatakan bahwa terdapat hubungan atau korelasi antara keempat zat aditif yang ditambahkan pada poros semen. Maka dalam hal ini variabelvariabel prediktor memerlukan penanganan yaitu menggunakan PCA. b. Penanganan Data Multikolinearitas dengan PCA Dalam menggunakan PCA maka data yang kita punya harus dilakukan standarisasi untuk mengurangi nilai korelasinya dan menyamakan satuan dari variabel-variabel prediktornya. Untuk langkah-langkahnya seperti dijelaskan pada metodologi pada bab 3. Dari langkah-langkah tersebut maka didapatkan model regresi komponen W 1 dan W 2 yaitu yaitu: Y = 95.4 + 9.88W 1-0.125W 2. Sedangkan model regresi baru setelah dilakukan substitusi ke nilai W 1 dan W 2 sebelumnya yaitu: Y = 95.4 + 4.64338 Z 1 + 5.50182Z 2 3.84347Z 3 5.34574Z 4. Dimana: W 1 = 0.476Z 1 +0.564Z 2-0.394Z 3-0.548Z 4 W 2 = 0.509Z 1-0.414Z 2-0.605Z 3 0.451Z 4 Selanjutnya mencari b 0,..b 4 untuk model regresi yang yang dikembalikan pada data awal yaitu secara berturut-turut: 18

Sehingga didapatkan nilainya adalah: Maka didapatkanlah model regresi yang baik untuk peramalan yaitu: Y = 94.9796 + 0.134192 X 1 + 0.022721X 2 0.0936847X 3 0.019080X 4 19

Sehingga dapat disimpulkan bahwa model yang baru ini baik digunakan untuk peramalan. Interpretasi : Jika zat aditif 1 meningkat 1 unit maka, diharapkan rata-rata panas semen meningkat sebesar 0.134192 kalor, dengan syarat variabel lain dianggap tetap atau konstan. Jika zat aditif 2 meningkat 1 unit maka, diharapkan rata-rata panas semen meningkat sebesar 0.022721 kalor, dengan syarat variabel lain dianggap tetap atau konstan. Jika zat aditif 3 meningkat 1 unit maka, diharapkan rata-rata panas semen menurun sebesar 0.093684 kalor, dengan syarat variabel lain dianggap tetap atau konstan. Jika zat aditif 4 meningkat 1 unit maka, diharapkan rata-rata panas semen menurun sebesar 0.019080 kalor, dengan syarat variabel lain dianggap tetap atau konstan. 20

BAB V PENUTUP 5.1 Kesimpulan Untuk mendapatkan suatu model regresi yang baik untuk melakukan peramalan atau pendugaan maka harus dilakukan pengujian asumsi. Salahsatu asumsi yang harus dipenuhi yaitu asumsi non multikolinearitas. Untuk mendeteksi multikolinearitas bisa dilakukan melalui pengujian hipotesis Variance inflation factors (VIF). Jika VIF > 10 maka terdapat multikolinearitas pada data tersebut. Oleh karena data mengandung multikolinearitas maka harus dilakukan penanganan. Salah-satu caranya yaitu menggunakan Principal Component Analysis (PCA). Keuntungan penggunaan Principal Component Analysis (PCA) dibandingkan metode lain : 1. Dapat menghilangkan korelasi secara bersih (korelasi = 0) sehingga masalah multikolinearitas dapat benar-benar teratasi secara bersih. 2. Dapat digunakan untuk segala kondisi data / penelitian. 3. Dapat dipergunakan tanpa mengurangi jumlah variabel asal. 4. Walaupun metode Regresi dengan PCA ini memiliki tingkat kesulitan yang tinggi, akan tetapi kesimpulan yang diberikan lebih akurat dibandingkan dengan pengunaan metode lain. Dari permasalahan dalam tulisan ini didapatkan model regresi baru yang baik dalam peramalan atau pendugaan yaitu: Y = 94.9796 + 0.134192 X 1 + 0.022721X 2 0.0936847X 3 0.019080X 4 Dengan interpretasi jika zat aditif 1 meningkat 1 unit maka, diharapkan rata-rata panas semen meningkat sebesar 0.134192 kalor. Jika zat aditif 2 meningkat 1 unit maka, diharapkan rata-rata panas semen meningkat sebesar 0.022721 kalor. Jika zat aditif 3 meningkat 1 unit maka, diharapkan rata-rata panas semen menurun sebesar 0.0936847 kalor. Jika zat aditif 4 meningkat 1 unit maka, diharapkan rata-rata panas semen menurun sebesar 0.019080 kalor. Dengan syarat masing-masing variabel lain konstan atau tetap. 21

5.2 Saran Semakin banyaknya metode yang digunakan dalam penanganan masalah multikolinearitas membuat pekerjaan statistisi menjadi lebih mudah. Namun, di balik semua itu tersirat juga kebingungan mengenai perbedaan-perbedaan hasil dari beberapa metode dan pengerjaan dari metode yang cukup ruwet. Sehingga statistisi bingung memilih metode mana yang paling baik. Diharapkan dengan kemajuan teknologi yang cukup cepat memungkinkan adanya cmetode-metode baru yang lebih praktis dalam penanganan multikolinearitas. 22

DAFTAR PUSTAKA Douglas A, lind dkk. 2008. Teknik-teknik Statistika dalam Bisnis dan Ekonomi Menggunakan Kelompok Data Global. http://books.google.co.id/books?id=3vqbfpnncpsc&pg=pa144& dq=faktor+varians+inflasi&hl=en&sa=x&ei=vj8vu7t HM8GHrgeJt4FI&redir_esc=y#v=onepage&q&f=false. Diakses 24 maret 2014. Soemartini. 2008. Penyelesaian Multikolinearitas Melalui Metode Ridge Regression. http://pustaka.unpad.ac.idwp contentuploads200905penyelesaian_multikolinearitas.pdf. Diakses 22 maret 2014. Anonim. 2012. Regresi Linier Berganda Dua Variabel Bebas. http://www.fp.unud.ac.id/ind/wpcontent/uploads/mk_ps_agribisnis/ekonomitrika/3_.%20%20analis is%20regresi%20%20linier%20berganda%20dua%20peubah.pd f. Diakses 2 April 2014. Soemartini. 2008. Principal Component Analysis (PCA) sebagai Salah Satu Metode untuk Mengatasi Masalah Multikolinearitas. http://elmurobbie.files.wordpress.com/2009/06/principalcomponent-analysis-pca2.pdf. Diakses 2 april 2014. Astutik, Suci. 2014. Modul Praktikum Analisis Regresi Lanjutan. Malang: FMIPA-UB. 23

24

LAMPIRAN-LAMPIRAN Lampiran 1. Output Uji VIF Pada Minitab 25

Lampiran 2. Tampilan Hasil Uji Multikolinearitas Menggunakan Minitab 26

27