BAB I PENDAHULUAN 1.1 Latar Belakang dan Permasalahan Analisis regresi adalah analisis yang dilakukan terhadap dua jenis variabel yaitu variabel independen (prediktor) dan variabel dependen (respon). Analisis regresi dilakukan untuk mengetahui ada tidaknya pengaruh variabel independen terhadap variabel dependen sehingga variabel dependen dapat ditaksir atau diramalkan berdasarkan variabel independen. Analisis regresi linear merupakan analisis regresi dengan hubungan antara variabel independen dan variabel dependen adalah linear. Berdasarkan jumlah variabel independen, analisis regresi linear dibedakan menjadi dua yaitu analisis regresi linear sederhana dan regresi linear ganda. Dengan regresi linear sederhana hanya memiliki satu variabel independen dan regresi linear ganda memiliki lebih dari satu variabel independen. Saat ini, analisis regresi yang lebih sering digunakan adalah analisis regresi linear ganda. Dapat dilihat dari berbagai kejadian yang terjadi dalam kehidupan sehari-hari yaitu suatu peristiwa dapat disebabkan oleh berbagai faktor yang mempengaruhinya. Contohnya, harga produk hasil olahan pabrik dipengaruhi oleh harga impor pasaran, harga impor komoditas, dan harga bahan pokok. Istilah regresi pertama kali dikemukakan oleh seorang antropolog dan ahli meteorology Perancis bernama Francis Galton, dalam artikelnya Family Likeliness in Stature. Namun ada pula yang menyatakan istilah regresi muncul pada pidato Francis Galton di depan Section H of The British Association di Aberdeen pada tahun 1855 dan dimuat dalam Regression toward Mediocrity in Hereditary Stature (Draper and Smith, 1922). Awal abad XIX, metode kuadrat terkecil (Least Square Method) dipopulerkan oleh Carl Friederich Gauss yang kemudian menjadi dasar analisis regresi klasik. Metode kuadrat terkecil adalah salah satu metode penaksiran parameter untuk menduga koefisien regresi. Serangkaian studi yang dilakukan para statistisi di tahun 1960-an telah menunjukkan bahwa dalam
banyak kasus, regresi dengan menggunakan teknik kuadrat terkecil (Ordinary Least Square) seringkali memberikan hasil yang kurang tepat. Tidak jarang pula memberikan kondisi dimana asumsi-asumsi pada regresi klasik tidak terpenuhi. Asumsi regresi klasik yang harus dipenuhi diantaranya adalah sebagai berikut : 1. Mean dari error adalah nol 2. Error memiliki varian konstan dengan kata lain bersifat homoskedastisitas atau tidak ada heteroskedastisitas 3. Error tidak saling berkorelasi atau tidak ada autokorelasi 4. Tidak terjadi multikolinearitas Salah satu penyebab hasil analisis regresi menggunakan metode kuadrat terkecil kurang valid adalah karena adanya asumsi yang tidak terpenuhi, dalam hal ini tidak adanya multikolinearitas dan tidak adanya pencilan pada data yang dianalisis. Untuk menangani masalah multikolinearitas ini dapat dilakukan dengan berbagai cara diantaranya mengeluarkan beberapa variabel independen dengan metode regresi step-wise, metode best subset, metode backward elimination, analisis komponen utama (PCA), dan regresi ridge. Sementara untuk pencilan, dapat ditangani dengan mengeluarkan pencilan dari data, dengan estimasi parameter menggunakan robust yang baik seperti M-estimator, generalized M dan MM-estimator. Semua cara-cara yang disebutkan di atas dapat bekerja dengan baik jika terjadi multikolinearitas saja atau jika terdapat pencilan saja dalam data, tetapi tidak berfungsi dengan baik ketika multikolinearitas dan pencilan terjadi bersamaan pada data yang dianalisis. Dalam tugas akhir ini, akan dibahas sebuah metode untuk menangani terjadinya multikolinearitas dan pencilan secara bersamaan pada data yaitu dengan menggunakan Jackknifed Ridge M-estimator (JRM). 1.2 Pembatasan Masalah
Dengan berdasar pada latar belakang dan kajian-kajian pendukung, penulis merumuskan bahwa penyimpangan klasik yang akan dibahas adalah terbatas pada permasalahan multikolinearitas dan pencilan pada data dengan anggapan semua asumsi klasik yang lain terpenuhi. Penelitian ini difokuskan pada cara penanganan multikolinearitas dan pencilan yang terjadi bersamaan pada data dengan menggunakan generalized dari kriteria Sp pada regresi robust dan metode estimasi yang digunakan dalam penelitian ini terbatas pada metode Jackknifed Ridge M- estimator dengan menganggap asumsi klasik yang lain terpenuhi. 1.3 Tujuan dan Manfaat Penelitian Tujuan dari penelitian ini adalah : 1. Sebagai salah satu syarat untuk mendapatkan gelar S1 pada Program Studi Statistika, Jurusan Matematika, Fakultas MIPA, Universitas Gadjah Mada. 2. Memperkenalkan salah satu metode estimasi dalam regresi ridge yaitu Jackknifed Ridge M-estimator dalam mengatasi masalah multikolinearitas dan pencilan yang terjadi secara bersamaan pada data. 3. Membandingkan hasil perhitungan estimator Jackknifed Ridge M dengan hasil perhitungan dari estimator sebelumnya yaitu estimator M dan estimator ORR (Ordinary Ridge Regression) berdasarkan nilai statistik dari masing-masing estimator. Manfaat dari penelitian ini adalah untuk : 1. Mengaplikasikan ilmu statistika dalam metode regresi ridge dan regresi robust 2. Menambah ilmu pengetahuan bagi para pembaca 3. Agar untuk selanjutnya dapat dilakukan pengembangan metode dalam kombinasi antara regresi ridge dan regresi robust untuk penanganan kasus multikolinearitas dan pencilan yang terjadi bersamaan pada data. 1.4 Tinjauan Pustaka
Analisis regresi sudah cukup lama dikenal luas. Gujarati (2003) dalam bukunya Basic Econometrics menyatakan bahwa terdapat beberapa asumsi yang harus dipenuhi pada analisis regresi dengan menggunakan metode Ordinary Least Square antara lain: nilai ekspektasi dari residual adalah nol, homoskedastik, tidak adanya korelasi antar residual, dan tidak adanya multikolinearitas. Dalam buku itu juga dikatakan bahwa estimator hasil dari metode estimasi dengan menggunakan OLS estimator yang BLUE (Best Linear Unbiased Estimator). Dalam analisis regresi linear ganda masalah yang sering terjadi yaitu adanya multikolinearitas dan pencilan. Untuk permasalahan multikolinearitas dan pencilan ini kemudian muncul beberapa penelitian tentang analisis regresi untuk data yang mengandung multikolinearitas dan pencilan. Penelitian tersebut salah satunya adalah One-Step Jackknife for M-estimator Computed Using Newton s Method (Jun Shao, 1992) yang mengusulkan suatu metode Jackknife yang tidak memerlukan iterasi sehingga lebih menyederhanakan komputasinya. Sifat asimtotik dari One-Step Jackknife diperoleh di bawah beberapa kondisi yang beraturan pada kasus i.i.d dan untuk kasus linear atau tidak linear. Kashid dan Kulkarni (2002) dalam jurnalnya More general criterion for subset selection in multiple linear regression mengusulkan kriteria umum yang dinamakan kriteria S p untuk seleksi subset pada model regresi linear ganda. Kriteria S p diusulkan untuk mengatasi kelemahan yang terdapat pada seleksi subset menggunakan estimasi Least Square. Kelemahan tersebut adalah ketika data mengandung sebuah observasi yang berpengaruh atau distribusi dari variabel mengandung error menyimpang dari normalitas maka estimator Least Square bekerja buruk dan cenderung memilih model subset yang salah. Kemudian Naomi (2015) dalam skripsinya yang berjudul Jackknifed Ridge Regression Estimator untuk model linear dengan Autokorelasi pada Error membahas mengenai penduga regresi ridge dengan menggunakan Jacckinfed Ridge Regression estimator pada model linear dengan autokorelasi pada error yang merupakan perluasan dari metode estimasi parameter pada regresi ridge yang dikemukakan oleh Hoerl an Kennard.
Jadhav dan Kashid (2011) dalam jurnalnya A Jackknifed Ridge M- estimator for Regression Model with Multicollinearity and Pencilan mengusulkan estimator Jackknifed Ridge Regression (JRR) dan estimator M untuk mengatasi masalah multikolinearitas dan pencilan. Estimator JRR diperoleh dari penyusutan metode Ordinary Least Square (OLS). Karena metode OLS sensitive terhadap pencilan dan estimator JRR juga sangat sensitif terhadap pencilan maka dari itu untuk mengatasi kombinasi masalah multikolinearitas dan pencilan Jadhav dan Kashid (2011) mengusulkan estimator baru yang dinamakan Jackknifed Ridge M-estimator. Estimator ini diperoleh dari penyusutan M- estimator bukan estimator OLS. Kulkarni, dkk (2014) dalam jurnalnya Subset selection in multiple linear regression in the presence of pencilan and multicollinearity menjelaskan tentang penggunaan estimator M dan selanjutnya menerapkan metode jackknifing dalam regresi ridge yang juga penulis angkat menjadi tema dalam skripsi ini. Dimana dilakukan pendugaan parameter menggunakan estimator M pada model regresi linear yang selanjutnya dilakukan regresi ridge dengan menggunakan estimator Jackknifed Ridge M-estimator untuk mengatasi adanya multikolinearitas dan pencilan pada data. Selanjutnya Kulkarni,dkk (2014) membangun sebuah persamaan linear dari statistik versi generalisasi dari statistik S p dengan statistik C p, R p, dan S p yang sudah ada. 1.5 Metodologi Penelitian Metode peneletian yang digunakan dalam penulisan skripsi ini adalah studi literatur berdasarkan sumber-sumber resmi seperti buku-buku, jurnal, dan artikelartikel yang mendukung tema penelitian yang diperoleh baik dari perpustakaan maupun situs internet. Penulisan skripsi ini juga ditunjang dengan beberapa perangkat lunak dalam analisis data diantaranya software R, minitab dan SPSS. 1.6 Sistematika Penulisan Penulisan skripsi ini disusun dengan sistematika penulisan sebagai berikut:
BAB I PENDAHULUAN Bab ini berisikan latar belakang dan permasalahan, pembatasan masalah, tujuan dan manfaat penelitian, tinjauan pustaka, metode penulisan,dan sistematika penulisan. BAB II BAB III BAB IV BAB V DASAR TEORI Bab ini membahas beberapa teori yang berkaitan dengan pembahasan pokok permasalahan seperti variabel random, ekspektasi, variansi, kovariansi, korelasi, matriks, transpose matriks, invers matriks, deteminan matriks, trace matriks, matriks idempotent simaetris, bentuk kuarat matriks, matriks identitas,, nilai eigen dan vektor eigen, metode maksimum likelihood, regresi linear, estimasi kuadrat terkecil, multikolinearitas serta pencilan SUBSET SELECTION PADA REGRESI LINEAR GANDA DENGAN METODE JACKKNIFED RIDGE M-ESTIMATOR Bab ini membahas tentang konsep penggunaan metode jackknife dalam regresi ridge untuk menangani masalah multikolinearitas dan mengkombinasikannya dengan estimator M untuk menangani adanya pencilan. STUDI KASUS Bab ini berisi tentang aplikasi transformasi dan metode Jackknifed Ridge M Estimator dalam mengestimasi koefisien regresi yang bias pada data. PENUTUP Bab ini berisi kesimpulan yang diperoleh dari pembahasan pada bab sebelumnya dan saran untuk pengembangan dalam penelitian selanjutnya.