BAB 2 TINJAUAN PUSTAKA

dokumen-dokumen yang mirip
Bab 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI

BAB II TINJAUAN PUSTAKA. Dalam bab ini dibahas tentang matriks, metode pengganda Lagrange, regresi

BAB II LANDASAN TEORI

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI

BAB 1 PENDAHULUAN Latar Belakang

BAB 2 LANDASAN TEORI. Analisis Komponen Utama (AKU, Principal Componen Analysis) bermula dari

BAB II TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA = (2.2) =

BAB II KAJIAN TEORI. linier, varian dan simpangan baku, standarisasi data, koefisien korelasi, matriks

BAB II LANDASAN TEORI. Data merupakan bentuk jamak dari datum. Data merupakan sekumpulan

Perturbasi Nilai Eigen dalam Mengatasi Multikolinearitas

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB II KAJIAN TEORI. principal component regression dan faktor-faktor yang mempengaruhi IHSG.

BAB 2 LANDASAN TEORI

PENERAPAN METODE REGRESI GULUD DAN REGRESI KOMPONEN UTAMA DALAM MENGATASI PENYIMPANGAN MULTIKOLINEARITAS PADA ANALISIS REGRESI LINEAR BERGANDA

BAB II KAJIAN PUSTAKA. dicatat, atau diobservasi sepanjang waktu secara berurutan. Periode waktu dapat

Analisis Regresi 2. Multikolinier & penanganannya

BAB II TINJAUAN PUSTAKA. Hal ini sangat membantu dalam proses pembuktian sifat-sifat dan perhitungan

BAB II LANDASAN TEORI. : Ukuran sampel telah memenuhi syarat. : Ukuran sampel belum memenuhi syarat

BAB II TINJAUAN PUSTAKA

METODE PENELITIAN. deposito berjangka terhadap suku bunga LIBOR, suku bunga SBI, dan inflasi

BAB II KAJIAN TEORI. Bab ini berisi teori-teori pendukung Analisis Profil dengan

BAB 1 PENDAHULUAN. banyak diterapkan pada berbagai bidang sebagai dasar bagi pengambilan

Jl. Ir. M. Putuhena, Kampus Unpatti, Poka-Ambon ABSTRAK

ALJABAR LINIER MAYDA WARUNI K, ST, MT ALJABAR LINIER (I)

BAB II KAJIAN PUSTAKA. operasi matriks, determinan dan invers matriks), aljabar max-plus, matriks atas

BAB I PENDAHULUAN. Analisis regresi merupakan sebuah alat statistik yang memberi penjelasan

BAB. IX ANALISIS REGRESI FAKTOR (REGRESSION FACTOR ANALYSIS)

BAB II KAJIAN TEORI. Bab ini akan membahas mengenai pengertian-pengertian dasar yang akan

BAB II KAJIAN TEORI. Sebuah Matriks adalah susunan segi empat siku-siku dari bilangan-bilangan.

REGRESI LINIER BERGANDA

III. METODE PENELITIAN

REGRESI BEDA DAN REGRESI RIDGE Ria Dhea Layla N.K 1, Febti Eka P. 2 1)

BAB III PEREDUKSIAN RUANG INDIVIDU DENGAN ANALISIS KOMPONEN UTAMA. Analisis komponen utama adalah metode statistika multivariat yang

BAB 2 LANDASAN TEORI

Pertemuan 4-5 ANALISIS REGRESI SEDERHANA

BAB II LANDASAN TEORI. metode kuadrat terkecil (MKT), outlier, regresi robust, koefisien determinasi,

BAB II LANDASAN TEORI. yang biasanya dinyatakan dalam bentuk sebagai berikut: =

III. METODE PENELITIAN. Penelitian ini menggunakan data time series tahunan Data

BAB II TINJAUAN PUSTAKA. satu peubah prediktor dengan satu peubah respon disebut analisis regresi linier

III. METODE PENELITIAN. Penelitian ini menggunakan data sekunder tahunan Data sekunder

BAB 1 PENDAHULUAN Latar Belakang

= parameter regresi = variabel gangguan Model persamaan regresi linier pada persamaan (2.2) dapat dinyatakan dalam bentuk matriks berikut:

SATUAN ACARA PERKULIAHAN MATA KULIAH : ALJABAR LINIER KODE / SKS : IT / 2 SKS

Analisis Regresi 2. Multikolinier & penanganannya

BAB I PENDAHULUAN 1.1 Latar Belakang dan Permasalahan

IV. METODOLOGI PENELITIAN. Penelitian ini dilakukan di Kecamatan Tanjungpinang Timur,

BAB II LANDASAN TEORI

METODE PENELITIAN. A. Variabel Penelitian dan Definisi Operasional. Untuk memperjelas dan memudahkan pemahaman terhadap variabelvariabel

PEMODELAN UPAH MINIMUM KABUPATEN/KOTA DI JAWA TENGAH BERDASARKAN FAKTOR-FAKTOR YANG MEMPENGARUHINYA MENGGUNAKAN REGRESI RIDGE

SATUAN ACARA PERKULIAHAN MATA KULIAH : ALJABAR LINIER JURUSAN : TEKNIK KOMPUTER JUMLAH SKS : Definisi, Notasi, dan Operasi Vektor 2.

III. METODE PENELITIAN. Jenis data yang digunakan dalam penelitian ini adalah data sekunder yaitu

BAB I PENDAHULUAN Latar Belakang dan Permasalahan

III. METODE PENELITIAN. deret waktu (time series) dengan periode waktu dari tahun 1993 sampai dengan

III. METODE PENELITIAN. Berdasarkan sifat penelitiannya, penelitian ini merupakan sebuah penelitian

III. METODE PENELITIAN. Jenis data yang digunakan dalam penelitian ini adalah data sekunder deret waktu

BAB III METODOLOGI PENELITIAN. berbentuk time series selama periode waktu di Sumatera Barat

BAB 2 LANDASAN TEORI

BAB III METODOLOGI PENELITIAN

PERBANDINGAN METODE REGRESI KOMPONEN UTAMA DAN REGRESI RIDGE DALAM MENGATASI MULTIKOLINEARITAS PADA ANALISIS REGRESI LINEAR BERGANDA

TINJAUAN PUSTAKA. Matriks adalah suatu susunan bilangan berbentuk segi empat. Bilangan-bilangan

1.1. Definisi, Notasi, dan Operasi Vektor 1.2. Susunan Koordinat Ruang R n 1.3. Vektor di dalam R n 1.4. Persamaan garis lurus dan bidang rata

III. METODOLOGI PENELITIAN

BAB 2 LANDASAN TEORI

III. METODE PENELITIAN. Jenis data yang digunakan dalam penelitian ini adalah data sekunder, time series triwulan dari

BAB 2 LANDASAN TEORI

BAB III PEMBAHASAN. Metode kriging digunakan oleh G. Matheron pada tahun 1960-an, untuk

III. METODE PENELITIAN. Data yang digunakan pada penelitian ini adalah data sekunder yang berupa data time

BAB III. Model Regresi Linear 2-Level. Sebuah model regresi dikatakan linear jika parameter-parameternya bersifat

BAB III METODE PENELITIAN. di peroleh dari Website Bank Muamlat dalam bentuk Time series tahun 2009

BAB III LANDASAN TEORI

IV METODOLOGI PENELITIAN

BAB 2 LANDASAN TEORI

Aljabar Linear Elementer

BAB I PENDAHULUAN 1.1 Latar Belakang

Contoh. C. Determinan dan Invers Matriks. C. 1. Determinan

BAB III METODE PENELITIAN. September). Data yang dikumpulkan berupa data jasa pelayanan pelabuhan, yaitu

LEAST SQUARE AND RIDGE REGRESSION ESTIMATION ABSTRAK ( ) = ( + ) Kata kunci: regresi linear ganda, multikolinearitas, regresi gulud.

Bab 1 PENDAHULUAN. Secara umum persamaan regresi linier dengan k variabel bebas dinyatakan dengan :

ESTIMASI PARAMETER REGRESI RIDGE MENGGUNAKAN ITERASI HOERL, KENNARD, DAN BALDWIN (HKB) UNTUK PENANGANAN MULTIKOLINIERITAS

III. METODE PENELITIAN. Data yang digunakan dalam penelitian ini merupakan data kuantitatif dengan

BAB IV HASIL PENELITIAN DAN PEMBAHASAN. Untuk menguji apakah alat ukur (instrument) yang digunakan memenuhi

II. TINJAUAN PUSTAKA. nyata (fenomena-fenomena alam) ke dalam bagian-bagian matematika yang. disebut dunia matematika (mathematical world).

BAB 2 LANDASAN TEORI

III. METODE PENELITIAN. tingkat harga umum, pendapatan riil, suku bunga, dan giro wajib minimum. Data

BAB III ANALISIS KORELASI KANONIK ROBUST DENGAN METODE MINIMUM COVARIANCE DETERMINAN

Tujuan. Mhs dapat mendemonstrasikan operasi matriks: penjumlahan, perkalian, dsb. serta menentukan matriks inverse

GARIS-GARIS BESAR PROGRAM PEMBELAJARAN

PENERAPAN METODE GENERALIZED RIDGE REGRESSION DALAM MENGATASI MASALAH MULTIKOLINEARITAS

III. METODE PENELITIAN. Ruang lingkup penelitian ini bertujuan untuk menganalisis pengaruh Upah

BAB 2 LANDASAN TEORI. digunakan sebagai konsep statistik pada tahun 1877 oleh Sir Francis Galton. Dia

PENGGUNAAN METODE RIDGE TRACE DAN VARIANCE INFLATION FACTORS (VIF) PADA REGRESI RIDGE SKRIPSI

Jl. Ir. M. Putuhena, Kampus Unpatti, Poka-Ambon ABSTRACT

III. METODE PENELITIAN. Pusat Statistik (BPS) Kota Bandar Lampung yang berupa cetakan atau publikasi

BAB III METODE PENELITIAN

MENGATASI MULTIKOLINEARITAS MENGGUNAKAN PRINCIPAL COMPONENT ANALYSIS (PCA)

BAB 3 METODOLOGI PENELITIAN. Obyek dari penelitian yang akan diteliti dalam penelitian ini adalah besarnya

BAB 2 LANDASAN TEORI

Transkripsi:

5 BAB 2 TINJAUAN PUSTAKA 2.1 Matriks 2.1.1 Definisi Matriks Matriks adalah suatu kumpulan angka-angka yang juga sering disebut elemenelemen yang disusun secara teratur menurut baris dan kolom berbentuk persegi panjang, dimana panjang dan lebarnya ditunjukkan oleh banyaknya kolom dan baris serta dibatasi dengan tanda,, atau. Sebuah matriks dinotasikan dengan simbol huruf besar seperti atau dan sebagainya. Sebuah matriks yang berukuran baris dan kolom dapat ditulis sebagai berikut: (2.1) Atau juga dapat ditulis: Matriks disebut disebut matriks, karena terdiri dari baris dan kolom. Setiap disebut elemen (unsur) dari matriks, sedangkan indeks dan berturut-turut menyatakan baris dan kolom. Jadi elemen terdapat pada baris ke- dan kolom ke-. Pasangan bilangan ( ) disebut dimensi (ukuran atau bentuk) dari matriks. Contoh: * +

6 Disebut matriks dengan 2 baris dan 3 kolom. Jika sebuah matriks, maka digunakan untuk menyatakan elemen yang terdapat di dalam baris dan kolom dari. Dalam contoh ini dan atau dapat ditulis 2.1.2 Jenis-Jenis Matriks Matriks Kuadrat Matriks kuadrat adalah matriks yang banyak barisnya sama dengan banyak kolomnya. Dalam matriks kuadrat terdapat adanya diagonal utama yaitu entrientri yang mempunyai nomor baris yang sama dengan nomor kolom. Elemenelemen tersebut adalah. Matriks Diagonal Matriks diagonal adalah matriks kuadrat yang semua entri di luar diagonal utamanya bernilai nol dan paling tidak terdapat satu elemen diagonal utama. Jumlah elemen-elemen diagonal suatu matriks kuadrat disebut trace disimbolkan dengan. (2.2) Matriks Identitas Matriks identitas adalah matriks diagonal yang entri-entri pada diagonal utamnya adalah bilangan satu dan entri-entri yang lainnya adalah bilangan nol. Matriks identitas disimbolkan dengan.

7 dengan: Matriks Singular Matriks kuadrat dikatakan singular jika semua elemen pada salah satu baris atau kolom adalah nol atau jika semua kofaktor dari elemen suatu baris atau kolom sama dengan nol. Untuk melihat kesingular suatu matriks adalah dengan menghitung determinan matriks tersebut. Apabila determinannya sama dengan nol maka matriks tersebut adalah singular. Matriks Ortogonal Matriks kuadrat dikatakan dapat didiagonalisasikan secara ortogonal jika terdapat matriks ortogonal sehingga berlaku. Matriks ortogonal didefinisikan sebagai matriks yang nilai inversnya sama dengan nilai transposnya, sehingga: Maka adalah matriks ortogonal. 2.1.3 Operasi Matriks Penjumlahan Matriks Misalkan matriks dengan dan. Jumlah matriks dan dapat dinyatakan oleh, yang memenuhi syarat ordo ordo. penjumlahan matriks dapat dinyatakan dengan: ( ) Pengurangan Matriks Misalkan matriks dengan dan. Jumlah matriks dan dapat dinyatakan oleh, yang memenuhi syarat ordo ordo. penjumlahan matriks dapat dinyatakan dengan: ( )

8 Perkalian Matriks dengan Skalar Misalkan dengan dan dengan adalah suatu skalar. Perkalian matriks dengan skalar dapat dinyatakan dengan, dengan ( ). Perkalian Matriks dengan Matriks Jika dengan dan dan dengan perkalian matriks dan yang dinyatakan oleh harus memenuhi syarat banyak kolom banyak baris. Dengan aturan: (jumlah dari semua perkalian antara elemen pada baris ke- dengan elemen pada kolom ke- ) Dengan aturan ini, dikaitkan dengan vektor kolom dan vektor baris, jika vektor baris ke- dari matriks dan vektor kolom ke- dari matriks maka elemenelemen matriks adalah: Transpose Suatu Matriks Jika semua baris dan kolom dari suatu matriks dipertukarkan (baris pertama dengan kolom pertama dan seterusnya), maka diperoleh suatu matriks yang disebut transpos, disimbolkan dengan atau. Misalkan: Maka:

9 Determinan Matriks Determinan adalah suatu skalar (angka) yang diturunkan dari suatu matriks kuadrat melalui operasi khusus. Disebut operasi khusus karena dalam proses penurunan determinan dilakukan perkalian sesuai dengan aljabar matriks. Suatu matriks yang mempunyai determinan disebut dengan matriks singular sedangkan matriks yang tidak mempunyai determinan (determinannya = 0) disebut matriks non-singular. Misalkan matriks kuadrat dengan. Fungsi determinan dari matriks dituliskan dengan atau. Secara matematiknya dituliskan dengan: di mana menunjukkan bahwa suku-suku tersebut harus dijumlahkan terhadap semua permutasi ( ) dan simbol atau dapat dipilih dalam masingmasing suku sesuai dengan permutasi itu ganjil atau genap. Invers Matriks Matriks kuadrat dengan dan disebut mempunyai invers jika terdapat matriks sedemikian rupa sehingga di mana matriks satuan. Jika matriks mempunyai invers maka matriks disebut matriks nonsingular. Dan jika matriks tidak mempunyai invers maka matriksnya disebut matriks singular. Jika matriks mempunyai invers maka inversnya tunggal (unik). Andaikan matriks dan invers dari matriks sehingga dipenuhi hubungan dan, maka Jadi, atau kedua invers matriks tersebut adalah tunggal. Secara umum invers matriks adalah : (2.5)

10 Adjoint matriks adalah suatu matriks yang elemen-elemennya terdiri dari semua elemen-elemen kofaktor matriks, dengan adalah kofaktor elemenelemen. Sehingga dapat ditulis dalam bentuk matriks sebagai berikut: dengan: adalah determinan dari submatriks yang diperoleh dengan cara membuang semua elemen pada baris ke- dan semua elemen pada kolom ke-. 2.2 Nilai Eigen dan Vektor Eigen Kata vektor eigen adalah ramuan dari bahasa Jerman dan Inggris. Dalam bahasa Jerman eigen dapat diterjemahkan sebagai sebenarnya atau karakteristik ; oleh karena itu, nilai eigen dapat juga dinamakan nilai sebenarnya atau nilai karakteristik. Dalam literatur lama kadang-kadang dinamakan akar-akar laten (Howard Anton, 1992). Jika adalah matriks, maka vektor taknol di dalam dinamakan vektor eigen (eigenvector) dari jika adalah kelipatan skalar dari, yaitu: (2.6) Untuk suatu skalar. Saklar dinamakan nilai eigen (eigenvalue) dari dan dikatakan vektor eigen yang bersesuaian dengan. Nilai skalar dapat dihitung dengan menggunakan persamaan (2.6) dengan menulisnya secara lengkap, yaitu (2.7)

11 dari persamaan (2.7) yang memberikan sistem persamaan linier homogen: (2.8) atau jika dituliskan kedalam bentuk matrik, yaitu: (2.9) Menurut teori aljabar, persamaan linier homogen dengan yang tidak diketahui (variabel), hanya dapat mempunyai penyelesaian yang tidak trivial, dapat dituliskan menjadi: (2.10) Persamaan (2.10) dinamakan persamaan karakteristik. Skalar yang memenuhi persamaan (2.10) adalah nilai eigen dari. Apabila diperluas, maka adalah polinom yang dinamakan polinom karakteristik dari. Dengan persamaan polinomnya berderajat di dalam, yaitu: (2.11) Matriks disebut matriks karakteristik, sedang adalah fungsi karakteristik dari dan adalah akar-akar dari persamaan (2.11) yang menurut teori aljabar mempunyai akar. Pada umumnya akar-akar ini komple dan ada kemungkinan terdapat akar-akar yang sama. Akar-akar dari persamaan (2.11) disebut eigen value dari matriks. Andaikan untuk setiap dengan sitem persamaan (2.9) mempunyai penyelesaian, misalkan suatu vektor yang bersesuaian dengan, sedemikian hingga: (2.12) Dengan ketentuan bahwa persamaan (2.11) mempunyai akar-akar yang berlainan. Dalam hal ini vektor-vektor dengan disebut eigen vektor dari matriks. Karena eigen vektor merupakan penyelesaian dari sistem persamaan linier homogen, maka penyelesaian ditentukan hanya oleh faktor konstan dan hanya menentukan perbandingan dari unsur-unsur kolom secara

12 tunggal. Dalam ilmu ukur menentukan arahnya secara tunggal sedangkan panjang vektornya boleh sebarang. 2.3 Matriks Korelasi Matriks korelasi adalah matriks yang elemen-elemennya terdapat korelasi atau hubungan satu sama lain. Andaikan adalah sebuah matriks data, adalah matriks rata-rata dan adalah matriks ragam peragam. dengan: Jika diubah ke dalam bentuk matriks akan menjadi: [ ] dihitung dari matriks data yang dikalikan dengan vektor dan konstanta. Selanjutnya, persamaan (2.13) dikalikan dengan vektor dihasilkan matriks. [ ], sehingga Kurangkan matriks dengan persamaan matriks (2.14) yang menghasilkan matriks baku dinotasikan dengan. [ ]

13 Matriks adalah perkalian silang antara matriks (2.15) dengan matriks transposenya. [ ] [ ] ( ) ( ) ( ) Karena ( ) ( ) Sehingga didapat ( ) Persamaan (2.16) menunjukkan dengan jelas bahwa hubungan operasi perkalian matriks data dengan ( ) dan transpose matriks datanya. Jika nilai diketahui dari persamaan (2.16), maka dapat dihubungkan ke matriks korelasi dengan cara menghitung matriks. Di mana ( ) Maka bentuk korelasi matriks adalah:

14 Di mana Untuk menghasilkan. 2.4 Multikolinieritas Istilah kolinieritas (collinearity) berarti hubungan linier tunggal (single linier relationship), sedangkan kolinieritas ganda (multicollinearity) menunjukkan adanya lebih dari satu hubungan linier yang sempurna (J. Supranto, 2004). Masalah Multikolinieritas pertama kali diperkenalkan pada tahun 1934 oleh Ragnar Frisch serta mendefenisikan multikolinieritas adalah hubungan yang perfect atau exact diantara sebagian atau semua variabel bebas pada suatu model regresi, sehingga akan menyulitkan untuk mengidentifikasi variabel penjelas dan variabel yang dijelaskan (Gunawan Sumodiningrat, 1998). Dengan demikian pengertian multikolinieritas berkaitan dengan adanya lebih dari satu hubungan linier yang sempurna diantara variabel bebas. Adanya hubungan linier diatara variabel bebas yaitu dimisalkan terdapat variabel bebas. Hubungan linier yang sempurna terjadi apabila berlaku hubungan berikut: Di mana merupakan bilangan konstan dan tidak seluruhnya benilai nol atau paling tidak terdapat satu nilai yang bernilai tidak nol, yaitu. Jika variabel bebas itu berkorelasi linier secara sempurna, apabila koefisien korelasi dari variabel bebasnya sama dengan dengan demikian parameter dalam model regresi tidak dapat ditentukan (Vincent Gaspersz, 1991). Menurut Gunawan Sumodiningrat, ada 3 hal yang perlu dijelaskan berkaitan dengan masalah multikolinieritas yaitu: 1. Multikolinieritas pada hakikatnya adalah fenomena sampel, hal ini karena adanya korelasi yang tinggi diantara sebagian atau semua variabel bebas,

15 sehingga sampel tidak memenuhi asumsi dasar tidak adanya ketergantungan diantara variabel bebas yang digunakan dalam model regresi. 2. Multikolinieritas adalah masalah derajat (degree) bukan persoalan jenis (kind), yang dimaksud adalah adanya korelasi diantara variabel penjelas baik sebagian maupun semua variabel bebas tanpa memperhatikan tanda negatif maupun positif. 3. Multikolinieritas berkaitan dengan adanya hubungan linier diantara variabel bebas, sehingga masalah multikolinieritas tidak akan terjadi jika model estimasi (regresi) non-linier. 2.4.1 Akibat Multikolinieritas Multikolinieritas berakibat terhadap estimasi kuadrat terkecil dari koefisien regresi. Berikut akan diperlihat untuk, Variansi ( ) dan kovariansi ( ) jika terdapat multikolinieritas. Misalkan terdapat dua varibel bebas dan variabel terikat sehingga model persamaan normal dengan kuadrat terkecil adalah. * + Diperoleh Elemen diagonal utama dari matriks merupakan nilai faktor variansi inflasi (VIF), yaitu: Dengan adalah koefisien determinansi dari regresi. korelasi antara variabel dan. korelasi antara variabel dan.

16 * + * + Jika ada multikolinieritas antara variabel dan yang sangat erat dan nilai korelasi. Variansi dan kovariansi koefisien regresi menjadi sangat besar karena ( ) seperti, galat ( ), variansi yang besar untuk menyatakan bahwa koefisien regresi adalah perkiraan yang sangat lemah. Jika diasumsikan seperti, perkiraan koefisien regresi menjadi sama besarnya akan tetapi menjadi berlawanan tanda, yaitu. 2.4.2 Pendeteksian Multikolinieritas Ada beberapa untuk mendeteksi ada tidaknya multikolinieritas diantaranya yaitu: 1. Nilai korelasi (korelasi antara varibel bebas) Cara ini merupakan pendeteksian yang paling sederhana dan paling mudah untuk dilakukan. Jika nilai korelasi antara variabel bebas ( melebihi 0,8 diduga terdapat masalah multikolinieritas (Gujarati, 2003). ( ) ( ) Untuk menghasilkan nilai korelasi 2. Variance Inflation Factor (VIF) Nilai VIF merupakan diagonal utama dari invers matriks korelasi. VIF digunakan sebagai kriteria untuk mendeteksi masalah multikolinieritas pada regresi linier berganda yang melibatkan lebih dari dua variabel bebas. Nilai VIF melebihi 10 menunjukkan adanya masalah multikolinieritas (Gujarati, 2003).

17 ( ) dengan: koefisien determinansi antar dengan variabel bebas lainnya. 3. lakukan regresi antar variabel bebas dan menghitung masing-masing, kemudian melakukan uji-f dan bandingkan dengan F tabel. Jika nilai F hitung melebih dari F tabel berarti dapat dinyatakan bahwa terjadi kolinieritas terhadap variabelnya. 2.5 Regresi Linier Berganda Analisis regresi yang sering digunakan dalam pemecahan suatu permasalahan adalah regresi linier. Dalam perkembangannya terdapat dua jenis regresi yang sangat terkenal, yaitu regresi linier sederhana dan regresi linier berganda. Regresi linier sederhana digunakan untuk menggambarkan hubungan antara satu variabel bebas ( ) dengan satu variabel tak bebas ( ). Sedangkan jika variabel bebas ( ) yang digunakan lebih dari satu, maka persamaan regresinya adalah persamaan regresi linier berganda. Secara umum persamaan regresi linier dengan dinyatakan dengan: variabel bebas dapat di mana: Variabel tak bebas / pengamatan ke pada variabel yang dijelaskan Variabel bebas / pengamatan ke pada variabel yang dijelaskan Parameter / koefisien regresi variabel penjelas Galat / error Apabila terdapat sejumlah pengamatan dan variabel bebas maka untuk setiap pengamatan atau responden mempunyai persamaannya seperti berikut:

18 Apabila persamaan regresi linear berganda untuk setiap pengamatan dinyatakan dengan notasi matriks maka menjadi: atau (2.23) Dalam melakukan analisis regresi linier berganda, sering dijumpai masalah multikolinieritas pada variabel-variabel bebasnya ( ). Akibat adanya pelanggaran terhadap salah satu asumsi yang disyaratkan pada penggunaan regresi linier tersebut, maka tentu mempengaruhi terhadap sifat-sifat penduga atau penaksir koefisien regresi linier gandanya. (J. Supranto, 2004) Adapun asumsi-asumsi yang mendasari analsis regresi linier berganda tersebut antara lain: a. Nilai rata-rata kesalahan pengganggu nol, yaitu: untuk. b. Var, adalah konstanta untuk semua kesalahan pengganggu (asumsi homoskedastisitas). c. Tidak ada korelasi serial (autocorrelation) antara pengganggu, berarti kovarian ( ) d. Variabel bebas konstanta dalam sampling terulang dan bebas terhadap kesalahan pengganggu. e. Tidak ada multikolinieritas pada variabel bebas. f., artinya kesalahan pengganggu menyebar mengikuti distribusi normal dengan rata-rata 0 dan varians.

19 2.6 Metode Ordinary Least Square (OLS) Metode Ordinary Least Square (OLS) merupakan suatu metode untuk mendapatkan garis regresi yang baik yaitu sedekat mungkin dengan datanya sehingga menghasilkan prediksi yang baik (Widarjono, 2005). Metode OLS harus memenuhi asumsi-asumsi yang ada dalam proses pengestimasian parameter sehingga hasil estimasinya memenuhi sifat Best Linear Unbiased Estimator (BLUE). Pada dasarnya metode OLS meminimumkan jumlah kuadrat error. [ ] (2.24) Dengan adalah suatu vektor kolom -unsur dari estimasi OLS parameter regresi dan adalah suatu vektor kolom dari residual. Untuk mengestimasi parameter model regresi linear berganda digunakan metode OLS. Prosedur metode OLS dilakukan dengan memilih nilai parameter yang tidak diketahui sehingga jumlah error diperoleh sehingga dapat dinyatakan dengan: [ ] sekecil mungkin, ( ) (2.25) Estimasi vektor dengan menggunakan metode OLS, ialah vektor sedemikian sehingga jumlah kuadrat error minimum. Caranya ialah dengan melakukan differensial parsial terhadap setiap komponen vector dan menyamakan dengan 0.

20 ( ) ( ) ( ) ( ) Jika persamaannya disederhanakan maka akan menjadi + = = = (2.26) = Dengan menjumlahkan persamaan untuk seluruh pengamatan memberikan persamaan pertama dalam persamaan (2.26) kemudian mengalikannya dengan pada kedua sisinya dan menjumlahkan untuk seluruh maka dihasilkan persamaan kedua. Begitu juga persamaan ketiga dalam persamaan (2.26) mengalikan kedua sisinya dengan dan menjumlahkan untuk seluruh, dan seterusnya. Dinyatakan dalam bentuk matriks, persamaan normal akan menjadi: [ ] [ ] (2.27)

21 Persamaan (2.27) diperoleh dari menurunkan persamaan mariks terhadap, sehingga diperoleh: kemudian samakan hasil dengan, sehingga diperoleh: ; kali dengan sehingga diperoleh dengan ketentuan (2.28) Penduga merupakan penduga tak bias linier terbaik atau efisien bagi, yaitu: 1. adalah penduga tak bias bagi Akan ditunjukkan bahwa adalah penaksir linier tak bias dari. Dari persamaan (2.23) diketahui: ) (2.29) Dengan ( ) 2. Kovarian ( ) ( ) *(( ( )) ( ( ))) +

22 2.7 Analisis Komponen Utama Analisis komponen utama merupakan teknik statistika yang dapat digunakan untuk mereduksi data multivariat (banyak data) dari sejumlah variabel asal menjadi variabel baru yang bersifat orthogonal dan tetap mempertahankan jumlah varian (keragaman) dari data asalnya. Analisis komponen utama bertujuan untuk mengubah (mentransformasi) sebagain besar variabel asal yang saling berkorelasi menjadi suatu set variabel baru yang lebih kecil dan merupakan kombinasi linier dari variabel asal. Secara umum tujuan dari analisis komponen utama adalah mereduksi dimensi data sehingga mudah untuk menginterpretasikan data tersebut. Selanjutnya variabel baru ini dinamakan dengan komponen utama (principal component). Analisis komponen utama mengestrak dengan cara yaitu dengan menyerap varian matriks korelasi yang paling banyak dari komponen pertama. Kemudian komponen kedua yang menyerap varian terbanyak kedua terhadap sisa varian dan begitu seterusnya sampai komponen yang terakhir menyerap varian matriks korelasi yang paling sedikit. Pada akhirnya sejumlah komponen yang diperoleh dapat digunakan sebagai variabel bebas (predictor) dalam analisi regresi yang sudah bebas dari multikolinieritas. Jika variabel yang diamati tidak mempunyai satuan pengukuran yang sama, maka variabel tersebut perlu dibakukan sehingga komponen utama ditentukan dari variabel baku (Johnson dan Wichern, 1982). Variabel asal perlu ditransformasi ke dalam variabel baku, yang dalam catatan matriks adalah: ( )

23 dengan: = variabel baku = matriks simpangan baku dengan diagonal utama = variabel pengamatan = nilai rata-rata variabel pengamatan Dengan demikian komponen utana dari dapat ditentukan dari vektor ciri yang diperoleh melalui matriks korelasi variabel asal, di mana vektor pembobot diperoleh dengan memaksimumkan keragaman komponen utama ke- dengan kendala:, serta, untuk. Sehingga diperoleh komponen utama ke- dengan menggunakan variabel baku, yaitu: dengan: = komponen utama ke- = vektor ciri ke- = variabel baku Ragam dari komponen utama ke- adalah sama dengan akar ciri ke-, serta antara komponen utama ke- dan komponen utama ke- tidak berkorelasi untuk. Untuk meregresikan komponen utama dengan variabel dengan variabel tak bebas, perlu dihitung skor komponen utama dari setiap pengamatan ditentukan sebagai berikut: dengan: = vektor pembobot komponen utama ke- = vektor skor baku dari variabel yang diamati pada pengamatan ke- Salah satu dari tujuan komponen utama adalah mereduksi dimensi data asal, dimana terdapat variabel bebas menjadi komponen utama (di mana ). Adapun kriteria dalam pemilihan komponen utama yaitu, didasarkan pada akar

24 ciri yang nilainya lebih besar dari satu, artinya hanya nilai akar ciri yang lebih besar dari satu dilibatkan dalam analisis regresi komponen utama atau dengan melihat proporsi kumulatif keragaman data asal yang dijelaskan oleh komponen utama minimal 80%, dan proporsi total variansi populasi bernilai cukup besar (Vincent Gaspersz, 1991). 2.8 Regresi Ridge Prosedur regresi ridge pertama kali dikemukakan oleh A.E. Hoerl pada 1962. Regresi ridge ditujukan untuk mengatasi kondisi buruk (ill-condition) yang diakibatkan oleh korelasi yang tinggi antara beberapa variabel bebas, sehingga menyebabkan matriks -nya hampir singular, yang pada gilirannya menghasilkan nilai dugaan parameter model yang tidak stabil. Apabila terjadi multikolinieritas tidak sempurna pada variabel bebas pada diagonal utama ditambahkan bilangan kecil positif yang bernilai antara 0 dan 1. Kemudian degan menstranformasikan matriks menjadi matriks korelasi, sehingga dugaan koefisien regersi menjadi: dengan: = vektor koefisien regresi ridge = matriks transformasi variabel bebas ( = tetapan bias ( = matriks identitas = matriks transformasi variabel tak bebas ( ) Hubungan parameter dalam model baru dengan parameter dalam model semula adalah sebagai berikut: ( ) ( ) ( )

25 2.9 Ridge Trace Ridge trace adalah plot dari estimator regresi ridge secara bersama dengan berbagai kemungkinan tetapan bias, konstanta mencerminkan jumlah bias dalam estimator. Jika maka estimator akan bernilai sama dengan kuadrat terkecil, tetapi cenderung lebih stabil dari pada estimator kuarat terkecil. Pemilihan tetapan bias merupakan hal yang sangat penting dan perlu diperhatikan. Karena tetapan bias yang diinginkan adalah tetapan bias yang menghasilkan bias relatif kecil dan menghasilkan koefisien yang relatif stabil. Dari berbagai nilai yang ada, akan dipilih nilai yang memberikan nilai VIF relatif dekat dengan 1.