Bab 2 LANDASAN TEORI

dokumen-dokumen yang mirip
BAB 2 LANDASAN TEORI

BAB 2 TINJAUAN PUSTAKA

BAB II TINJAUAN PUSTAKA. Dalam bab ini dibahas tentang matriks, metode pengganda Lagrange, regresi

BAB 2 LANDASAN TEORI. Analisis Komponen Utama (AKU, Principal Componen Analysis) bermula dari

BAB II LANDASAN TEORI

BAB. IX ANALISIS REGRESI FAKTOR (REGRESSION FACTOR ANALYSIS)

ALJABAR LINIER MAYDA WARUNI K, ST, MT ALJABAR LINIER (I)

BAB 2 LANDASAN TEORI

BAB II TINJAUAN PUSTAKA

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI

TINJAUAN PUSTAKA. Matriks adalah suatu susunan bilangan berbentuk segi empat. Bilangan-bilangan

ALJABAR LINIER DAN MATRIKS

BAB II TINJAUAN PUSTAKA. Hal ini sangat membantu dalam proses pembuktian sifat-sifat dan perhitungan

BAB 2 LANDASAN TEORI

BAB III PEREDUKSIAN RUANG INDIVIDU DENGAN ANALISIS KOMPONEN UTAMA. Analisis komponen utama adalah metode statistika multivariat yang

MATRIKS. Notasi yang digunakan NOTASI MATRIKS

Tujuan. Mhs dapat mendemonstrasikan operasi matriks: penjumlahan, perkalian, dsb. serta menentukan matriks inverse

Pertemuan 2 Matriks, part 2

BAB II KAJIAN TEORI. Sebuah Matriks adalah susunan segi empat siku-siku dari bilangan-bilangan.

BAB II TINJAUAN PUSTAKA

BAB II KAJIAN TEORI. linier, varian dan simpangan baku, standarisasi data, koefisien korelasi, matriks

5. PERSAMAAN LINIER. 1. Berikut adalah contoh SPL yang terdiri dari 4 persamaan linier dan 3 variabel.

BAB 2 LANDASAN TEORI

BAB II TINJAUAN PUSTAKA. satu peubah prediktor dengan satu peubah respon disebut analisis regresi linier

MODUL ALJABAR LINEAR 1 Disusun oleh, ASTRI FITRIA NUR ANI

BAB II LANDASAN TEORI. metode kuadrat terkecil (MKT), outlier, regresi robust, koefisien determinasi,

BAB II KAJIAN TEORI. principal component regression dan faktor-faktor yang mempengaruhi IHSG.

BAB I PENDAHULUAN. 3) Untuk mengetahui apa yang dimaksud dengan invers matriks. 4) Untuk mengetahui apa yang dimaksud dengan determinan matriks

BAB II DETERMINAN DAN INVERS MATRIKS

BAB II LANDASAN TEORI. yang biasanya dinyatakan dalam bentuk sebagai berikut: =

Aljabar Linear Elementer

= parameter regresi = variabel gangguan Model persamaan regresi linier pada persamaan (2.2) dapat dinyatakan dalam bentuk matriks berikut:

GARIS-GARIS BESAR PROGRAM PEMBELAJARAN

Matriks Jawab:

Perturbasi Nilai Eigen dalam Mengatasi Multikolinearitas

Operasi Pada Matriks a. Penjumlahan pada Matriks ( berlaku untuk matriks matriks yang berukuran sama ). Jika A = a ij. maka matriks A = ( a ij)

Bab 1 PENDAHULUAN. Secara umum persamaan regresi linier dengan k variabel bebas dinyatakan dengan :

PENANGANAN MULTIKOLINEARITAS (KEKOLINEARAN GANDA) DENGAN ANALISIS REGRESI KOMPONEN UTAMA. Tatik Widiharih Jurusan Matematika FMIPA UNDIP

BAB II KAJIAN PUSTAKA. operasi matriks, determinan dan invers matriks), aljabar max-plus, matriks atas

JURNAL MATEMATIKA DAN KOMPUTER Vol. 4. No. 2, 71-81, Agustus 2001, ISSN :

uiopasdfghjklzxcvbnmqwertyuiopasd fghjklzxcvbnmqwertyuiopasdfghjklzx wertyuiopasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyuiopasdfg

MATRIKS. a A mxn = 21 a 22 a 2n a m1 a m2 a mn a ij disebut elemen dari A yang terletak pada baris i dan kolom j.

TINJAUAN PUSTAKA. Analisis regresi merupakan suatu teknik statistika untuk menyelidiki dan

MATRIKS A = ; B = ; C = ; D = ( 5 )

2. MATRIKS. 1. Pengertian Matriks. 2. Operasi-operasi pada Matriks

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB ΙΙ LANDASAN TEORI

BAB 2 LANDASAN TEORI

II. TINJAUAN PUSTAKA. nyata (fenomena-fenomena alam) ke dalam bagian-bagian matematika yang. disebut dunia matematika (mathematical world).

Eigen value & Eigen vektor

TINJAUAN PUSTAKA Analisis Biplot Biasa

BAB II KAJIAN TEORI. Bab ini akan membahas mengenai pengertian-pengertian dasar yang akan

BAB 2. DETERMINAN MATRIKS

Analisis Regresi 2. Multikolinier & penanganannya

III. METODOLOGI PENELITIAN

4. SISTEM PERSAMAAN DAN PERTIDAKSAMAAN

Aljabar Linier Elementer. Kuliah 7

PENERAPAN METODE REGRESI GULUD DAN REGRESI KOMPONEN UTAMA DALAM MENGATASI PENYIMPANGAN MULTIKOLINEARITAS PADA ANALISIS REGRESI LINEAR BERGANDA

MATRIKS Nuryanto, ST., MT.

Vektor. Vektor. 1. Pengertian Vektor

BAB 1 PENDAHULUAN Latar Belakang

SATUAN ACARA PERKULIAHAN MATA KULIAH : ALJABAR LINIER JURUSAN : TEKNIK KOMPUTER JUMLAH SKS : Definisi, Notasi, dan Operasi Vektor 2.

Analisa Numerik. Matriks dan Komputasi

BAB II KAJIAN PUSTAKA. dicatat, atau diobservasi sepanjang waktu secara berurutan. Periode waktu dapat

Analisis Regresi 2. Multikolinier & penanganannya

SATUAN ACARA PERKULIAHAN MATA KULIAH : ALJABAR LINIER KODE / SKS : IT / 2 SKS

BAB 2 LANDASAN TEORI. digunakan sebagai konsep statistik pada tahun 1877 oleh Sir Francis Galton. Dia

PENGGUNAAN METODE RIDGE TRACE DAN VARIANCE INFLATION FACTORS (VIF) PADA REGRESI RIDGE SKRIPSI

III. METODE PENELITIAN. Jenis data yang digunakan dalam penelitian ini adalah data sekunder deret waktu

SBAB III MODEL VARMAX. Pengamatan time series membentuk suatu deret data pada saat t 1, t 2,..., t n

Estimasi Interval Kepercayaan Bootstrap pada Parameter Regresi Komponen Utama

PEMODELAN UPAH MINIMUM KABUPATEN/KOTA DI JAWA TENGAH BERDASARKAN FAKTOR-FAKTOR YANG MEMPENGARUHINYA MENGGUNAKAN REGRESI RIDGE

7. NILAI-NILAI VEKTOR EIGEN. Nilai Eigen dan Vektor Eigen Diagonalisasi Diagonalisasi Ortogonal

I PENDAHULUAN II LANDASAN TEORI

Contoh. C. Determinan dan Invers Matriks. C. 1. Determinan

Perluasan Teorema Cayley-Hamilton pada Matriks

III. METODE PENELITIAN

1.1. Definisi, Notasi, dan Operasi Vektor 1.2. Susunan Koordinat Ruang R n 1.3. Vektor di dalam R n 1.4. Persamaan garis lurus dan bidang rata

Sebelum pembahasan tentang invers matriks lebih lanjut, kita bahas dahulu beberapa pengertian-pengertian berikut ini.

a11 a12 x1 b1 Kumpulan Materi Kuliah #1 s/d #03 Tahun Ajaran 2016/2016: Oleh: Prof. Dr. Ir. Setijo Bismo, DEA.

TINJAUAN PUSTAKA. Model Regresi Linier Ganda

Analisis Tingkat Kepuasan Mahasiswa Terhadap Kualitas Pelayanan Akademik Menggunakan Analisis Faktor

BAB III METODE PENELITIAN. September). Data yang dikumpulkan berupa data jasa pelayanan pelabuhan, yaitu

BAB III PEMBAHASAN. Metode kriging digunakan oleh G. Matheron pada tahun 1960-an, untuk

BAB II LANDASAN TEORI

Banyaknya baris dan kolom suatu matriks menentukan ukuran dari matriks tersebut, disebut ordo matriks

II. TINJAUAN PUSTAKA. Suatu matriks didefinisikan dengan huruf kapital yang dicetak tebal, misalnya A,

Determinan. Untuk menghitung determinan ordo n terlebih dahulu diberikan cara menghitung determinan ordo 2

REGRESI LINIER BERGANDA

SATUAN ACARA PERKULIAHAN UNIVERSITAS GUNADARMA

Matriks. Baris ke 2 Baris ke 3

METODE PENELITIAN. deposito berjangka terhadap suku bunga LIBOR, suku bunga SBI, dan inflasi

BAB I MATRIKS DEFINISI : NOTASI MATRIKS :

BAB VII MATRIKS DAN SISTEM LINEAR TINGKAT SATU

BAB 2 LANDASAN TEORI

BAB III LANDASAN TEORI

BAB 1 PENDAHULUAN. banyak diterapkan pada berbagai bidang sebagai dasar bagi pengambilan

TUGAS MANDIRI MATRIKS. Mata Kuliah : Matematika ekonomi

Matriks adalah susunan segi empat siku-siku dari objek yang diatur berdasarkan baris (row) dan kolom (column). Objek-objek dalam susunan tersebut

Transkripsi:

17 Bab 2 LANDASAN TEORI 2.1 Aljabar Matriks 2.1.1 Definisi Matriks Matriks adalah suatu kumpulan angka-angka yang juga sering disebut elemen-elemen yang disusun secara teratur menurut baris dan kolom sehingga berbentuk persegi panjang, dimana panjang dan lebarnya ditunjukkan oleh banyaknya kolom dan baris serta dibatasi tanda atau. Sebuah matriks dinotasikan dengan simbol huruf besar seperti A, X, atau Z dan sebagainya. Sebuah matriks A yang berukuran m baris dan n kolom dapat ditulis sebagai berikut : Atau juga dapat ditulis : A= i = 1, 2,, m ; j = 1, 2,, n Contoh : * Disebut matriks A dengan 2 baris dan 3 kolom. Jika A sebuah matriks, maka digunakan untuk menyatakan elemen yang terdapat di dalam baris i dan kolom j dari A. Dalam contoh ini i = 1, 2 dan j = 1, 2, 3 atau dapat ditulis

18 i = 1, 2 j = 1, 2, 3 Skalar Suatu skalar adalah besaran yang hannya memiliki nilai, tetapi tidak memiliki arah. Vektor Baris Suatu matriks yang hannya terdiri dari satu baris dan n kolom disebut vektor baris. disebut vektor baris Vektor Kolom Suatu matriks yang hannya terdiri dari m baris dan satu kolom disebut vektor kolom. disebut vektor kolom Kombinasi Linier Vektor w merupakan kombinasi linier dari vektor vektor skalar jika terdapat sehingga berlaku :, Jika vektor 2.1 maka disebut persamaan homogen dan vektor yang bebas linier, yang mengakibatkan ada bilangan disebut tetapi jika yang tidak semuanya sama dengan nol, maka disebut vektor yang bergantung linier. 2.1.2 Jenis-jenis Matriks Matriks Kuadrat

19 Matriks kuadrat adalah matriks yang memiliki baris dan kolom yang sama banyak. Dalam suatu matriks kuadrat, elemen elemen disebut elemen diagonal utama. Matriks Diagonal Matriks kuadrat dinamakan matriks diagonal jika semua elemen diluar diagonal utama adalah nol, dan paling tidak satu elemen pada. Jumlah elemen elemen diagonal utama suatu diagonal pokok matriks kuadrat A disebut trace A ditulis, Matriks Simetris Suatu matriks kuadrat disebut matriks simetris jika elemen dibawah diagonal utama merupakan cermin dari elemen diatas diagonal utama. Matriks simetris jika artinya. Contoh : Matriks Identitas Matriks A disebut matriks identitas dan biasa diberi simbol I. i = 1, 2,, m, j = 1, 2,, n m = n dan untuk

20 Matriks Nol Matriks nol adalah suatu matriks dengan semua elemennya mempunyai nilai nol. Biasanya diberi simbol, dibaca matriks nol. Matriks Elementer Suatu matriks nxn dikatakan matriks elementer jika matriks tersebut dapat diperoleh dari matriks identitas nxn yakni dengan melakukan operasi baris elementer tunggal. Matriks Segitiga Matriks suatu matriks bujur sangkar dikatakan segitiga bawah lower triangular jika untuk i < j dan matriks dikatakan segitiga atas upper triangular jika suatu matriks bujur sangkar untuk i > j. Contoh : Segitiga bawah, segitiga atas Matriks Singular Matriks kuadrat dikatakan singular jika semua elemen pada salah satu baris atau kolom adalah nol atau jika semua kofaktor dari elemen suatu baris atau kolom sama dengan nol. Untuk melihat kesingularan suatu matriks adalah dengan menghitung determinan matriks tersebut. Apabila determinannya sama dengan nol maka matriks tersebut singular. Matriks Ortogonal Matriks kuadrat dikatakan dapat didiagonalisasi secara orthogonal jika terdapat mtriks orthogonal P sehingga berlaku Matriks orthogonal

21 didefinisikan sebagai matriks kuadrat yang inversnya sama dengan transposenya, sehingga : Maka P adalah matriks orthogonal 2.1.3 Operasi Matriks Perkalian Matriks dengan Skalar Jika k adalah adalah matriks mxn dan k adalah suatu skalar, maka hasil kali A dengan matriks mxn dengan 1 Perkalian Matriks dengan Matriks Jika adalah matriks mxp dan adalah matriks pxn maka hasil kali dari matriks A dan matriks B yang ditulis dengan AB adalah C matriks mxn. Secara matematik dapat ditulis sebagai berikut : 1 2.2 Penjumlahan Matriks Jika adalah matriks mxn dan adalah matriks mxn maka penjumlahan matriks dari matriks A dan matriks B yang ditulis dengan i = 1, 2,, m; j = 1, 2,, n. Pengurangan Matriks Jika adalah matriks mxn dan adalah matriks mxn maka pengurangan matriks dari matriks A dan matriks B yang ditulis dengan i = 1, 2,, m; j = 1, 2,, n. Transpose Suatu Matriks Jika 1 adalah matriks mxn maka matriks nxm dengan dan disebut dengan transpose dari matriks A.

22 Matriks mxn yang umum dapat ditulis : maka Determinana Matriks adalah matriks nxn. Fungsi determinan dari A ditulis dengan det Misalkan A atau A. Secara matematiknya ditulis : Det A = A = merupakan himpunan S = {1, 2,, n}. Dengan Teorema Jika adalah matriks nxn yang mengandung sebaris bilangan nol, maka deta = 0. Anton 2004, hal: 97 Contoh : Teorema Jika A adalah matriks segitiga nxn, maka deta adalah hasil kali elemen elemen pada diagonal utama, yaitu deta = Anton 2004, hal: 98 Contoh : maka deta = 24-53 = -120 Teorema

23 Jika A adalah sebarang matriks kuadrat, maka deta = detat. Anton 2004, hal: 97 Teorema Jika A dan B adalah matriks kuadrat yang ordonya sama, maka detab = detab. Anton 2004, hal: 108 Contoh : * * * detab = 1-23 = -23 detab = -23 Sehingga det AB = det A det B Invers Matriks Misalkan A matriks nxn disebut non singular invertible jika terdapat matriks B maka AB = BA = I Matriks B disebut invers dari A. jika tidak terdapat matriks B maka matriks A disebut singular non-invertible. Secara umum invers matriks A adalah : Adjoint matriks A adalah suatu matriks yang elemen-elemennya terdiri dari semua elemen-elemen kofaktor matriks A, dengan adalah kofaktor elemen-elemen. Sehingga dapat ditulis dalam bentuk matriks sebagai berikut : Sifat sifat invers : a. Jika A adalah matriks non singular, maka A-1 adalah non singular dan b. Jika A dan B adalah matriks non singular, maka AB adalah non singular dan

24 c. Jika A adalah matriks non singular maka 2.2 Nilai Eigen dan Vektor Eigen Jika A adalah matriks nxn, maka vektor tak nol X di dalam Rn dinamakan vektor eigen eigenvector dari A jika AX adalah kelipatan skalar dari X yakni : AX = Untuk suatu skalar. Skalar 2.3 dinamakan nilai eigen eigen value dari A dan X dikatakan vektor eigen yang bersesuaian dengan. Untuk mencari nilai eigen matriks A yang berukuran nxn, dari persamaan 2.3 dapat ditulis kembali sebagai suatu persamaan homogen : 2.4 Dengan I adalah matriks identitas yang berordo sama dengan matriks A, dalam catatan matriks :,, X= AX = X AX = =0 X Untuk memperoleh nilai 2.5

25 n buah akar Jika nilai eigen vektor eigen disubstitusi pada persamaan maka solusi dari adalah 2.6 Jadi apabila matriks mempunyai akar karakteristik dan ada kemungkinan bahwa diantaranya mempunyai nilai yang sama, bersesuaian dengan akar-akar karakteristik ini adalah himpunan vektor vektor karakteristik yang orthogonal artinya masing-masing nilai akar karakteristik akan memberikan vektor karakteristik sedemikian sehingga : Tanpa menghilangkan sifat umum, vektor-vektor tersebut bisa dibuat normal standar sedemikian rupa sehingga untuk semua i, suatu himpunan vektor- vektor orthogonal yang telah dibuat normal standar disebut orthogonal set. Apabila X merupakan matriks nxn, dimana kolom kolomnya terdiri dari vektor-vektor 1. dan kemudian bisa ditulis dengan dua syarat sebagai berikut : jika jika 2. sehingga Matriks yang mempunyai sifat demikian dinamakan matriks orthogonal. Definisi : Misalkan Determinan matriks nxn. Dikatakan karakteristik polinom dari A. Persamaan

26 Dikatakan persamaan karakteristik dari A. 2.3 Matriks korelasi Matriks korelasi adalah matriks yang didalamnya terdapat korelasi-korelasi. Andaikan adalah matriks rata-rata dan adalah matriks ragam X adalah matriks data, peragam. Dengan: 2.7 dihitung dari matriks data yang dikalikan dengan vektor 1 dan konstanta Selanjutnya, persamaan 2.7 dikalikan dengan vektor, sehingga dihasilkan matriks 2.8 Kurangkan matriks X dengan persamaan matriks 2.8 yang menghasilkan matriks baku dinotasikan dengan V Matriks 2.9 adalah perkalian silang antara matriks 2.9 dengan matriks transposenya

27 karena Sehingga didapat 2.10 Persamaan 2.10 menunjukan dengan jelas hubungan operasi perkalian matriks data X dengan dan transpose matriks data. Jika S telah diketahui dari persamaan 2.10, maka S dapat dihubungkan ke matriks korelasi dengan cara : 1. Menghitung Matriks

28 2. Menghitung matriks baku yang isinya adalah simpangan baku, dengan asumsi dihasilkan sehingga dapat ditulis kedalam bentuk matriks sebagai berikut : 3. Menghitung invers dari matriks deviasi dengan cara Maka dapat dihasilkan matriks korelasi dengan rumus Untuk 2.11 menghasilkan

29 Dan untuk 2.4 Analisis Regresi Linier Berganda Dalam perkembangannya terdapat dua jenis regresi yang sangat terkenal, yaitu regresi linier sederhana dan regresi linier berganda. Regresi linier sederhana digunakan untuk menggambarkan hubungan antara suatu variabel bebas X dengan satu variabel tak bebas Y dalam bentuk persamaan linier sederhana. 2.12 Regresi linier berganda merupakan perluasan dari regresi linier sederhana. Perluasannya terlihat dari banyaknya variabel bebas pada model regresi tersebut. Bentuk umum regresi linier berganda dapat dinyatakan secara statistik sebagai berikut: = 2.13 = variabel tak bebas = variabel bebas,, = parameter regresi = variabel gangguan 2.4.1 Asumsi Regresi Linier Berganda

30 Dalam model regresi linier berganda ada beberapa asumsi yang harus dipenuhi, asumsi tersebut adalah : untuk I = 1, 2,, n 1. Nilai rata-rata kesalahan pengganggu nol, yaitu 2. Varian sama untuk semua kesalahan pengganggu asumsi homokedastisitas 3. Tidak ada otokorelasi antara kesalahan pengganggu, berarti kovarian 4. Variabel bebas, konstan dalam sampling yang terulang dan bebas terhadap kesalahan pengganggu. 5. Tidak ada multikolinieritas diantara variabel bebas X. 6. artinya kesalahan pengganggu mengikuti distribusi normal dengan rata-rata 0 dan varian 2.4.2 Metode Kuadrat Terkecil MKT Metode kuadrat terkecil merupakan suatu metode yang paling banyak digunakan untuk menduga parameter-parameter regresi. Pada model regresi linier berganda juga digunakan metode kuadrat terkecil untuk menduga parameter. Biasanya penduga kuadrat terkecil ini diperoleh dengan meminimumkan jumlah kuadrat galat. Misalkan model yang akan diestimasi adalah parameter dari persamaan dengan n pengamatan, maka diperoleh : = = = Persaman-persamaan diatas dapat ditulis dalam bentuk matriks : Y=X 2.14

31 Untuk mendapatkan penaksir-penaksir MKT bagi klasik ditentukan dua vektor, maka dengan asumsi sebagai : Persamaan hasil estimasi dari persamaan 2.14 dapat ditulis sebagai : Y=X atau 2.15 Karena tujuan MKT adalah meminimumkan jumlah kuadrat dari kesalahan, yaitu minimum maka : 2.16 jadi, Oleh karena adalah skalar, maka matriks transposenya adalah : jadi, 2.17

32 Untuk menaksir parameter maka harus diminimumkan terhadap maka : atau : dengan ketentuan 2.18 2.4.3 Sifat Penduga Kuadrat terkecil Menurut Sembiring 2003 metode kuadrat terkecil memiliki beberapa sifat yang baik. Untuk menyelidiki sifatnya, pandang kembali model umum regresi linier pada persamaan 2.14. disini dianggap bahwa Dengan demikian maka bebas satu sama lain dan dan. Jadi sifat penduga kuadrat terkecil adalah : 1. Takbias Jika maka adalah penduga tak bias untuk Akan ditunjukkan bahwa adalah penduga linier tak bias dari. Dari persamaan 2.15 diketahui : 2.19 dengan

33 2. Varian Minimum Jika maka matriks kovarian untuk diberikan oleh Jika dan maka penduga kuadrat terkecil mempunyai varian minimum diantara semua penduga tak bias linier. Bukti : = 2.20 2.5 Uji Regresi Linier Pengujian nyata regresi adalah sebuah pengujian untuk menentukan apakah ada hubungan linier antara variabel tidak bebas Y dan variabel bebas Uji yang digunakan adalah uji menggunakan statistik F berbentuk : 2.21 JKR = Jumlah Kuadrat Regresi JKS = Jumlah Kuadrat Sisa = derajat kebebasan JKR = Derajat kebebasan JKS Dalam uji hipotesis, digunakan daerah kritis : ditolak jika

34 Selanjutnya, jika model regresi layak digunakan akan dilakukan lagi uji terhadap koefisien-koefisien regresi secara terpisah untuk mengetahui apakah koefisien tersebut layak dipakai dalam persamaan atau tidak. Rumusan hipotesis untuk menguji parameter regresi secara parsial adalah sebagai berikut : artinya koefisien regresi ke j tidak signifikan atau variabel bebas ke-j tidak berpengaruh nyata terhadap Y. artinya koefisien regresi ke-j signifikan atau variabel bebas ke-j berpengaruh nyata terhadap Y. Statistik uji yang digunakan untuk menguji parameter regresi secara parsial adalah: Jika > maka 2.23 ditolak yang artinya variabel bebas ke- j berpengaruh nyata terhadap Y. 2.6 Koefisien Determinasi Koefisien determinasi adalah nilai yang menunjukkan seberapa besar nilai variabel Y dijelaskan oleh variable X. Koefisien determinasi merupakan salah satu patokan yang biasa digunakan untuk melihat apakah suatu model regresi yang dicocokkan belum atau sudah memadai, yang dinotasikan dengan R2. Koefisien determinasi ini hannya menunjukkan ukuran proporsi variansi total dalam respon Y yang diterangkan oleh model yang dicocokkan Walpole dan Myers, 1995 Nilai koefisien determinasi dapat diperoleh dengan rumus : di mana : 2.24

35 Nilai R2 yang mendekati 0 nol menunjukkan bahwa data sangat tidak cocok dengan model regresi yang ada. Sebaliknya, jika nilai R2 mendekati 1 satu menunjukkan bahwa data cocok terhadap model regresi. Dapat disimpulkan bahwa nilai R2 yang diperoleh sesuai dengan yang dijelaskan masing-masing faktor yang tinggal di dalam regresi. Hal ini mengakibatkan bahwa yang dijelaskan hannyalah disebabkan faktor yang mempengaruhinya saja. Besarnya variansi yang dijelaskan penduga sering dinyatakan dalam persen. Persentase variansi penduga tersebut adalah 2.7 Multikolinieritas Istilah multikolinieritas pertama kali diperkenalkan oleh Ragnar Frisch pada tahun 1934, yang menyatakan bahwa multikolinieritas terjadi jika adanya hubungan linier yang sempurna perfect atau pasti exact diantara beberapa atau semua variabel bebas dari model regresi berganda Rahardiantoro 2008. Maksud dari adanya hubungan linier antar sesama variable Misalkan terdapat k variable bebas adalah :. Hubungan linier yang sempurna/pasti terjadi jika berlaku hubungan berikut : 2.25 Dimana merupakan bilangan konstan dan tidak seluruhnya nol atau paling tidak ada satu yang tidak sama dengan nol, yaitu Jika terdapat korelasi sempurna diantara sesama variabel bebas, sehingga nilai koefisien korelasi diantara sesama variabel ini sama dengan satu, maka konsekuensinya adalah koefisien-koefisien regresi menjadi tidak dapat ditaksir, nilai standar eror setiap koefisien regresi menjadi tak hingga. Pada analisis regresi, multikolinieritas dikatakan ada apabila beberapa kondisi berikut dipenuhi : 1. Dua variable berkorelasi sempurna oleh karena itu vektor vektor yang menggambarkan variabel tersebut adalah kolinier.

36 2. Dua variabel bebas hampir berkorelasi sempurna yaitu koefisien korelasinya mendekati. 3. Kombinasi linier dari beberapa variabel bebas berkorelasi sempurna atau mendekati sempurna dengan variable bebas yang lain. 4. Kombinasi linier dari satu sub-himpunan variabel bebas berkorelasi sempurna dengan suatu kombinasi linier dari sub-himpunan variabel bebas yang lain. 2.7.1 Pendeteksian Multikolinieritas Ada beberapa cara untuk mengetahui ada tidaknya multikolinieritas, yaitu : 1. Nilai korelasi korelasi antar peubah bebas. Prosedur ini merupakan pendeteksian yang paling sederhana dan paling mudah. Jika nilai korelasi antar peubah melebihi 0,75 diduga terdapat gejala multikolinieritas. Untuk 2.26 menghasilkan 2. Faktor Variansi Inflasi Variance Inflation Factor, VIF. VIF adalah elemen-elemen diagonal utama dari invers matriks korelasi. VIF digunakan sebagai kriteria untuk mendeksi multikolinieritas pada regresi linier berganda yang melibatkan lebih dari dua variabel bebas. Nilai VIF lebih besar dari 10 mengindikasikan adanya masalah multikolinieritas yang serius. VIF untuk koefisien regresi j didefinisikan sebagai berikut : 2.27 = Koefisien determinasi antar dengan variabel bebas lainnya j = 1, 2,, p

37 2.7.2 Pengaruh Multikolinieritas Koefisien regresi penduga yang diperoleh dengan metode kuadrat terkecil mempunyai banyak kelemahan apabila terjadi multikolinieritas diantara variabel bebas, yaitu : 1. Variansi Besar Apabila determinan dari matriks, akibatnya variansi akan semakin besar sehingga penduga kuadrat terkecil tidak efisien karena memiliki ragam dan peragam yang besar. Dalam kasus multikolinieritas penduga kuadrat tekecil tetap tak bias karena sifat ketakbiasan tidak ditentukan oleh asumsi tidak adanya multikolinieritas, hannya akibat multikolinieritas penduga memiliki ragam yang besar dan tidak dapat lagi disebut sebagai penduga yang memiliki sifat linier, tak bias, dan mempunyai varian minimum atau yang disebut BLUE best linier unbiased estimator. 2. Selang Kepercayaan Penduga Lebih Lebar Dalam situasi multikolinieritas antara variabel-variabel bebas dalam model regresi linier mengakibatkan variansi penduga kuadrat terkecil menjadi besar sehingga menghasilkan galat baku yang lebih besar, akibatnya selang kepercayaan bagi parameter model regresi menjadi lebih besar. 3. Nilai Statistik-t yang Tidak Nyata Multikolinieritas yang mengakibatkan galat baku penduga kuadrat terkecil menjadi lebih besar, maka statistik t yang didefinisikan sebagai rasio antara koefisien penduga dan galat baku koefisien penduga menjadi lebih kecil. Akibatnya meningkatkan besarnya peluang menerima hipotesis yang salah kesalahan akan meningkat, karena suatu hipotesis yang seharusnya ditolak tetapi berdasarkan pengujian hipotesis diputuskan untuk diterima, sebagai konsekuensi nilai statistik t yang tidak nyata.

38 4. Nilai Koefisien Determinasi R2 yang Tinggi Tetapi Beberapa Nilai Statistik-t Tidak Nyata Dalam kasus adanya multikolinieritas, maka akan ditemukan beberapa koefisien regresi yang secara individual tidak nyata berdasarkan uji statistik t-student. Namun, koefisien determinasi R2 dalam situasi yang demikian mungkin tinggi sekali serta berdasarkan uji koefisien regresi keseluruhan berdasarkan uji F akan ditolak hipotesis nol, bahwa 2.8 Analisis Komponen Utama Analisis komponen utama merupakan teknik statistik yang dapat digunakan untuk mereduksi sejumlah variabel asal menjadi beberapa variabel baru yang bersifat orthogonal dan tetap mempertahankan total keragaman dari variabel asalnya. Analisis komponen utama bertujuan untuk mengubah dari sebagian besar variabel asli yang digunakan yang saling berkorelasi satu dengan yang lainnya, menjadi satu set variabel baru yang lebih kecil dan saling bebas tidak berkorelasi lagi, dan merupakan kombinasi linier dari variabel asal. Selanjutnya variabel baru ini dinamakan komponen utama principal component. secara umum tujuan dari analisis komponen utama adalah mereduksi dimensi data sehingga lebih mudah untuk menginterpretasikan data-data tersebut. Analisis komponen utama bertujuan untuk menyederhanakan variabel yang diamati dengan cara menyusutkan dimensinya. Hal ini dilakukan dengan menghilangkan korelasi variabel melalui transformasi variabel asal ke variabel baru yang tidak berkorelasi. Variabel baru disebut sebagai komponen utama yang merupakan hasil transformasi dari variable asal yang modelnya dalam bentuk catatan matriks adalah: 2.28

39 A adalah matriks yang melakukan transformasi terhadap variabel asal sehingga diperoleh vektor komponen. Penjabarannya adalah sebagai berikut : 2.8.1 Menentukan Komponen Utama Komponen utama dapat ditentukan melalui matriks ragam peragam dan matriks korelasi dari. Matriks kovarian digunakan untuk membentuk komponen utama apabila semua variabel yang diamati mempunyai satuan pengukuran yang sama. Sedangkan, matriks Korelasi digunakan apabila variabel yang diamati tidak mempunyai satuan pengukuran yang sama. Variabel tersebut perlu dibakukan, sehingga komponen utama berdasarkan matriks korelasi ditentukan dari variabel baku. 2.8.1.1 Komponen Utama Berdasarkan Matriks Kovarian Dipunyai matriks kovarian dari p buah variable Total varian dari yaitu penjumlahan variabel variabel tersebut didefinisikan sebagai dari unsur diagonal matriks. Melalui matriks kovarian bisa diturunkan akar ciriakar cirinya yaitu dan vektor ciri vektor cirinya Komponen utama pertama dari vektor berukuran px1, adalah kombinasi linier linier terbobot variabel asal yang dapat menerangkan keragaman terbesar.

40 Komponen utama pertama dapat dituliskan sebagai : 2.29 dan Varian dari komponen utama pertama adalah : Vektor pembobot 2.30 adalah vektor normal, Koefisien dari vektor ciri yang berhubungan dengan akar ciri terbesar matriks kovarian dipilih sedemikian sehingga kendala adalah unsur-unsur yang diturunkan dari mencapai maksimum dengan. Menggunakan teknik pemaksimuman berkendala lagrange diperoleh persamaan : Fungsi ini mencapai maksimum jika turunan parsial pertama terhadap sama dengan nol. atau Persamaan 2.31 dipenuhi oleh dan vektor ciri matriks Akibatnya itu varian terbesar dari matriks dan dan 2.31 yang merupakan pasangan akar ciri Oleh karena harus maksimum, maka adalah akar ciri yang adalah vektor ciri yang bersesuaian dengan Komponen utama kedua adalah kombinasi linier terbobot variabel asal yang tidak berkorelasi dengan komponen utama pertama, serta memaksimumkan sisa kovarian data setelah diterangkan oleh komponen utama pertama. Komponen utama kedua dapat dituliskan sebagai : 2.32

41 dan Vektor pembobot adalah vektor normal yang dipilih sehingga keragaman komponen utama kedua maksimum, serta orthogonal terhadap vektor pembobot dari komponen utama pertama. Agar varian dari komponen utama kedua maksimum, serta antara komponen utama kedua tidak berkorelasi dengan komponen utama pertama, maka vektor pembobot berkorelasi dengan tidak dipilih sedemikian sehingga varian komponen utama kedua adalah : 2.33 Varian tersebut akan dimaksimumkan dengan kendala Karena dan cov adalah vektor ciri dari dan adalah matriks simetrik, maka : Kendala dapat dituliskan sebagai Jadi fungsi Lagrange yang dimaksimumkan adalah : 2.34 Fungsi ini mencapai maksimum jika turunan parsial pertama terhadap sama dengan nol, diperoleh Jika persamaan 2.35 dikalikan dengan 2.35 maka diperoleh Oleh karena diturunkan terhadap maka Dengan demikian persamaan 2.35 setelah menjadi

42 2.36 Jadi dan merupakan pasangan akar ciri dan vektor ciri dari matriks varian kovarian Seperti halnya penurunan pada pencarian, akan diperoleh bahwa adalah vektor ciri yang bersesuaian dengan akar ciri terbesar kedua dari matriks Secara umum komponen utama ke-j dapat dituliskan sebagai : 2.37 dan vektor pembobot diperoleh dengan memaksimumkan keragaman komponen utama ke-j, yaitu : 2.38 dengan kendala : serta untuk Dengan kendala ini, maka akar ciri. dapat diinterpretasikan sebagai ragam komponen utama ke- j serta sesama komponen utama tidak berkorelasi. Vektor pembobot yang merupakan koefisien pembobot variabel asal bagi komponen utama ke-j diperoleh dari matriks peragam yang diduga dengan matriks S berikut : 2.39

43 2.8.1.2 Komponen Utama Berdasarkan Matriks Korelasi Jika variabel yang diamati tidak mempunyai satuan pengukuran yang sama, maka variabel tersebut perlu dibakukan sehingga komponen utama ditentukan dari variabel baku Vincent gasperz, 1991. Variabel asal perlu ditransformasi ke dalam variabel baku Z, dalam catatan matriks adalah : 2.40 Z = variabel baku = matriks simpangan baku dengan unsur diagonal utama = variabel pengamatan = nilai rata-rata pengamatan Dengan, Nilai harapan, dan ragamnya Dengan demikian, komponen komponen utama dari Z dapat ditentukan dari vektor ciri yang diperoleh melalui matriks korelasi yang diduga dengan matriks dimana vektor pembobot, diperoleh dengan memaksimumkan keragaman komponen utama ke-j dengan kendala : serta Semua formula untuk yang telah. diturunkan berdasarkan variabel-variabel dengan matriks akan berlaku untuk peubah-peubah dengan matriks Sehingga diperoleh komponen utama ke-j dengan menggunakan variable baku yaitu : 2.41 = komponen utama ke- j = vektor ciri ke- j Z = variabel baku

44 Ragam komponen utama ke-j adalah sama dengan akar ciri ke-j, serta antara komponen utama ke-i dan komponen utama ke- j tidak berkorelasi untuk. Untuk meregresikan komponen utama dengan variabel bebas, maka perlu dihitung skor komponen dari setiap pengamatan. Untuk komponen utama yang diturunkan dari matriks korelasi, maka skor komponen utama dari unit pengamatan ke-i ditentukan sebagai berikut : 2.42 = vektor pembobot komponen utama ke-r = vektor skor baku dari variabel yang diamati pada pengamatan ke-i 2.8.2 Kriteria Pemilihan Komponen Utama Salah satu tujuan dari analisis komponen utama adalah mereduksi dimensi data asal yang semula, terdapat p variable bebas menjadi k komponen utama. Kriteria pemilihan k yaitu : 1. Didasarkan pada akar ciri yang lebih besar dari satu, dengan kata lain hannya komponen utama yang memiliki akar ciri lebih besar dari satu yang dilibatkan dalam analisis regresi komponen utama. 2. Proporsi kumulatif keragaman data asal yang dijelaskan oleh k komponen utama minimal 80%, dan proporsi total variansi populasi bernilai cukup besar.

45 2.8.3 Kontribusi Komponen Utama Kontribusi komponen utama yang diturunkan dari matriks kovarian dan matriks korelasi adalah sebagai berikut: Proporsi total variansi populasi yang dijelaskan oleh komponen utama ke-j berdasarkan matriks kovarian adalah : dengan 2.43 Jadi kontribusi dalam persentase masing masing komponen utama ke-j terhadap total varian x adalah : x 100% 2.44 Sedangkan, proporsi total variansi populasi yang dijelaskan oleh komponen utama ke-j berdasarkan matriks korelasi, yaitu komponen yang dihasilkan berdasarkan variable-variabel yang telah dibakukan Z adalah : 2.45 = Akar ciri terbesar ke-j dari matriks korelasi R = Trace matriks R yang merupakan jumlah diagonal utama matriks R, yang tidak lain sama dengan banyaknya variabel yang diamati, atau sama dengan jumlah semua akar ciri yang diperoleh dari matriks R. Jadi kontribusi dalam persentase masing masing komponen utama ke-j terhadap total varian x adalah : x 100% 2.46