BAB II KAJIAN PUSTAKA 2.1 Konsep Dasar Runtun Waktu Data runtun waktu (time series) merupakan data yang dikumpulkan, dicatat, atau diobservasi sepanjang waktu secara berurutan. Periode waktu dapat berupa tahunan, bulanan, mingguan, kuartalan, serta pada beberapa kasus periode waktu dapat berupa hari atau jam. Dalam kasus ekonomi, analisis runtun waktu digunakan untuk menemukan pola variasi masa lalu yang dapat digunakan untuk : a. Meramalkan nilai masa depan dan membantu dalam manajemen operasi bisnis. b. Membuat perencanaan bahan baku, fasilitas produksi, dan jumlah staf guna memenuhi permintaan di masa mendatang. Ada dua jenis runtun waktu yaitu : a. Deterministik yaitu apabila berdasarkan pengalaman masa lalu, keadaan yang akan datang dari suatu runtun waktu dapat ditentukan dengan pasti. b. Stokastik yaitu apabila berdasarkan pengalaman yang lalu hanya dapat ditentukan struktur probabilistik keadaan yang akan datang. 2.1.1 Plot data Langkah awal yang baik untuk menganalisis data runtun waktu adalah memplot data tersebut secara grafis. Hal ini untuk mengetahui adanya trend atau pengaruh musiman pada data. 8
9 Analisis runtun waktu seperti pendekatan Box-Jenkins maupun Error Correction Model, mendasarkan analisis pada data runtun waktu yang stasioner. Suatu data runtun waktu dikatakan stasioner apabila tidak terdapat perubahan yang sistematis dalam rata-rata dan varians dari data runtun waktu tersebut. Untuk data yang stasioner apabila di plot data tersebut terhadap waktu maka akan sering melewati sebuah garis yang sejajar dengan sumbu horizotal, dan autokorelasinya akan menurun dengan teratur untuk lag yang cukup besar. Sebaliknya, untuk data yang tidak stasioner, varians menjadi semakin besar apabila jumlah data runtun waktu diperluas, dan tidak sering melewati sebuah garis yang sejajar dengan sumbu horizontal, serta autokorelasinya cenderung tidak menurun. Misalnya,,, adalah suatu runtun waktu yang stasioner, maka berlaku : a. ( )=, untuk 1,2,, b. ( )= =, untuk sebarang c. (, )=( )( )=, dengan dan adalah konstan untuk setiap. 2.1.2 Fungsi Autokorelasi (Fak) Autokorelasi adalah keadaan dimana terjadinya korelasi dari residual antar pengamatan dalam suatu deret waktu. Autokovariansi adalah variansi bersama dari peubah yang sama yaitu dari data runtun waktu itu sendiri. Pada runtun waktu stasioner, kovariansi antara dan dirumuskan sebagai berikut : (, )=, = (2.1)
10 dengan menyatakan autokovariansi lag ke-, sedangkan,=0,1,2, disebut fungsi autokovariansi. Korelasi antara dan didefinisikan sebagai berikut : = (, ) ( )( ) = dengan =( )= ( ), selanjutnya disebut autokorelasi lag ke-, sedangkan,=0,1,2 disebut fungsi autokorelasi (Fak), dengan =1. Pada prakteknya, ditaksir oleh (autokorelasi sampel), dengan nilai : dengan = = (2.2) = = 1 ( )( ) = 1 Fak ini berperan dalam mengidentifikasi model runtun waktu yang cocok, yaitu dengan melakukan pemeriksaan terhadap nilai untuk mengetahui apakah nilainya secara efektif menuju nol setelah lag tertentu. 2.1.3 Fungsi Autokorelasi Parsial (Fakp) Fungsi autokorelasi parsial digunakan untuk mengukur korelasi antara dan. Fakp yaitu himpunan autokorelasi parsial untuk berbagai lag-, didefinisikan sebagai berikut : =,=1,2, (2.3)
11 dengan adalah determinan matriks autokorelasi yaitu 1 1 = 1 dan adalah determinan matriks autokorelasi dengan kolom terakhir diganti dengan 2.2 Analisis Regresi Analisis regresi merupakan suatu metode yang digunakan untuk menganalisis hubungan antarpeubah. Hubungan tersebut dapat diekspresikan dalam bentuk persamaan yang menghubungkan peubah terikat (dependent variable) Y dengan satu atau lebih peubah bebas (independent variable),. Terdapat dua jenis regresi yaitu regresi linier dan regresi tidak linier, yang menjadi fokus tugas akhir ini adalah regresi linier. Apabila hanya terdapat satu peubah bebas, maka model yang diperoleh dinamakan model regresi linear sederhana; sedangkan apabila peubah bebas yang digunakan lebih dari satu, model yang diperoleh dinamakan model regresi linear ganda. 2.2.1 Regresi Linear Sederhana Regresi linier sederhana merupakan hubungan antara peubah terikat Y dan satu peubah bebas X. Bentuk umum regresi linier sederhana : = + + ;=1,2, (2.4)
12 dengan : = Konstanta (intercept) = Koefisien regresi untuk X N = Banyak observasi. = Error Adapun langkah-langkah yang harus dilakukan dalam mengestimasi parameter regresi linier sederhana sebagai berikut : 2.2.1.1 Penaksiran Parameter Dalam kenyataannya, semua observasi yang dilakukan tidak selalu berada tepat pada garis regresi. Melihat kenyataan tersebut, upaya terbaik yang harus dilakukan adalah dengan menentukan dan sedemikian sehingga nilai error ( ) yang ada pada persamaan (2.4) dapat diminimalkan. Metode yang digunakan untuk mencapai penyimpangan atau error yang minimum adalah metode kuadrat terkecil (Ordinary Least Square /OLS). Secara matematis, meminimalkan nilai error dengan metode OLS dapat dilakukan melalui langkah-langkah berikut : = =( ) =( )
13 akan minimum bila : =0 2( ) =0 =0 2 ( )=0 Jika persamaan tersebut disusun kembali maka diperoleh apa yang disebut persamaan normal kuadrat terkecil sebagai berikut : + = + = Jika adalah penaksir untuk dan adalah penaksir untuk maka diperoleh : = = ( )( ( = = dengan : ) ) = 1 = 1 sehingga taksiran untuk persaman regresi di atas dapat ditulis sebagai = + (2.5) Penaksir dan pada persamaan (2.5) belum tentu merupakan penaksir tebaik untuk dan. Oleh karena itu, untuk mengetahui apakah dan
14 merupakan penaksir terbaik untuk dan akan dilakukan pemeriksaan model (Herrhyanto, 2003) dengan sifat-sifat taksiran sebagai berikut : a) Tak bias Bila b adalah taksiran yang baik dari, maka b dikatakan taksiran tak bias jika : ()= b) Variansi minimum Misalkan ada dua penaksir tak bias dan untuk. Jika mempunyai variansi yang lebih kecil dibandingkan dengan, maka dikatakan penaksir tak bias bervariansi minimum. Sebuah penaksir tak bias akan mencapai variansi minimum diantara semua penaksir tak bias lainnya, apabila variansi dari penaksir itu minimal sama dengan batas bawah Cramer-Rao. Perumusan dari batas bawah Cramer-Rao untuk variansi dari adalah sebagai berikut: c) Konsisten 1 ln(;) = 1 ln(;) Untuk membuktikan bahwa sebuah penaksir adalah konsisten bagi parameternya dapat menggunakan ketidaksamaaan Chebyshev s dengan perumusan: ( <) 1 1 Jika lim =0, maka dikatakan penaksir adalah konsisten bagi parameternya.
15 d) Statistik Cukup Statistik =(,,, ) dikatakn cukup untuk parameter Β, jika fungsi kepadatan peluang bersyarat: =, =,, = =(,,, )= tidak bergantung pada. 2.2.1.2 Uji t Uji t bertujuan untuk mengetahui besarnya pengaruh masing-masing peubah bebas terhadap peubah terikat. Sebelum melakukan pengujian terlebih dahulu dibuat hipotesis yang berbentuk : Hipotesis : Statistik uji : H 0 : =0 artinya peubah bebas tidak mempunyai pengaruh yang signifikan terhadap peubah terikat H 1 : 0 artinya peubah bebas mempunyai pengaruh signifikan terhadap peubah terikat = () Kriteria pengujian : Tolak H 0 jika > / Terima H 0 jika < / dimana nilai / diperoleh dari tabel t dengan =0,05 dan derajat kebebasan n k -1 (n adalah banyaknya observasi dan k adalah banyaknya peubah bebas).
16 2.2.1.3 Ukuran Goodness of Fit (R 2 ) Ukuran goodness of fit sering juga disebut dengan uji koefisien determinasi majemuk (R 2 ). Ukuran ini perlu untuk memeriksa apakah model regresi yang terestimasi cukup baik atau tidak. Untuk mengetahui hal tersebut, harus dilakukan suatu cara untuk mengukur seberapa dekat garis regresi yang terestimasi dengan data. Ukuran ini mencerminkan seberapa besar variasi dari Y yang dapat diterangkan oleh X. Bila R 2 = 0, artinya variasi dari Y tidak dapat diterangkan oleh X sama sekali, tetapi jika R 2 = 1, artinya variasi dari Y, 100% dapat diterangkan oleh X. Dengan demikian ukuran goodness of fit dari suatu model ditentukan oleh R 2 yang nilainya antara 0 dan 1. 2.2.2 Regresi linier ganda Regresi linier ganda adalah hubungan antara peubah terikat Y dengan dua atau lebih peubah bebas X 1, X 2,..., Xn. Bentuk umum regresi linier ganda : = + + + + + (2.6) dimana =1,2,3,, ( ) dengan : = intercept = koefisien regresi untuk X 1 = koefisien regresi untuk X 2 = koefisien regresi untuk X k
a 0 = Y a 1 Xa 2 X 2 17 = koefisien pengganggu (error) Penaksiran parameter pada regresi linier ganda dapat dilakukan dengan menggunakan metode kuadrat terkecil. Adapun rumus untuk menaksir koefisien regresi adalah sebagai berikut : =( ) (2.7) dengan : X X T = matriks data peubah bebas = bentuk transpose matriks data peubah bebas (X T X) -1 = invers perkalian matriks X T dan X Y = Vektor data peubah terikat Bukti : =+ = = ( ) ( ) = + = 2 + Catatan: adalah matriks (1 1) atau suatu scalar dan nilai transposenya ( ) = adalah skalar yang sama. Dalam OLS harus dipenuhi: Sehingga diperoleh = 2 +2 =0 = = ( )
18 2.2.2.1 Asumsi-Asumsi Dalam Regresi Linier Ganda Prinsip-prinsip yang mendasari regresi linier berganda tidak berbeda dengan regresi linier sederhana. Akan tetapi, dalam regresi linear berganda terdapat beberapa asumsi yang harus dipenuhi agar terhindar dari permasalahan yang dapat mengganggu model, bahkan dapat menyesatkan kesimpulan yang diambil dari persamaan yang dibentuk. 1. Asumsi normalitas data Uji normalitas data untuk mengetahui distribusi data pada tiap-tiap peubah. Dalam analisis regresi linier, data yang harus berdistribusi normal adalah data yang berasal dari peubah terikatnya. Hipotesis : H 0 : = Data berasal dari populasi yang berdistribusi normal H 1 : < = Data berasal dari populasi yang tidak berdistribusi normal Statistik uji : Menggunakan uji Kolmogorov-Smirnov Kriteria pengujian : Terima H 0 jika nilai signifikan Tolak H 0 jika nilai signifikan < 2. Uji linieritas Hipotesis : H 0 : = Persamaan regresi linier H 1 : < = Persamaan regresi tidak linier
19 Kriteria pengujian : Tolak H 0 jika nilai F hitung > F tabel atau nilai signifikan < Terima H 0 jika nilai F hitung F tabel atau nilai signifikan dengan F tabel diperoleh dari ()()() dimana k adalah banyak peubah dan n adalah banyaknya observasi. 3. Uji Multikolinieritas Multikoliniearitas adalah suatu kondisi dimana satu atau lebih peubah bebas berkorelasi dengan peubah bebas lainnya, atau dengan kata lain suatu peubah bebas merupakan fungsi linier dari peubah bebas lainnya. Teknik untuk mendeteksi multikolinieritas adalah Variance Inflation Factor (VIF) dengan rumus sebagai berikut : dengan : k = banyaknya peubah bebas = ; =1,2,, (2.8) = koefisien determinasi antara peubah bebas ke-j dengan peubah bebas lainnya. Berdasarkan rumus (2.8) jika =0 artinya antar peubah bebas tidak berkorelasi, maka nilai VIF = 1. Jika 0 artinya ada korelasi antar peubah bebas, maka nilai VIF > 1. Sumber lain menyebutkan kolinieritas dianggap ada jika VIF > 5 artinya model dianggap tidak mempunyai kolinieritas jika korelasi antar peubah bebas hanya mencapai 0,8 (Nachrowi, 2006). Oleh karena itu, kolinieritas tidak ada jika nilai VIF mendekati angka 5.
20 Cara mengatasi kolinieritas : a. Melihat informasi sejenis yang ada b. Tidak mengikutsertakan salah satu peubah yang kolinier c. Menstransformasikan peubah dengan melakukan pembedaan (difference) d. Mencari data tambahan. 4. Heteroskedastisitas Uji Heteroskedastisitas digunakan untuk menguji apakah dalam model regresi liner kesalahan pengganggu (e) mempunyai varians yang sama atau tidak dari satu pengamatan ke pengamatan yang lain. Untuk mendeteksi ada tidaknya heteroskedastisitas dengan melihat scatterplots regresi. Jika titik-titik menyebar dengan pola yang tidak jelas di atas dan di bawah angka nol pada sumbu Y maka tidak terjadi masalah heteroskedastisitas. Adapun cara untuk mengatasi heterekoskedastisitas yaitu dengan metode Generalized Least Squares (GLS). 5. Autokorelasi Autokorelasi adalah keadaan dimana terjadinya korelasi dari residual untuk pengamatan yang satu dengan pengamatan lain yang disusun menurut urutan waktu.. Untuk mengetahui ada tidaknya autokorelasi dapat digunakan uji Durbin-Watson/uji d (Nachrowi,2006). Hipotesis H 0 : =0 (tidak terjadi autokorelasi) H 1 : 0 (terjadi autokorelasi)
21 Statistik uji =21 =2(1 ) dimana : = Kriteria pengujian Terima H 0 jika DW = 2 (=0) Tolak H 0 jika DW = 0 (=1) artinya ada autokrelasi positif, dan DW = 4 (= 1) artinya ada autokorelasi negatif Selain dengan melihat nilai, autokorelasi dapat dideteksi dengan menggunakan nilai dl dan du, dengan prosedur sebagai berikut : a. Menentukan hipotesis nol dan hipotesis alternatif b. Menentukan nilai DW (Durbin-Watson) c. Menentukan nilai dl dan du Nilai dl dan du dapat dilihat pada tabel Durbin-Watson pada signifikan 0, 05 d. Pengambilan keputusan du < DW < 4-dU maka H 0 diterima (tidak terjadi autokorelasi) DW < dl maka H 0 ditolak (terjadi autokorelasi) 4-dU < DW < 4-dL maka tidak ada kesimpulan.