BAB 2 LANDASAN TEORI 2.1 Regresi Linier Sederhana Dalam beberapa masalah terdapat dua atau lebih variabel yang hubungannya tidak dapat dipisahkan karena perubahan nilai suatu variabel tidak selalu terjadi dengan sendirinya, namun perubahan nilai variabel itu dapat pula disebabkan oleh berubahnya variabel lain yang berhubungan dengan variabel tersebut. Hal tersebut biasanya diselidiki sifat hubungannya yaitu dengan mengetahui pola nilai suatu variabel yang disebabkan oleh variabel lain diperlukan alat analisis yang dapat membuat perkiraan nilai variabel tersebut pada nilai tertentu variabel yang mempengaruhinya. Teknik yang umum digunakan untuk menganalisis hubungan antara dua atau lebih variabel dalam ilmu statistik adalah dengan analisis regresi. Analisis regresi adalah teknik statistik yang berguna untuk memeriksa dan memodelkan hubungan diantara variabel-variabel. Analisis regresi berguna untuk menelaah pola dan mengukur hubungan statistika antara dua atau lebih variabel yang modelnya belum diketahui dengan sempurna. Persamaan matematik yang digunakan untuk melakukan peramalan mengenai nilai nilai suatu variabel tak bebas dari satu atau lebih variabel bebas disebut persamaan regresi. Istilah regresi pertama kali diperkenalkan oleh Sir Francis Galton
(1822 1911) yang berasal dari hasil pengamatan yang dilakukan terhadap manusia yaitu membandingkan tinggi badan anak laki laki dengan tinggi badan ayahnya. Galton menyatakan bahwa tinggi badan anak laki laki dari badan yang tinggi pada beberapa generasi kemudian cenderung mundur (regressed) mendekati rata rata populasi. Dengan kata lain, anak laki laki dari ayahnya yang mempunyai badannya sangat tinggi cenderung lebih pendek dari ayahnya. Sedangkan anak laki laki dari ayah yang mempunyai badan sangat pendek cenderung lebih tinggi dari ayahnya. Dari hasil penelitian ini istilah regresi pada mulanya bertujuan untuk membuat perkiraan nilai suatu variabel (tinggi badan anak) terhadap suatu variabel lain (tinggi badan ayah). Pada perkembangan selanjutnya analisis regresi dapat digunakan sebagai alat untuk membuat perkiraan ataupun peramalan nilai suatu variabel dengan menggunakan variabel lain yang berhubungan dengan variabel tersebut. Dalam analisis regresi, dikenal dua jenis variabel yaitu : 1. Variabel Respon disebut juga variabel dependent yaitu variabel yang tidak bebas yaitu keberadaannya dipengaruhi oleh variabel lainnya dan dinotasikan dengan Y. 2. Variabel Prediktor disebut juga variabel independent yaitu variabel yang bebas (tidak dipengaruhi oleh variabel lainnya) dan dinotasikan dengan X. Analisis regresi yang melibatkan hubungan antara satu variabel respon (tidak bebas) dengan satu variabel prediktor (bebas) diistilahkan dengan regresi linier sederhana, dengan model persamaan: (2.1) Dimana intercept dan slope merupakan parameter yang tidak diketahui nilainya, sedangkan adalah error random dengan rata rata nol dan varians. Misalkan ada n pasangan observasi, katakan dengan y merupakan variabel tidak bebasnya atau variabel respon yang berhubungan dengan n variabel bebas diukur dengan errornya dapat diabaikan sehingga nilai harapan y untuk masing masing x adalah:
(2.2) Tujuan utama dari analisis regresi adalah mendapatkan dugaan (estimation) dari suatu variabel dengan menggunakan variabel lain yang diketahui. 2.2 Estimasi Parameter 2.2.1 Pengertian Estimasi Parameter dan Estimator Estimasi (pendugaan) merupakan proses yang menggunakan sampel statistik untuk menduga atau menaksir hubungan parameter populasi yang tidak diketahui. Pendugaan merupakan suatu pernyataan mengenai parameter populasi yang diketahui berdasarkan informasi dari sampel, dalam hal ini sampel random, yang diambil dari populasi yang bersangkutan. Jadi dengan pendugaan ini, keadaan parameter populasi dapat diketahui (Hasan 2002). Menurut Hasan (2002), estimator adalah suatu statistik (harga sampel) yang digunakan untuk menduga suatu parameter. Dengan penduga, dapat diketahui seberapa jauh suatu parameter populasi yang tidak diketahui berada di sekitar sampel (statistik sampel). Besaran sebagai hasil penerapan penduga terhadap data dari sesuatu contoh disebut nilai duga (estimate). Secara umum, parameter diberi lambang dan penduganya diberi lambang. 2.2.2 Sifat Sifat Estimator Estimator yang diperoleh dalam mengestimasi parameter parameter dikatakan sebagai estimator yang baik apabila mempunyai sifat atau ciri ciri sebagai berikut:
1. Estimator yang tidak bias Estimator yang tidak bias apabila dapat menghasilkan estimasi yang mengandung nilai parameter yang diestimasikan. Misalkan, estimator dikatakan estimator yang tidak bias jika rata rata semua harga yang mungkin akan sama dengan, atau dapat dituliskan. 2. Estimator yang efisien Estimator dikatakan efisien bagi parameternya apabila estimator tersebut memiliki varians minimum. Apabila terdapat lebih dari satu penduga, penduga yang efisien adalah penduga yang memiliki varians terkecil. Dua buah penduga dapat dibandingkan dengan efisiensi relatif. Misalkan dan adalah sebagai dua estimator untuk, dimana varians penduga lebih kecil dibandingkan varians, maka relatif lebih efisien dibandingkan dengan. 3. Estimator yang konsisten Estimator dikatakan konsisten apabila nilai penduga cenderung mendekati nilai parameter untuk n (jumlah sampel) yang semakin besar mendekati tak hingga. Jadi, ukuran sampel yang besar cenderung memberikan penduga titik yang lebih baik dibandingkan ukuran sampel kecil. Dalam analisis regresi, diperlukan suatu model yang digunakan untuk mengetahui hubungan antara variabel tidak bebas (respon) dengan satu atau lebih variabel bebas (prediktor) dan untuk melakukan peramalan terhadap variabel respon. Model regresi dapat diperoleh dengan melakukan pendugaan terhadap parameter - parameternya dengan menggunakan metode tertentu. Metode yang dapat digunakan mengestimasi parameter model regresi, khususnya parameter model regresi linier yaitu dengan Metode Kuadrat Terkecil (Ordinary Least Square) dan Metode Kemungkinan Maksimum (Maximum Likelihood Methods), (Kutner et.all, 1990).
2.3 Metode Kemungkinan Maksimum Salah satu cara untuk mendapatkan estimator yang baik adalah dengan menggunakan Metode Kemungkinan Maksimum (Maximum Likelihood Methods) yang diperkenalkan oleh R. A. Fisher (1890 1962). Maksimum likelihood ini adalah metode yang digunakan untuk menduga parameter parameter dengan memaksimumkan fungsi kemungkinannya yang dibentuk dari gabungan distribusi pengamatan. Misalkan X adalah variabel random berukuran n pengamatan dengan maka fungsi kemungkinannya adalah: (2.3) Penduga kemungkinan dengan Metode Kemungkinan Maksimum dari parameter tunggal adalah sebuah nilai yang memaksimumkan fungsi kemungkinan. Apabila variabel random dari populasi yang berdistribusi, maka fungsi kemungkinannya didefinisikan sebagai berikut: Jika fungsi kemungkinannya diturunkan terhadap, maka akan diperoleh penyelesaian atau estimasi parameter parameter dengan memaksimumkan persamaan (2.4) dan menyamakan dengan nol, diperoleh:
Untuk lebih jelasnya, misalkan peubah acak X tersebut tersebar normal dengan nilai tengah dan varians, dimana dan tidak diketahui sehingga fungsi kemungkinannya adalah: Tujuan utama dari analisis regresi adalah mendapatkan dugaan (estimation) dari suatu variabel dengan menggunakan variabel lain yang diketahui. 2.3.1 Maksimum Likelihood dalam Regresi Linier Sederhana Maksimum Likelihood adalah metode yang dapat digunakan untuk mengestimasi suatu parameter dalam regresi. Dalam model regresi linear sederhana, berdasarkan data diasumsikan bahwa galat dalam model regresi berdistribusi dengan pengamatan pengamatan dalam percobaan berdistribusi normal dan independen, dengan mean dan variansnya. Maka fungsi kemungkinan nilai pertama Y adalah: (2.7) Kemudian kemungkinan nilai kedua Y sama dengan persamaan (2.7), kecuali angka satu diganti dengan dua dan seterusnya untuk semua nilai Y amatan lainnya. Untuk nilai Y bebas dengan mengalikan semua kemungkinan bersama, maka fungsi probabilitas bersamanya adalah: Dengan menyatakan hasil kali n kemungkinan bersama untuk setiap nilai i yang
penggunaannya dikenal untuk eksponensial, sehingga persamaan (2.8) dapat diperlihatkan dengan penjumlahan eksponensial yaitu: Mengingat yang diberikan dipertimbangkan untuk berbagai nilai dan, sehingga fungsi likelihoodnya yaitu: ( 0) Estimator fungsi kemungkinan maksimum untuk parameter parameter dan dinotasikan dengan dan diperoleh dengan memaksimumkan L, sehingga: ln maksimum bila minimum, ini merupakan jumlah kuadrat error Dengan mendifferensialkan fungsi kemungkinannya terhadap setiap parameter dan estimator harus memenuhi: Penyelesaian dari persamaan tersebut adalah: (2.12)
dan adalah estimator untuk intercept (titik potong) dan slope (kemiringan). Sehingga diperoleh estimator model regresi linier sederhananya adalah: (2.14) Selain estimator dan, menurut Kutner, M.H (1990) estimasi juga dibutuhkan dalam uji hipotesis dan pembentukan estimasi yang berhubungan dengan model regresi. Dengan mendifferensialkan fungsi kemungkinannya terhadap parameter dan estimator juga harus memenuhi: Maka, penyelesaian dari persamaan tersebut adalah: Dengan adalah standard error regresi atau dapat juga dituliskan: SSE (Sum Square of Error) adalah jumlah kuadrat residual dan penduga ini bias. Jumlah kuadrat residual mempunyai derajat kebebasan, karena dua derajat kebebasan adalah gabungan dari estimasi dan yang terlibat dalam pembentukan Sehingga estimator tak bias dari adalah : ( 7 Pendugaan (estimasi) yang dilakukan dengan Metode Kemungkinan Maksimum untuk memperoleh estimatornya, tentu saja tidak lepas dari kesalahan (error) baik itu sedikit maupun banyak. Namun dengan metode kemungkinan maksimum, kesalahan penduga dijamin yang terkecil karena estimasi dengan metode ini akan meminimumkan jumlah kudrat errornya dengan ketentuan memenuhi beberapa asumsi. Asumsi asumsi tersebut biasanya disebut dengan asumsi klasik regresi linier.
Dengan demikian dalam melakukan analisis regresi diberlakukan asumsi asumsi model ideal tertentu terhadap galat, yaitu: 1. Nilai rata rata kesalahan pengganggu nol, yaitu:, untuk. 2. adalah konstan untuk semua kesalahan pengganggu (asumsi homoskedastisitas). 3. Tidak ada korelasi serial (autocorrelation) antara pengganggu, berarti kovarian. 4. Peubah bebas konstan dalam sampling yang terulang dan bebas terhadap kesalahan pengganggu. 5. Tidak ada multikolinearitas antar variabel bebas X. 2.4 Heteroskedastisitas 2.4.1 Pengertian Heteroskedastisitas Salah satu asumsi penting dari model regresi linear klasik adalah varian error pada setiap nilai nilai variabel bebas adalah sama (konstan), asumsi ini disebut juga sebagai asumsi homoskedastisitas atau homogenitas varian yang disimbolkan dengan:,, Apabila asumsi ini tidak dipenuhi dalam analisis regresi linier, maka didapatkan keadaan bahwa varian tidak bersifat konstan. Keadaan ini disebut mengalami heteroskedastisitas atau disimbolkan dengan:,,, Secara diagram dalam regresi dua variabel, homoskedastisitas dapat ditunjukkan pada Gambar (2.1) yang menunjukkan bahwa varian setiap rerata nolnya tidak tergantung pada pada nilai variabel bebas. Jika varian dari masih sama pada
setiap titik atau untuk seluruh nilai X (variabel bebas) yang kecil maupun besar, maka pola tertentu akan terbentuk bila sebaran Y diplot dengan sebaran X. Bila digambarkan dalam tiga dimensi, polanya akan mendekati pola pada Gambar (2.1). Densitas Y... X Gambar 2.1. Asumsi Homoskedastisitas Sebaliknya, Gambar (2.2) menunjukkan varian kondisional dari yaitu naik dengan naiknya X atau dikatakan bahwa varian dari pada setiap variabel bebas X tidak sama (tidak konstan). Densitas Y... X Gambar 2.2. Asumsi Heteroskedastisitas
2.4.2 Konsekuensi Atau Akibat Adanya Heteroskedastisitas Dalam kenyataannya, asumsi homoskedastisitas dari kesalahan pengganggu mungkin tidak bisa dipenuhi, dengan kata lain varian dari kesalahan pengganggu bersifat heteroskedastisitas, yaitu. Hal ini dapat dipahami jika diperhitungkan faktor faktor yang menjadi penyebab adanya kesalahan pengganggu dalam model regresi. Faktor kesalahan pengganggu dimasukkan ke dalam model untuk dapat memperhitungkan kesalahan kesalahan yang mungkin terjadi dalam pengukuran dan kesalahan karena mengabaikan variabel variabel tertentu. Dengan memperhatikan kedua perhitungan itu, maka terdapat alasan untuk memperkirakan bahwa varian bervariasi secara sistematis dengan variabel bebas X. Konsekuensi dari pelanggaran asumsi homoskedastisitas adalah sebagai berikut: 1. Penduga (estimator) yang diperoleh tetap memenuhi persyaratan tidak bias. Diberikan estimator Anggaplah bahwa: Sehingga: Dengan diketahui bahwa: dan
Dengan demikian: Sehingga diperoleh: Demikian juga untuk estimator parameter Diberikan estimator yaitu Dengan mensubsitusikan ke dalam persamaan (2.19), maka: Sehingga akan diperoleh: (2.20) Dapat disimpulkan bahwa sifat ketidakbiasan tidak tergantung pada varian galat. Jika dalam model regresi ada heteroskedastisitas, maka kita tetap memperoleh nilai parameter yang tidak bias karena sebagai penduga tidak bias tidak memerlukan asumsi bahwa varian galat harus konstan. 2. Varian penduga yang diperoleh akan menjadi tidak efisien, artinya penduga tersebut tidak memiliki varian terkecil diantara penduga penduga tidak bias lainnya.
Dengan asumsi adanya homoskedastisitas, maka: ar i j Karena, dan Sehingga diperoleh: var Apabila dengan adanya asumsi heteroskedastisitas maka: var Walaupun dikatakan adalah unbiased, tetapi tidak efisien karena varian variannya lebih besar daripada yang diperlukan. Untuk melihat penggunaan persamaan (2.21) dan (2.22), diuraikan sebagai berikut:
Misalnya, dinyatakan bahwa varian dengan asumsi heteroskedastisitas proporsional terhadap dan maka faktor proporsionalitasnya dinyatakan dengan persamaan: Dengan mensubstitusikan nilai ke dalam persamaan (2.22), diperoleh: var Sehingga diperoleh: var var dengan asumsi homoskedastisitas Dapat dikatakan bahwa, jika dan berkorelasi positif atau mempunyai hubungan variabel yang positif dan jika komponen yang kedua dari persamaan (2.23) lebih besar daripada satu atau dapat dituliskan: Maka ar dengan asumsi heteroskedastisitas akan lebih besar daripada ar dengan asumsi homoskedastisitas. Sebagai akibatnya, standar error dari terlalu rendah (underestimated). Sebagaimana diketahui bahwa standart error ini memiliki peran dalam pembentukan nilai t hitung yang berkaitan akan menjadi terlalu tinggi (overestimated) yang mungkin selanjutnya menghasilkan kesimpulan bahwa dalam kasus spesifik adalah kelihatannya signifikan, walaupun sebenarnya tidak
signifikan. Oleh karena itu jika asumsi homoskedastisitas tidak dipenuhi maka hasil uji t tidak menentu. Selain uji signifikan tidak dapat diterapkan, batas batas kepercayaan juga tidak dapat diterapkan. Artinya jika varian penaksir model tidak memenuhi asumsi homoskedastisitas, maka inferensi dan prediksi mengenai koefisien koefisien populasinya akan keliru. Dalam analisis model regresi linear apabila semua asumsi model regresi linear klasik terpenuhi kecuali asumsi homoskedastisitas yang berarti adanya heteroskedastisitas, maka estimator dari paramater yang diperoleh masih tetap tak bias dan konsisten tetapi estimatornya tidak efisien, baik untuk sampel kecil maupun sampel besar. 2.4.3 Pengujian Heteroskedastisitas Masalah heteroskedastisitas pada umumnya terjadi di dalam analisis data cross sectional. Data cross sectional yaitu data yang diambil pada satu waktu saja, tetapi dengan responden yang besar, misalnya jika melakukan survai. Data survai yang didapatkan dari penelitian tersebut pada intinya adalah membandingkan kondisi satu dan lain orang pada waktu yang sama. Gejala heteroskedastisitas terjadi akibat ketidaksamaan data atau bervarisinya data yang diteliti. Untuk mendeteksi masalah heteroskedastisitas dapat dilakukan dengan metode formal dan informal. Metode formal dapat dilakukan dengan uji statistik diantaranya Uji Park, Uji Glejser, Uji Korelasi Rank dari Spearmen dan Uji Goldfeld Quant. Sedangkan metode informal biasanya dilakukan dengan uji metode grafik dengan memetakan terhadap dan melihat pola penyebaran yang terbentuk sistematis atau acak. Dalam tulisan ini akan digunakan Uji Korelasi Rank dari Spearmen dalam mendeteksi masalah heteroskedastisitas.
Pengujian Korelasi Rank dari Spearmen Sesuai dengan namanya, metode ini pertama kali diperkenalkan oleh Spearmen dan menggunakan korelasi peringkat X dan. Koefisien Korelasi Rank dari Spearmen dirumuskan: di mana merupakan selisih rank yang ditempatkan untuk dua karakteristik yang berbeda dari individu ke-i atau fenomena ke-i dan n adalah banyaknya individu atau fenomena yang diberi rank. Langkah langkah pengujian heteroskedastisitas dengan menggunakan uji Korelasi Rank dari Spearmen adalah sebagai berikut: 1. Menentukan model regresi dengan meregresikan X dan Y dan didapatkan nilai galat. 2. Tanpa memperhatikan tanda dari, yaitu ambil nilai mutlaknya yaitu, kemudian merangking kedua variabel dan sesuai dengan urutan yang menaik ataupun menurun selanjutnya menghitung selisih rank keduanya. 3. Menghitung koefisien berdasarkan persamaan (2.24). 4. Tingkat signifikansi koefisien korelasi yang didapatkan dengan persamaan (2.24) diuji dengan statistik uji t sebagai berikut: dengan derajat bebas. 5. Pengujian hipotesis: : tidak ada heteroskedastisitas : ada heteroskedastisitas Dengan demikian, kaidah pengambilan keputusan untuk hipotesis di atas adalah sebagai berikut: Tolak jika. Dalam hal lain terima.
Apabila dalam model regresi mencakup lebih dari dua variabel bebas, dapat dihitung antara dengan setiap variabel bebas X secara terpisah dan juga dapat diuji untuk mengetahui signifikan tidaknya dengan uji t. 2.5 Transformasi Box Cox Box dan Cox (1964) telah mengembangkan suatu prosedur dalam pemilihan suatu transformasi dari suatu transformasi kuasa (power transformation) yang dikenal dengan Transformasi Box Cox dengan memperhatikan secara sistematis transformasi variabelnya. Prosedur Transformasi Box Cox bertujuan untuk memeriksa kecondongan dari distribusi bentuk galatnya atau dengan kata lain untuk menormalkan data. Selain itu prosedur transformasi ini dapat juga digunakan untuk menghomogenkan varian dan melinierkan model regresinya. Transformasi Box Cox merupakan transformasi pangkat pada variabel respon dan mempertimbangkan kelas transformasi berparameter tunggal, yaitu yang dipangkatkan pada variabel respon Y. Dengan demikian, model transformasinya menjadi dan adalah parameter yang perlu diduga. Menurut Drapper S dan Harry S (1992) Transformasi Box Cox diberlakukan pada variabel respon Y yang harus bertanda positif, dinyatakan dalam transformasi kuasa dengan persamaan berikut: jika jika Setelah Y ditransformasikan menjadi W, maka model regresi liniernya dalam persamaan matriks menjadi: (2.27) dengan. Dengan demikian, prosedur utama Box Cox adalah menduga parameter transformasi dan dalam model regresi liniernya parameter juga perlu diduga.
2.5.1 Pendugaan Parameter Transformasi Box Cox Salah satu metode yang dapat digunakan dalam pendugaan parameter pada Transformasi Box Cox adalah dengan Metode Kemungkinan Maksimum. Cara penaksiran ini sedikit berbeda dengan penaksiran yang biasa dilakukan yaitu menentukan nilai pada kisaran nilai tertentu. yaitu: Dari model regresi linier diperoleh fungsi kemungkinannya, Dengan mengalikan transformasi Jacobian dari variabel variabel dengan terhadap fungsi kemungkinannya maka diperoleh: sampai dengan: ( 0) Sehingga, fungsi kemungkinannya menjadi: Penduga parameter pada Transformasi Box Cox diperoleh dengan memaksimumkan persamaan fungi kemungkinannya. Sehingga diperoleh: Sehingga untuk nilai adalah: yang telah ditetapkan, maka fungsi maksimum likelihoodnya
Dengan adalah K ( umlah Kuadrat isa) setelah menduga model regresi dengan yang ditentukan. Penaksiran parameter yang biasa dilakukan yaitu menentukan nilai pada kisaran nilai tertentu. Biasanya yang dipakai yaitu dari kisaran (-2,2) atau bahkan (- 1,1). Sehingga untuk setiap tingkatan nilai yang telah ditetapkan akan diperoleh nilai nilai maksimum likelihoodnya yaitu nilai. Penduga parameter dikatakan sebagai penduga apabila memiliki nilai maksimum log likelihoodnya adalah maksimum terhadap yang telah ditetapkan dari antara nilai - nilai yang diperoleh dari yang lainnya. Pada tabel 2.1 di bawah ini diberikan beberapa nilai dan model transformasinya. Tabel 2.1 Nilai dan Model Transformasinya Interval Lambda Lamda yang Terpilih Model Transformasi,,, 0,7 0,7 0, 0, 0, 0, 0 0, 0,7 0,5 0,7, 1,, 2
2.5.2 Selang Kepercayaan Parameter Pada Transformasi Box Cox Pendugaan parameter sering dinyatakan dalam pembentukan selang kepercayaan, karena hampir tidak pernah ditemukan nilai statistik yang tepat sama dengan nilai parameternya. Menurut Hasan (2002), pendugaannya sering dinyatakan dalam suatu daerah atau interval yang dibatasi oleh dua nilai dan digunakan tingkat kepecayaan (confidence) terhadap daerah nilai sebenarnya atau parameternya berada, sehingga disebut interval kepercayaan atau selang kepercayaan. Demikian halnya dalam pendugaan parameter pada Transformasi Box Cox dinyatakan juga dalam selang kepercayaan terhadap, atas nilai nilai yang memenuhi pertidaksamaan berikut: (2.34) Dengan adalah titik persentase sebaran khi-kuadrat dengan satu derajat bebas yang luas wilayah di sebelah kanannya sebesar. Sebagian nilai nilai itu adalah: 0,10 0,05 0,025 0,01 0,005 2,71 3,841 5,024 6,635 7,879 Untuk menggambarkan persaman (2.34) yaitu dengan menarik garis mendatar setinggi, pada tebaran dengan pada setiap perhitungan yang telah diperoleh. Sehingga garis yang terbentuk akan memotong kurva pada dua nilai, dan ini merupakan titik titik ujung selang kepercayaan parameter yang terbentuk.
2.6 Pengujian Hipotesis dalam Model Regresi Linier Sederhana Model regresi yang baik diperoleh akan diperiksa setelah variabel respon Y ditransformasikan sesuai dengan model transformasi. Pemeriksaan ini ditempuh melalui pengujian hipotesis. Jika pada percobaan akan dilakukan pengujian terhadap yang sama dengan sebuah konstanta misalkan, maka pada umumnya hipotesis tersebut dirumuskan sebagai berikut: Dan akan diduga alternatifnya dua arah, maka satistik uji yang digunakan pada pengujian hipotesis ini adalah: Kaidah pengambilan keputusan untuk pengujian hipotesis ini adalah sebagai berikut: ditolak jika. Dalam hal lain terima. Dengan cara yang sama dapat juga digunakan untuk menguji intercept hipotesisnya adalah sebagai berikut:, dan Statistik ujinya adalah: Kaidah pengambilan keputusan untuk pengujian hipotesis ini adalah sebagai berikut: ditolak jika. Dalam hal lain terima. Nilai dapat diperoleh dari tabel t dengan menggunakan dengan derajat kebebasan (n-2).
Dalam persamaan (2.35) dan (2.36) di atas berikut: dapat dinyatakan dengan persamaan ( 7 Dengan adalah koreksi atau perbaikan jumlah kuadrat X. Pengujian hipotesis dalam model regresi tersebut dilakukan secara parsial yang bertujuan untuk menguji signifikansi pengaruh variabel bebas terhadap variabel respon. Sehingga, masalah khusus dari pengujian hipotesis dalam model regresi linier sederhana adalah: Apabila hipotesis ditolak, maka variabel bebas X berpengaruh terhadap variabel respon Y. Dengan demikian, model analisis regresi signifikan dan layak digunakan untuk mengestimasi atau memprediksi nilai Y.