Bimafika, 011, 3, 30-34 ESTIMATOR SPLINE KUBIK Johannis Takaria * Staff Pengajar Fakultas Keguruan Dan Ilmu Pendidikan Universitas Pattimura Ambon Diterima 10-1-010; Terbit 31-06-011 ABSTRACT Consider a nonparametric regression model = h( ) +, = 1,,,, where h( ) represents unidentified form of a regression curve, and error is assumed as independently, identical with the zero mean and variance. Cubic spline estimator can be written as: : h () = (), where () = ( + ), and = 6,,,, is obtained through a conditional optimization, by minimizing: ( h ), with conditions (h ()) <, 0. The estimator produced is biased, but not asymptotic biased. Keywords: Nonparametric Regression, Cubic Spline, GCV. PENDAHULUAN Jika diberikan dua peubah dan mempunyai hubungan sebab akibat, maka secara matematik dapat ditulis mengikuti suatu model regresi = h +, untuk = 1,,, dimana adalah peubah bebas (independent variable) dan adalah peubah tak bebas (dependent variable). Jika model tersebut mengikuti model regresi nonparametrik, maka h adalah kurva regresi yang tidak diketahui bentuknya, dan adalah error yang diasumsikan identik, independen dengan mean nol dan varians. Konsep utama dalam regresi nonparametrik adalah bagaimana menentukan bentuk estimator dari kurva regresi tersebut. Dalam mendapatkan bentuk estimator yang diharapkan, maka suatu metode yang sering digunakan adalah spline. Spline merupakan suatu piecewise polynomial, yaitu polinomial yang memiliki sifat tersegmen dan kontinu (Eubank,1988). Fungsi spline sendiri dapat berupa spline linear, kuadratik dan spline kubik. Spilne kubik merupakan jumlahan dari fungsi polinomial berderajat tiga dengan suatu fungsi (truncated) berderajat tiga. Untuk mendapatkan estimator spline kubik digunakan optimasi bersyarat yaitu meminimumkan (Rice,001): ( h( ), dengan syarat (h (), dimana 0 Tujuan yang ingin dicapai dalam penelitian ini adalah mengkaji cara optimasi bersyarat dalam mendapatkan estimator spline kubik. Regresi Nonparametrik Spline Di berikan model = h +, untuk = 1,,, dimana h( ) merupakan kurva regresi yang tidak diketahui bentuknya. Dalam regresi nonparametrik Spline sangat digemari dalam mendapatkan bentuk kurva yang diharapkan, salah satunya adalah Wahba (1990) mencoba mengembangkan suatu optimasi spline. Pada prinsipnya estimasi spline dalam regresi nonparmetrik masih mengadopsi konsep dan cara-cara dalam regresi parametrik, yang memiliki kesederhanaan dan kemudahan dalam proses inferensi. Dalam mendapatkan bentuk estimator h ada berbagai pendekatan yang digunakan diantaranya: Pendekatan keluarga spline, Penalized Least Square (PLS) yang salah satunya adalah optimasi bersyarat. Pendekatanpendekatan yang digunakan pada intinya mendapatkan bentuk estimator yang smooth (mulus), dimana tingkat kemulusan tergantung parameter penghalus yang digunakan. Jika parameter penghalus yang digunakan relatife besar maka akan menghasilkan kurva yang mulus, sebaliknya jika sangat kecil maka kurva yang dihasilkan tidak memuaskan. Spline Kubik Fungsi spline yang digunakan umumnya didefinisikan sebagai () = + ( ) 1 dengan ( ) = ( ) ; 0 ; < * Korespondensi : email:
J.Takaria / Bimafika, 011, 3, 30-34 dimana, = 0,1, ( 1) merupakan koefisien polinimial dan, = 1,,, adalah koefisien truncated bernilai real, serta,,, merupakan titik-titik knot, selanjutnya jika m = 4, dan selanjutnya disubtitusikan pada persamaan diatas maka diperoleh fungsi spline kubik. Spline kubik adalah jumlahan dari fungsi polynomial orde tiga dengan truncated berorde tiga pula. Persoalan utama dalam spline kubik adalah bagaimana memilih titik-titik knot optimal. Persamaan spline kubik dapat ditulis sebagai () = + + + + ( ) Parameter Penghalus Spline sangat bergantung pada suatu parameter penghalus (). Pemilihan suatu nilai parameter penghalus yang kecil akan menghasilkan kurva regresi yang sangat kasar, sebaliknya jika parameter penghalusnya cukup besar, maka estimasi kurva regresi yang dihasilkan sangat smooth (Eubank, 1988). Metode yang sering digunakan untuk memilih parameter penghalus adalah Cross Validation (Hardle,1990), Generalized Cross Validation (GCV) (Wahba,1990). Metode GCV memilih yang optimal yang meminimumkan: () () = [ ()] Dimana () = ( ()), = (,, ), dan () merupakan matriks berordo nxn. Di samping parameter penghalus diatas, Eubank (1988) memberikan hubungan misalkan, adalah basis untuk spline dimana: () = () [, ], [, ] = {; [ ()] < },serta () = + ) Maka () () () ()= 1 1!=1()=1. Jika diambil nilai m =, maka diperoleh: () ()= 6 ( ) Optimasi Bersyarat Salah satu cara yang digunakan dalam mendapatkan estimator spline kubik adalah optimasi bersyarat, yakni menyelesaikan optimasi min [,] ( h ) dengan syarat: (h ()), 0 Tahapan analisis yang digunakan dalam penelitian ini: 1. Meminimumkan: ( h), dengan syarat:(h ), 0 Dengan langkah-langkah sebagai a. Mendefinisikan suatu fungsi: (h) = (h) + (h), h [, ] Dimana (h) = [h ()] Selanjutnya berdasarkan turunan Getaux, maka h ditransformasikan menjadi h = + sehingga: (,, ) = ( + ) + ( ( + ) ) b. Selanjutnya persamaan diatas diturunkan terhadap (, ; ) c. Proses selanjutnya bentuk yang telah diturunkan diatas, diselesaikan dan hasilnya disamakan dengan nol: (,, ) = 0 d. Langkah terakhir mendapatkan bentuk estimator spline kubik: h() = () 31
J.Takaria / Bimafika, 011, 3, 30-34 Estimator Spline Kubik Disajikan data berpasangan (, ). Hubungan keduanya dimodelkan mengikuti model regresi nonparametrik: = h() +, = 1,,,, dengan asumsi error ( ) identik independen dengan mean nol dan variansi. Tujuan yang hendak dicapai adalah mendapatkan bentuk estimator spline kubik, dimana estimator spline kubuk yang dihasilkan diperoleh dengan suatu cara optimasi bersyarat, yakni menyelesaikan optimasi: min [,] ( ), dengan syarat: ( ()), 0 Selanjutnya bentuk bersyarat persamaan diatas dapat ditulis menjadi: min [,] ( h ) penghalus + ( (h ()) ) dengan merupakan parameter min [,] ( h ) + (h ()) ) min [,]{ (h) + (h)} dengan (h) = (h ()) berdasarkan konsep Getaux, maka h dapat ditransformasikan menjadi h = +, dimana, [, ], dan merupakan suatu nilai real. Selanjutnya definisikan: (h) = (h) + (h) (h) = + (h) Selanjutnya persamaan tersebut diselesaikan bagian demi bagian, sebagai (h). = ( h ) Subtitusikan h = +, maka diperoleh: ( + ) = [ ( + ) ] = [ ( + ) ] Selanjutnya diturunkan terhadap, didapatkan: ( + ) = [ ] = [ ] Berdasarkan turunan Getaux, jika diambil nilai = 0, maka didapatkan: ( + ) = [ 0. ] = [ ] (1) () Selanjutnya untuk penalty diperoleh: (h) = (h ()) Untuk h = +, : ( + ) = ( + ) ()) = ( + )()) = ( () + ()) () Proses selanjutnya () diatas diturunkan terhadap didapat: ( + ) = ( () + () () = () + () (3) Jika diambil nilai = 0, dan disubtitusikan pada persamaan (***) maka diperoleh: ( + ) = () + 0 () = () () Selanjutnya (h) yang telah diturunkan terhadap hasilnya disamakan dengan nol: ( + ) = 0 3
J.Takaria / Bimafika, 011, 3, 30-34 diperoleh persamaan () () () () + () () = 0 = = [ ] (4) Selanjutnya misalkan,, basis untuk spline dan = dimana merupakan koefisien-koefisien real, maka Eubank (1988) memberikan hubungan: () () = 6 ( ) (5) Dimana koefisien real. Proses selanjutnya persamaaan (5) diatas disubtitusikan ke dalam persamaan (4) diperoleh: [ ] = 6 ( ) Maka didapatkan: [ ( )] = 6 ( ) (6) Karena berlaku untuk setiap [, ], maka persamaan (6) memenuhi bentuk: = 6 = + 6 = ( + 6 ), = 1,,, Persamaan diatas disajikan dalam matriks = ( ( ) + 6 ) ( ( ) + 6 ) ( ( ) + 6 ) ( ) ( ) ( ) = ( ) ( ) ( ) ( ) ( ) ( ) + 6 Selanjutnya dapat ditulis menjadi: = (+ ) (7) Dimana = 6,,,, dan = ( ),,,, Langkah selanjutnya persamaan (7) digandakan dengan pada kedua ruas diperoleh: = ( + ) Akhirnya didapat: = ( + ) Sehingga bentuk estimator kurva regresi h dapat disajikan sebagai h () = = ( + ) = (), () = ( + ) Jadi estimator spline kubik dapat disajikan dalam bentuk: Kesimpulan h () = () Kesimpulan yang dapat ditarik dari hasil penelitian ini adalah: 1. Dalam mendapatkan estimator spline kubik digunakan optimasi bersyarat yaitu meminimumkan: 33
J.Takaria / Bimafika, 011, 3, 30-34 ( h( ), dengan syarat (h (), dimana 0. Dengan menggunakan optimasi bersyarat, diperoleh estimator spline kubik yang dinyatakan sebagai: h () = () Dimana: () = ( + ), untuk = 6,,,, DAFTAR PUSTAKA Casella, G., and Berger, R.L. (00). Statistical Inference, Duxbury Thomson Learning, New York USA. Eubank, R.L. (1988). Spline Smooting and Nonparametric Regression, New Marcel Deker, New York. Green, P.J. dan Silverman, B.W. (1994). Nonparametric Regression Statistical Society seri c, vol, 63, 49-497. Hardle, W. (1990). Applied Nonparametric Regression, Cambridge New York. Rice, J. (001). Reflections on SCMA III, Departement of Statistics University of California at Berkeley, http:// stat Berkeley.edu/users/rice/scma-rice Stewart, J. (1991). Calculus. Mc Master University, Pacific Grove California. Wahba, G. (1990). Spline Models for observational Data. SIAM, CBMS-NSF Regional Confrence Series in Applied Mathematics, Philadelphia. 34