Penaksiran Parameter Regresi Nonlinier dengan Algoritma Gauss-Newton dan Tafsiran Geometris Least Squares

dokumen-dokumen yang mirip
LANDASAN TEORI. linear (intrisnsically linear) dan nonlinear secara intrinsik nonliear (intrinsically

TINJAUAN PUSTAKA. Matriks adalah suatu susunan bilangan berbentuk segi empat. Bilangan-bilangan

PENERAPAN METODE GENERALIZED RIDGE REGRESSION DALAM MENGATASI MASALAH MULTIKOLINEARITAS

Modul Praktikum Analisis Numerik

PENGARUH PERUBAHAN NILAI PARAMETER TERHADAP NILAI ERROR PADA METODE RUNGE-KUTTA ORDE 3

ESTIMASI PARAMETER DISTRIBUSI WEIBULL DENGAN TRANSFORMASI MODEL REGRESI MENGGUNAKAN METODE KUADRAT TERKECIL LINIER

TINJAUAN PUSTAKA. Dalam proses pengumpulan data, peneliti sering menemukan nilai pengamatan

BAB I PENDAHULUAN. 1.1 Latar Belakang

Modul Praktikum Analisis Numerik

ANALISIS REGRESI TERSEGMEN MENGGUNAKAN METODE GAUSS-NEWTON

BAB I PENDAHULUAN. 1.1 Latar Belakang

ESTIMASI PARAMETER DISTRIBUSI WEIBULL DENGAN TRANSFORMASI MODEL REGRESI MENGGUNAKAN METODE KUADRAT TERKECIL LINIER

Pendugaan Selang Kepercayaan Persentil Bootstrap Nonparametrik untuk Parameter Regresi

ESTIMASI REGRESI ROBUST M PADA FAKTORIAL RANCANGAN ACAK LENGKAP YANG MENGANDUNG OUTLIER

BAB II LANDASAN TEORI. : Ukuran sampel telah memenuhi syarat. : Ukuran sampel belum memenuhi syarat

BAB III. Model Regresi Linear 2-Level. Sebuah model regresi dikatakan linear jika parameter-parameternya bersifat

LEAST SQUARE AND RIDGE REGRESSION ESTIMATION ABSTRAK ( ) = ( + ) Kata kunci: regresi linear ganda, multikolinearitas, regresi gulud.

= parameter regresi = variabel gangguan Model persamaan regresi linier pada persamaan (2.2) dapat dinyatakan dalam bentuk matriks berikut:

BAB 2 LANDASAN TEORI

PENGUJIAN KESAMAAN BEBERAPA MODEL REGRESI NON LINIER GEOMETRI (Studi Kasus : Data Emisi CO 2 dan Gross Nation Product di Malaysia, Bhutan, dan Nepal)

BAB II LANDASAN TEORI

Penaksiran Parameter Regresi Linier Logistik dengan Metode Maksimum Likelihood Lokal pada Resiko Kanker Payudara di Makassar

BAB 1 PENDAHULUAN. banyak diterapkan pada berbagai bidang sebagai dasar bagi pengambilan

BAB ΙΙ LANDASAN TEORI

PAM 252 Metode Numerik Bab 4 Pencocokan Kurva

METODE ORDE-TINGGI UNTUK MENENTUKAN AKAR DARI PERSAMAAN NONLINEAR ABSTRACT

BAB III REGRESI PADA DATA SIRKULAR


BAB 3 SMOOTH TRANSITON AUTOREGRESSIVE. waktu nonlinear yang merupakan perluasan dari model Autoregressive (AR).

ESTIMASI PARAMETER REGRESI LOGISTIK BINER DENGAN METODE PARTIAL LEAST SQUARES

METODE CHEBYSHEV-HALLEY DENGAN KEKONVERGENAN ORDE DELAPAN UNTUK MENYELESAIKAN PERSAMAAN NONLINEAR. Anisa Rizky Apriliana 1 ABSTRACT ABSTRAK

PEMODELAN DENGAN REGRESI LOGISTIK. Secara umum, kedua hasil dilambangkan dengan (sukses) dan (gagal)

TINJAUAN PUSTAKA. Analisis regresi adalah suatu metode analisis data yang menggambarkan

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

Analisis Model Regresi Linear Berganda dengan Metode Response Surface

BAB II LANDASAN TEORI. eigen dan vektor eigen, persamaan diferensial, sistem persamaan diferensial, titik

Pengujian Kestabilan Parameter pada Model Regresi Menggunakan Dummy Variabel

BAB III REGRESI TERSENSOR (TOBIT) Model regresi yang didasarkan pada variabel terikat tersensor disebut

BAB II TINJAUAN PUSTAKA

PENDAHULUAN. Latar Belakang. Tujuan Penelitian

BUKU RANCANGAN PENGAJARAN MATA AJAR METODE NUMERIK. oleh. Tim Dosen Mata Kuliah Metode Numerik

Masalah Overdispersi dalam Model Regresi Logistik Multinomial

BAB 2 LANDASAN TEORI

BAB III EXTENDED KALMAN FILTER DISKRIT. Extended Kalman Filter adalah perluasan dari Kalman Filter. Extended

METODE BERTIPE NEWTON UNTUK AKAR GANDA DENGAN KONVERGENSI KUBIK ABSTRACT

BAB Ι PENDAHULUAN. 1.1 Latar Belakang

METODE ITERASI BARU BERTIPE SECANT DENGAN KEKONVERGENAN SUPER-LINEAR. Rino Martino 1 ABSTRACT

PERBANDINGAN SOLUSI SISTEM PERSAMAAN NONLINEAR MENGGUNAKAN METODE NEWTON- RAPHSON DAN METODE JACOBIAN

Pemodelan Autoregressive (AR) pada Data Hilang dan Aplikasinya pada Data Kurs Mata Uang Rupiah

Informasi Fisher pada Algoritme Fisher Scoring untuk Estimasi Parameter Model Regresi Logistik Ordinal Terboboti Geografis (RLOTG)

MODEL REGRESI DATA TAHAN HIDUP TERSENSOR TIPE III BERDISTRIBUSI EKSPONENSIAL. Jln. Prof. H. Soedarto, S.H., Tembalang, Semarang.

BAB I PENDAHULUAN Latar Belakang Masalah

BAB I PENDAHULUAN. suatu metode yang disebut metode kuadrat terkecil (Ordinary Least Square OLS).

PERBANDINGAN TRANSFORMASI BOX-COX DAN REGRESI KUANTIL MEDIAN DALAM MENGATASI HETEROSKEDASTISITAS

BAB 2 LANDASAN TEORI

REGRESI LINIER BERGANDA

Triyana Muliawati, S.Si., M.Si.

Metode Cochrane-Orcutt untuk Mengatasi Autokorelasi pada Regresi Ordinary Least Squares

OLEH : Riana Ekawati ( ) Dosen Pembimbing : Dra. Farida Agustini W, M.S

BAB I PENDAHULUAN. yang saling berhubungan atau berpengaruh satu sama lain. Ilmu statistika

MODEL-MODEL LEBIH RUMIT

ESTIMASI EROR STANDAR PARAMETER REGRESI LOGISTIK MENGGUNAKAN METODE BOOTSTRAP

MODEL REGRESI NONPARAMETRIK SPLINE TRUNCATED PADA DATA INDEKS PEMBANGUNAN MANUSIA (IPM) DI INDONESIA. 1. Pendahuluan

PENYELESAIAN PERSAMAAN POISSON 2D DENGAN MENGGUNAKAN METODE GAUSS-SEIDEL DAN CONJUGATE GRADIENT

MASALAH NILAI AWAL ITERASI NEWTON RAPHSON UNTUK ESTIMASI PARAMETER MODEL REGRESI LOGISTIK ORDINAL TERBOBOTI GEOGRAFIS (RLOTG)

METODE MODIFIKASI NEWTON DENGAN ORDE KONVERGENSI Lely Jusnita 1

BAB III NONLINEAR GENERALIZED AUTOREGRESSIVE CONDITIONAL HETEROSKEDASTICITY (N-GARCH)

Penyelesaian Persamaan Poisson 2D dengan Menggunakan Metode Gauss-Seidel dan Conjugate Gradient

LANDASAN TEORI. menyatakan hubungan antara variabel respon Y dengan variabel-variabel

PERBANDINGAN METODE LEAST TRIMMED SQUARES DAN PENAKSIR M DALAM MENGATASI PERMASALAHAN DATA PENCILAN

KAJIAN FUNGSI nls( ) DAN fsrr( ) TERHADAP MODEL MICHEALIS-MENTEN PADA REGRESI NONLINIER. Sudarno 1. Abstrak

Pengantar Metode Numerik

Peranan dari Pemilihan Level sebagai Referensi pada Variabel Bebas Bertipe Kategori terhadap Derajat Multikolinieritas dalam Model Regresi Linier

BAB 2 LANDASAN TEORI

METODE ORDINARY LEAST SQUARES DAN LEAST TRIMMED SQUARES DALAM MENGESTIMASI PARAMETER REGRESI KETIKA TERDAPAT OUTLIER

Hitung Perataan Kuadrat Terkecil (Least Squares Adjustment)

SIMULASI DAMPAK MULTIKOLINEARITAS PADA KONDISI PENYIMPANGAN ASUMSI NORMALITAS

PERBANDINGAN MODEL ARIMA DAN MODEL REGRESI DENGAN RESIDUAL ARIMA DALAM MENERANGKAN PERILAKU PELANGGAN LISTRIK DI KOTA PALOPO

PERTEMUAN 2-3 SIFAT DASAR ANALISIS REGRESI

Karakteristik Pendugaan Emperical Best Linear Unbiased Prediction (EBLUP) Pada Pendugaan Area Kecil

METODE CHEBYSHEV-HALLEY BEBAS TURUNAN KEDUA UNTUK MENYELESAIKAN PERSAMAAN NONLINEAR. Ridho Alfarisy 1 ABSTRACT

KINERJA JACKKNIFE RIDGE REGRESSION DALAM MENGATASI MULTIKOLINEARITAS

BAB III IDENTIFIKASI VARIABEL MODERATOR KATEGORIK

Sarimah. ABSTRACT

BAB II TINJAUAN PUSTAKA. Dalam bab ini dibahas tentang matriks, metode pengganda Lagrange, regresi

METODE ITERASI BEBAS TURUNAN BERDASARKAN KOMBINASI KOEFISIEN TAK TENTU DAN FORWARD DIFFERENCE UNTUK MENYELESAIKAN PERSAMAAN NONLINEAR ABSTRACT

BAB III PERLUASAN MODEL REGRESI COX PROPORTIONAL HAZARD DENGAN VARIABEL TERIKAT OLEH WAKTU

PENYELESAIAN MASALAH NILAI AWAL PERSAMAAN DIFERENSIAL BIASA ORDE DUA MENGGUNAKAN MODIFIKASI METODE DEKOMPOSISI ADOMIAN

PENAKSIRAN PARAMETER REGRESI LINIER DENGAN METODE BOOTSTRAP MENGGUNAKAN DATA BERDISTRIBUSI NORMAL DAN UNIFORM

Perbandingan Skema Numerik Metode Finite Difference dan Spectral

PEMODELAN UPAH MINIMUM KABUPATEN/KOTA DI JAWA TENGAH BERDASARKAN FAKTOR-FAKTOR YANG MEMPENGARUHINYA MENGGUNAKAN REGRESI RIDGE

BAB III METODE FULL INFORMATION MAXIMUM LIKELIHOOD (FIML)

METODE PARTIAL LEAST SQUARES UNTUK MENGATASI MULTIKOLINEARITAS PADA MODEL REGRESI LINEAR BERGANDA

FAMILI METODE ITERASI DENGAN KEKONVERGENAN ORDE TIGA. Rahmawati ABSTRACT

Pengaruh Outlier Terhadap Estimator Parameter Regresi dan Metode Regresi Robust

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

Pemodelan Faktor-faktor yang Mempengaruhi Produksi Padi di Jawa Timur Tahun 2012 dengan Kasus Pencilan dan Autokorelasi Error

BAB 2 LANDASAN TEORI

BAB II LANDASAN TEORI

BAB I PENDAHULUAN. Analisis regresi merupakan suatu metode yang digunakan untuk

Transkripsi:

Vol. 7, No.1, 39-48, Juli 2010 Penaksiran Parameter Regresi Nonlinier dengan Algoritma Gauss-Newton dan Tafsiran Geometris Least Squares M. Saleh AF Abstrak Algoritma Gauss-Newton atau disebut juga metode linierisasi adalah suatu prosedur iterasi yang digunakan untuk memecahkan masalah kuadrat terkecil (least-squre) pada fungsi jumlah kuadrat untuk meminimumkan suatu fungsi obyektif dengan syarat orde pertama (first orde condition). Dalam tulisan ini akan dibahas secara teoritis penaksiran parameter regresi nonlinier menggunakan algoritma Gauss-Newton (GN) yang akan memecahkan masalah unconstrained least-squares. Pembahasan toritis dan implementasinya memanfaatkan model fungsi nonlinier kontinu yang tergantung pada vektor parameter berdimensi p, fungsi residual, matriks turunan parsial D berukuran, Jacobian dari fungsi residu dan nilai awal, serta vektor koefisien regresi yang merupakan taksiran least-square tanpa intercept. Algoritma GN dimulai dengan ekspansi linier deret Taylor orde pertama untuk aproksimasi terhadap fungsi disekitar nilai awal, yaitu ( ) ( ) ( ). Fungsi aproksimasi tersebut dimanfaatkan untuk memperoleh solusi dari minimisasi masalah kuadrat terkecil linier: ( ), sehingga diperoleh algoritma Gauss Newton:, dengan ( ). Dalam praktek, bentuk sangat sulit diperoleh, sehingga dapat diperoleh melalui penyelesaian linier least squares yaitu. Kata Kunci: Algoritma Gauss-Newton, model regresi nonlinear, nonlinear Least- Squares. 1. Pendahuluan Penaksiran parameter pada sebagian masalah nonlinier seringkali dilakukan dengan cara memecahkan persamaan normal (solution of Normal Equation), namun cara ini seringkali menimbulkan kesulitan dalam pemecahannya, bahkan terkadang tidak tercapai solusi analitik sebagaimana yang diharapkan (Kutner et al., 2004). Kenyataan ini mengharuskan ditempuh metode iteratif untuk menaksir parameter regresi nonlinier. Seber dan Wild (1989) menuliskan beberapa metode iteratif antara lain metode Gauss-Newton, metode Levenberg-Marquardt, metode Powell s Hybrid, dan lain-lain. Algoritma Gauss-Newton merupakan modifikasi dari metode Newton untuk mengoptimalkan suatu fungsi obyektif, yaitu meminimumkan fungsi jumlah kuadrat (sum of squares function). Algoritma Gauss-Newton merupakan prosedur iterasi dan hanya dapat digunakan untuk meminimumkan fungsi jumlah kuadrat. Prosedur iterasi Program Studi Statistika, Jurusan Matematika, Fakultas Matematika dan Ilmu Pengetahuan Alam, Universitas Hasanuddin

40 mengharuskan ditetapkannya taksiran sebuah nilai awal (initial or starting value) yang dinotasikan untuk vektor parameter regresi nonlinier berdimensi p. Algoritma Gauss- Newton dimulai dengan ekspansi deret Taylor linier (orde pertama) untuk melakukan aproksimasi terhadap fungsi regresi di sekitar nilai awal, yaitu ( ) ), yang akan mengantar pada minimisasi linear least-square problem: ( ) ( ( ) ( ) dan pada akhirnya mengantar pada algoritma Gauss-Newton (GN):, ( ) dengan dan D adalah matriks turunan parsial berukuran. Tetapi bentuk terakhir tersebut masih diluar konteks nonlinier least squares regression, sehingga analisis numerik dengan melibatkan gradien dan Hessian lebih menarik sebagai pilihan, sehingga diperoleh ( ) atau. 2. Penaksiran Kuadrat Terkecil 2.1. Kuadrat Terkecil Nonlinier (Nonlinear Least-Squares) Jika terdapat n pasangan observasi dari model fixed-regressor nonlinier dengan hubungan fungsional nonlinier, maka bentuk umum model regresi nonlinier dinyatakan sebagai:, (1) dimana, adalah vektor berukuran, dan vektor parameter berukuran,. Penaksir least squares untuk parameter dinotasikan dengan yang meminimumkan Jumlah Kuadrat Galat (error sum of squares) [ ] [ ] (2) [ ] [ ]. Bila setiap terdiferensiabel terhadap dan, maka memenuhi { } { } (3.a) (3.b) Dalam bentuk matriks, persamaan (3.b) dituliskan sebagai ( ) ( ( )} (4) ( ) dimana

41 ( ) (5.a) (5.b) *( )+ (5.c) dengan adalah matriks turunan parsial berukuran. Persamaan (3.b) dan (4) disebut persamaan normal model regresi nonlinier. Dalam kebanyakan model nonlinier, persamaan normal ini tidak dapat diselsaikan secara analitik atau secara langsung, sehingga metode iteratif menjadi pilihan, yang salah satunya akan dibahas berikut. (5.d) 2.2. Algoritma Gauss-Newton Metode Gauss-Newton, dimulai dengan sebuah nilai awal (initial or starting value) untuk paramater [ ] yang dinotasikan dengan * +. Nilai-nilai awal mungkin saja merupakan dugaan kasar, atau dugaan yang berdasarkan informasi yang tersedia (misalnya perkiraan berdasarkan informasi awal yang diperoleh, atau dari perhitungan yang diperkirakan benar oleh peneliti berdasarkan trial dan error. Misalkan adalah sebuah aproksimasi pada penduga model nonlinier dengan least squares. Dan misalkan pula dekat (small neighborhood) pada, maka ekspansi deret Taylor orde pertama untuk mean respon adalah atau dimana ( ) ( ) (6.a) ( ) (6.b) (6.c) dan (6.d) Sehingga aproksimasi model regresi nonlinier (1) adalah: ( ) (7) ( ). Dengan menuliskan suku ruas kiri ( ) sebagai, diperoleh model aproksimasi linier:,. (8)

42 Dalam bentuk matriks, model aproksimasi linier (8), dapat dituliskan sebagai: dimana [ ( ) ] ( ) (9) [ ] [ ] [ ] [ ]. (10) Matriks turunan parsial D pada model aproksimasi linier (9) sekarang memegang peranan penting terhadap matriks regressor X (tetapi tanpa kolom pertama untuk intersep). Selanjutnya dapat dilakukan penaksiran vektor parameter pada persamaan (10) melalui OLS diperoleh ( ). (11) Dengan demikian vektor akan meminimumkan jumlah kuadrat * ( ) +. (12) Dengan program komputer dapat diperoleh penaksir dengan spesifikasi tanpa intersep (Kutner et al., 2004). Dengan menggunakan hasil penaksir least squares, diperoleh penaksir koefisien regresi melalui mean dari (6.d): dimana adalah penaksir yang direvisi pada akhir iterasi pertama. Dalam bentuk matriks, proses revisi dituliskan sebagai: (13) (14) Selanjutnya penaksir iterasi melalui hubungan: untuk vektor parameter yang dihasilkan oleh proses pengulangan, (15.a)

43 Secara umum algoritma Gauss-Newton dituliskan sebagai (15.b) dengan ( ). (15.c) Perlu dicatat bahwa kriteria least squares pada persamaan (2) digunakan untuk mengevaluasi nilai awal koefisien regresi melalui, yaitu [ ( )] ( ). (16) Pada akhir iterasi pertama, penaksir koefisien regresi yang telah direvisi adalah least squares mengevaluasi tahapan ini, yang sekarang dinotasikan sebagai dan kriteria, yaitu [ ( )] ( ). (17) Jika metode Gauss-Newton bekerja efektif pada iterasi pertama, akan lebih kecil dari, dan penaksir koefisien regresi yang telah direvisi akan menjadi penaksir yang lebih baik dari yang sebelumnya. Proses iteratif ini dilanjutkan sampai diperoleh solusi konvergen, dengan kata lain sampai pada langkah iterasi dan berlaku, (18) dimana bilangan positif yang telah ditetapkan sebelumnya (misalnya. Pada setiap iterasi sebaiknya dihitung untuk melihat apakah terjadi penurunan nilai. Bila gradien dan Hessian dari berturut-turut dinyatakan sebagai berikut: Gradien:, (19) dimana Jacobian [( )], (20) merupakan matriks berukuran dengan kolom ke-j adalah. Dan Hessian: } (21) dimana dan adalah matriks Hessiaan berukuran. Jadi langkah Newton adalah ( ) ( ). (22)

44 Karena, maka, sehingga (15.c) menjadi ( ) (23) Jadi algoritma Gauss-Newton diperoleh dari algoritma Newton (N) dengan mengabaikan bagian Hessian dari persamaan (21). Dalam prakteknya, suku tidak pernah diperoleh, sehingga diperoleh melalui pemecahan/penyelesaian linier least squares, yaitu, (24) menggunakan metode kestabilan numeric (numerically stable) yang didasarkan pada penggunaan faktorisasi dari. Faktorisasi tersebut dapat berbentuk faktorisasi orthogonal (QR) atau dekomposisi nilai singular. 3. Contoh Penerapan Rumah sakit ingin mengembangkan sebuah model regresi untuk memprediksi derajat kesembuhan pasien (the degree of long-term recovery) setelah menjalani perawatan di rumah sakit (after discharge from the hospital). Variabel prediktornya adalah jumlah hari perawatan di rumah sakit (X), dan variabel respon adalah indeks prognostic for long-term recovery (Y). Data diberikan pada Tabel 1. Tabel 1. Data Pasien. 2 5 7 10 14 19 26 31 34 38 45 52 53 60 65 54 50 45 37 35 25 20 16 18 13 8 11 8 4 6 Sumber: Kutner et al. (2004). Model yang dihipotesiskan berbentuk: dengan fungsi respon f logaritma natural: (25) yang dapat dilinierisasi melalui transformasi [ ], (26) sehingga model regresi linier dengan transformasi variabel yang akan difitkan (fitted) dengan nilai awal untuk suatu penghampiran (aproksimasi) model eksponensial, adalah, (27) dimana,,. Dengan menerapkan metode Kuadrat Terkecil (Least Squares), diperoleh taksiran koefisien regresi linier, yaitu dan, sebagaimana yang diberikan pada Tabel 2.

45 Tabel 2. ANAVA. Koefisien Standard Error Stat-t Intersep 4.037158866 0.084103145 48.0024718 Variabel X -0.037974181 0.002284209-16.624655 Dengan demikian, dugaan nilai awal (initial starting value) untuk iterasi adalah { Nilai-nilai awal parameter dan ini diterapkan pada setiap pengamatan. Untuk pengamatan pertama, ;, diperoleh ( ) ( ), dan deviasi mean respon adalah. Turunan parsial fungsi respon (26) terhadap parameternya adalah dan, sehingga * + ( ) * + ( ). Selanjutnya, terapkan metode kuadrat terkecil untuk menduga koefisien regresi antar respon pada dua variabel X dalam matriks tanpa intersep, dan diperoleh hasil dalam Tabel 3. Tabel 3. Kofisien Regresi Linier Tanpa Intersep. Koefisien Standard Error Intersep 0 #N/A Variabel D 0 (0) 1.892878164 1.448095231 Variabel D 1 (0) -0.001559049 0.001681719 Sehingga vektor penduga koefisien regresi tanpa intersep adalah [ ] * + Dengan persamaan (14) diperoleh penduga parameter yang direvisi, * + * + * +

46 Dalam hal ini, dan merupakan taksiran parameter yang sudah direvisi pada iterasi pertama. Revisi residual dari fungsi regresi eksponensial dan turunan parsial pertama, didasarkan pada penduga parameter yang sudah direvisi di atas. Untuk pengamatan 1, dengan dan, diperoleh: ( ). ( ).. Hasil selengkapnya ditunjukkan dalam Tabel 4. Selanjutnya, regresikan dan untuk mendapatkan penduga koefisien regresi, diperoleh hasil dalam Tabel 5. Tabel 4. Koefisien regresi (tanpa intercept). Koefisien Standard Error Intersep 0 #N/A Variabel D 0 (0) 0.047482676 1.471306632 Variabel D 1 (0) -5.1696E-05 0.001709776 Jadi [ ] * +, sehingga * + * + * + Proses dilanjutkan, hingga tercapai kestabilan solusi. Hasil setelah iterasi ke-5 ditunjukkan dalam Tabel 6. Setelah iterasi ke-5, solusi mencapai konvergen, sehingga diperoleh taksiran parameter regresi nonlinier: [ ] * + * + Jadi persamaan regresi nonlinier adalah plot data dapat dilihat dalam Gambar 1.. Grafik regresi nonlinier dan Gambar 1. Grafik Fungsi Regresi Nonlinier dan Plot Data Observasi.

47 Tabel 5. Hasil Perhitungan Matriks dan. [ ] -0.1063643 1.94468138 0.59789765-2.4363436 1.33173109-2.6296872-0.9504436-1.192871 2.72991297-0.0366395-1.885142 3.50450766 0.79504619-1.463217 1.51663976 0.92397894 0.82064472 0.75825844 0.67345776 0.57495586 0.4718345 0.35777249 0.29360411 0.26076856 0.22262779 0.1688094 0.12800115 0.1230396 0.09329582 0.07656272 108.212729 240.276593 310.814716 394.363436 471.355765 524.964057 544.711533 532.979 519.182959 495.392302 444.831389 389.765602 381.862552 327.793023 291.418416 0.01131336 3.78178568 0.3574816 5.93577033 1.77350769 6.91525487 0.90334296 1.42294111 7.45242483 0.00134246 3.55376024 12.2815739 0.63209845 2.14100412 2.30019617 49.463798 Tabel 6. Hasil Lengkap Setelah Iterasi ke-5. Iterasi SSE 0 1 49.46380 2 58.60549 49.45930 3 4 5 4. Kesimpulan dan Saran Beberapa kesimpulan yang dihasilkan dari tulisan ini adalah bahwa penggunaan persamaan normal dalam menaksir parameter model nonlinier sangat sulit prosesnya, dan kebanyakan tidak dapat ditentukan solusi analitiknya. Dalam kasus-kasus tertentu, pada proses linierisasi dengan metode Gauss-Newton, dapat terjadi kekonvergenan yang berjalan lambat, dengan kata lain dibutuhkan sejumlah besar iterasi sebelum solusi mencapai kestabilan/kekonvergena. Bahkan mungkin saja kekonvergenan tidak dapat tercapai, sehingga perlu ditetapkan jumlah maksimum yang iterasi yang harus digunakan pada model.

48 Daftar Pustaka Kutner et al., 2004. Applied Linier Regression Models. Mc Graw Hill, Printed in Singapore. Ryan, T.P., 1997. Modern Regression Method. John Wiley & Sons, New York. Draper, N. dan Smith, H., 1992. Applied Regression Analysis, Second Edition. John Wiley & Sons Inc., New York..