Radial Basis Function Networks

dokumen-dokumen yang mirip
Metode Kernel. Machine Learning

SVM untuk Regresi. Machine Learning

Neural Networks. Machine Learning

Model Linear untuk Regresi

SVM untuk Regresi Ordinal

Model Linear untuk Klasifikasi

Support Vector Machine

SVM untuk Ranking. Model Linear

1. Pendahuluan. 1.1 Latar Belakang

BAB III PEMBAHASAN. FRBFNN, Arsitektur FRBFNN, aplikasi FRBFNN untuk meramalkan kebutuhan

Studi Kasus Sistem Rekomendasi

PEMBELAJARAN BERTINGKAT PADA ARSITEKTUR JARINGAN SARAF FUNGSI RADIAL BASIS

Pendahuluan : Evaluasi*

BAB I PENDAHULUAN. 1.1 Latar Belakang

Jaringan syaraf dengan lapisan tunggal

BAB III LANDASAN TEORI. Definisi Peramalan adalah memperkiraan atau memproyeksikan sesuatu

Matrix Factorization. Machine Learning

2. Adanya resiko pemumpukan barang pada gudang.

PENERAPAN METODE KLASIFIKASI SUPPORT VECTOR MACHINE (SVM) PADA DATA AKREDITASI SEKOLAH DASAR (SD) DI KABUPATEN MAGELANG

PERAMALAN DENGAN MENGGUNAKAN ARTIFICIAL NEURAL NETWORK DAN SUPPORT VECTOR REGRESSION

g(x, y) = F 1 { f (u, v) F (u, v) k} dimana F 1 (F (u, v)) diselesaikan dengan: f (x, y) = 1 MN M + vy )} M 1 N 1

BAB III PEMBAHASAN. harga minyak mentah di Indonesia dari bulan Januari 2007 sampai Juni 2017.

Pendahuluan* Data vs Informasi

KAJIAN KEMAMPUAN GENERALISASI SUPPORT VECTOR MACHINE DALAM PENGENALAN JENIS SPLICE SITES PADA BARISAN DNA

BUKU RANCANGAN PEMBELAJARAN

BAB 2 LANDASAN TEORI

PRESENTASI TUGAS AKHIR IMPLEMENTASI PENGGABUNGAN ALGORITMA SUPPORT VECTOR MACHINE DAN SIMULATED ANNEALING PADA PERMASALAHAN KLASIFIKASI POLA

PEMODELAN GENERAL REGRESSION NEURAL NETWORK (GRNN) DENGAN PEUBAH INPUT DATA RETURN UNTUK PERAMALAN INDEKS HANGSENG

BAB I PENDAHULUAN 1.1 Latar Belakang Musim hujan merupakan musim yang mutlak ada di sebagian belahan benua dunia. Dan curah hujan pasti memiliki

MODEL FUZZY RADIAL BASIS FUNCTION NEURAL NETWORK UNTUK PERAMALAN KEBUTUHAN LISTRIK DI PROVINSI DAERAH ISTIMEWA YOGYAKARTA

REDUKSI DIMENSI INPUT PADA JARINGAN SYARAF PCA-RBF DENGAN SINGULAR VALUE DECOMPOSITION

PERBANDINGAN PERAMALAN INDEKS HARGA SAHAM GABUNGAN MENGGUNAKAN SUPPORT VECTOR MACHINES DAN JARINGAN SARAF TIRUAN

BAB 2 KAJIAN PUS TAKA

BAB 2 LANDASAN TEORI

IMPLEMENTASI DAN ANALISIS ONLINE UPDATING REGULARIZATION KERNEL MATRIX FACTORIZATION MODEL PADA SISTEM REKOMENDASI

METODE PARTIAL LEAST SQUARES UNTUK MENGATASI MULTIKOLINEARITAS PADA MODEL REGRESI LINEAR BERGANDA

BAB I PENDAHULUAN 1.1 Latar Belakang

Neural Network (NN) Keuntungan penggunaan Neural Network : , terdapat tiga jenis neural network Proses Pembelajaran pada Neural Network

PREDIKSI INDEKS HARGA SAHAM GABUNGAN MENGGUNAKAN SUPPORT VECTOR REGRESSION (SVR) DENGAN ALGORITMA GRID SEARCH

Analisis Akurasi Support Vector Machine...

Prediksi Financial Time Series Menggunakan Independent Component Analysis dan Support Vector Regression Studi Kasus : IHSG dan JII

BAB III PEMBAHASAN. 1. Arsitektur Fuzzy Radial Basis Function Neural Network (FRBFNN) Fuzzy Radial Basis Function Neural Network (FRBFNN) merupakan

BAB 2 LANDASAN TEORI

BAB 3 PROSEDUR DAN METODOLOGI. menawarkan pencarian citra dengan menggunakan fitur low level yang terdapat

PELATIHAN FEED FORWARD NEURAL NETWORK MENGGUNAKAN ALGORITMA GENETIKA DENGAN METODE SELEKSI TURNAMEN UNTUK DATA TIME SERIES

KLASIFIKASI WILAYAH DESA-PERDESAAN DAN DESA-PERKOTAAN WILAYAH KABUPATEN SEMARANG DENGAN SUPPORT VECTOR MACHINE (SVM)

Prediksi Pergerakan Indeks Harga Saham Menggunakan Artificial Neural Network dan Support Vector Machine

Pengantar Support Vector Machine

Pengembangan Perangkat Lunak Prediktor Nilai Mahasiswa Menggunakan Metode Spectral Clustering dan Bagging Regresi Linier

KLASIFIKASI LAMA STUDI MAHASISWA FSM UNIVERSITAS DIPONEGORO MENGGUNAKAN REGRESI LOGISTIK BINER DAN SUPPORT VECTOR MACHINE (SVM)

PERBANDINGAN ANTARA MODEL NEURAL NETWORK DAN MODEL DUANE UNTUK EVALUASI KETEPATAN PREDIKSI WAKTU KERUSAKAN SUATU KOMPONEN

4 Notepad dan Microsoft Excel sebagai editor data.

BAB 1 PENDAHULUAN Latar Belakang

BAB 3 METODE PENELITIAN

BAB III LANDASAN TEORI

Architecture Net, Simple Neural Net

SKRIPSI. Oleh : PUSPHITA ANNA OCTAVIANI NIM PENERAPAN METODE KLASIFIKASI SUPPORT VECTOR MACHINE (SVM)

PENGENALAN POLA TANDA TANGAN MENGGUNAKAN METODE MOMENT INVARIANT DAN JARINGAN SYARAF RADIAL BASIS FUNCTION (RBF)

BAB III METODOLOGI PENELITIAN

BAB I PENDAHULUAN 1.1. Latar Belakang

Penerapan Jaringan Saraf Tiruan Metode Backpropagation Menggunakan VB 6

ANALISIS PERBANDINGAN METODE JARINGAN SYARAF TIRUAN DAN REGRESI LINEAR BERGANDA PADA PRAKIRAAN CUACA

Studi Kasus Klasifikasi Hutan

PEMODELAN GENERAL REGRESSION NEURAL NETWORK (GRNN) PADA DATA RETURN INDEKS HARGA SAHAM EURO 50

ANALISIS FUNGSI AKTIVASI RBF PADA JST UNTUK MENDUKUNG PREDIKSI GANGGUAN GEOMAGNET

KLASIFIKASI CITRA PARU MENGGUNAKAN MODEL SELF-ORGANIZING MAPS RADIAL BASIS FUNCTION NEURAL NETWORKS (SOM-RBFNN) SKRIPSI

Bab 5 Penerapan Neural Network Dalam Klasifikasi Citra Penginderaan Jauh

PREDIKSI PELAPORAN PENCURIAN KENDARAAN BERMOTOR BERBASIS LINIER REGRESI BERGANDA DI KOTA SEMARANG

PREDIKSI INDEKS HARGA SAHAM GABUNGAN MENGGUNAKAN SUPPORT VECTOR REGRESSION DENGAN ALGORITMA GRID SEARCH

ALGORITMA ADAPTIVE COVARIANCE RANK UNSCENTED KALMAN FILTER UNTUK ESTIMASI KEADAAN PADA PERSAMAAN AIR DANGKAL

BAB 2 LANDASAN TEORI

PERAMALAN BEBAN LISTRIK BULANAN SEKTOR INDUSTRI MENGGUNAKAN SUPPORT VECTOR MACHINE DENGAN VARIASI FUNGSI KERNEL

UJI KINERJA LEARNING TO RANK DENGAN METODE SUPPORT VECTOR REGRESSION

BAB 2 KONSEP DASAR PENGENAL OBJEK

BAB III KALMAN FILTER DISKRIT. Kalman Filter adalah rangkaian teknik perhitungan matematika (algoritma)

BAB 2 LANDASAN TEORI

BAB II TINJAUAN PUSTAKA

Pengembangan Aplikasi Prediksi Pertumbuhan Ekonomi Indonesia dengan Jaringan Syaraf Tiruan Backpropagation

PENENTUAN JALUR TERPENDEK PADA APLIKASI OJEK ONLINE GO-JEK DENGAN PROBABILISTIC NEURAL NETWORK (PNN) DAN PARTICLE SWARM OPTIMIZATION (PSO)

PRINCIPAL COVARIATE REGRESSION PADA DATA RUNTUN WAKTU

BAB 2 LANDASAN TEORI

Rancang Bangun Aplikasi Prediksi Jumlah Penumpang Kereta Api Menggunakan Algoritma Genetika

BAB I PENDAHULUAN. A. Latar Belakang Pasar modal merupakan pasar untuk berbagai instrumen keuangan jangka

JARINGAN FUNGSI BASIS RADIAL UNTUK MENENTUKAN RELASI FUZZY PADA PERAMALAN RUNTUN WAKTU FUZZY ORDE TINGGI

Prediksi Pemakaian Listrik Dengan Pendekatan Back Propagation

ESTIMASI PARAMETER MODEL HYBRIDIZING EXPONENTIAL SMOOTHING DAN NEURAL NETWORK PADA HASIL PENGUKURAN MEAN SEA LEVEL SATELIT ALTIMETRI JASON 2

PREDIKSI HARGA SAHAM PERUSAHAAN KELAPA SAWIT MENGGUNAKAN PEMODELAN MLP DAN RBF

Data Mining Terapan dengan Matlab

BAB 1 PENDAHULUAN Latar Belakang

Implementasi dan Analisis Online-Updating Regularization Kernel Matrix Factorization Model pada Sistem Rekomendasi

BAB III MODEL STATE-SPACE. dalam teori kontrol modern. Model state space dapat mengatasi keterbatasan dari

ANALISIS SUPPORT VECTOR REGRESSION

T 11 Aplikasi Model Backpropagation Neural Network Untuk Perkiraan Produksi Tebu Pada PT. Perkebunan Nusantara IX

SISTEM PERSAMAAN LINEAR ( BAGIAN II )

BAB 3 METODOLOGI. seseorang. Hal inilah yang mendorong adanya perkembangan teknologi

UJI KINERJA DAN ANALISIS K-SUPPORT VECTOR NEAREST NEIGHBOR DENGAN SVM DAN ANN BACK-PROPAGATION

BAB II NEURAL NETWORK (NN)

PREDIKSI INDEKS PASAR SAHAM S&P500, DOW JONES DAN NASDAQ COMPOSITE DENGAN MENGGUNAKAN JARINGAN SYARAF TIRUAN METODE BACKPROPAGATION

Transkripsi:

MMA099 Topik Khusus Machine Learning Radial Basis Function Networks Dr. rer. nat. Hendri Murfi Intelligent Data Analysis (IDA) Group Departemen Matematika, Universitas Indonesia Depok 6424 Telp. +62-2-786279/7863439, Fax. +62-2-7863439, Email. hendri@ui.ac.id Machine Learning Input Model Output x x 2 : x D y(x,w) Klasifikasi, regresi, clustering, dll Preprocessing: representasi data (dalam bentuk vektor), ekstraksi/pemilihan fitur dari data, misal x i = (x, x 2,.., x D ) T Learning: pemilihan model dan penentuan parameter model, misal w, berdasarkan data pelatihan (training data) Testing: pengujian metode dengan data penguji (testing data) yang tidak sama dengan data pelatihan, sehingga didapat nilai estimasi untuk kapabilitas generalisasi dari model. 2

Learning Diberikan data pelatihan x i, i = sd N, dan/atau t i, i = sd N Supervised Learning. Data pelatihan disertai target, yaitu {x i, t i }, i = sd N. Tujuan pembelajaran adalah membangun model yang dapat menghasilkan output yang benar untuk suatu data input, misal untuk regresi, klasifikasian, regresi ordinal, ranking, dll Unsupervised Learning. Data pelatihan tidak disertai target, yaitu x i, i = sd N. Tujuan pembelajaran adalah membagun model yang dapat menemukan komponen/variabel/fitur tersembunyi pada data pelatihan, yang dapat digunakan untuk: pengelompokan (clustering), reduksi dimensi (dimension reduction), rekomendasi, dll 3 Supervised Learning Regresi Nilai output t i bernilai kontinu (riil) Bertujuan memprediksi output dari data baru dengan akurat Klasifikasi Nilai output t i bernilai diskrit (kelas) Bertujuan mengklasifikasi data baru dengan akurat 4

Model Linear Model yang umum digunakan untuk menyelesaikan masalah klasifikasi dan regresi adalah model linear, yaitu model yang merupakan kombinasi linear dari fungsi basis: Dimana x = (x, x 2,..., x D ) T adalah variabel input, dan w = (w 0, w,..., w D ) T adalah parameter, φ(x) adalah fungsi basis, M adalah jumlah total parameter dari model Biasanya, φ 0 (x) =, sehingga w 0 berfungsi sebagai bias Ada banyak pilihan yang mungkin untuk fungsi basis φ(x), misal fungsi linear, fungsi polinomial, fungsi gaussian, fungsi sigmoidal, dll 5 Model Linear Kutukan Dimensi Model linear memiliki sifat-sifat yang penting baik dari aspek komputasi maupun analitik. Penggunaan model linear dengan pendekatan parametrik pada metode klasik memiliki keterbatasan pada aplikasi praktis disebabkan oleh kutukan dimensi (curse of dimensionality) y x, w =w 0 w x w 2 x 2 w 3 x 3 D 3 untuk model beorde M, maka pertumbuhan jumlah parameter w proposional dengan D M 6

Model Linear Pendekatan Alternatif Pendekatan alternatif adalah membuat fungsi basis adaptif terhadap data pelatihan dengan jumlah fungsi basis ditentukan didepan. Dengan kata lain, menggunakan bentuk parametrik tidak linear dimana nilai-nilai parameter adaptif terhadap data pelatihan selama proses training. Contoh metode yang menggunakan pendekatan ini adalah neural networks (NN). 7 Model Linear Pendekatan Nonparametrik Pendekatan lain adalah pendekatan nonparametrik, yaitu menetapkan data pelatihan sebagai pusat-pusat fungsi basis. Selanjutnya, memilih sebagian dari fungsi-funsgi basis tersebut selama proses pelatihan untuk menjadi fungsi-fungsi basis dari model final. Dasarnya adalah bahwa data real biasanya memiliki sifat mulus, artinya perubahan sedikit pada data input hanya akan memberikan sedikit perubahan pada output Fungsi basis yang banyak digunakan pada pendekatan nonparametrik ini adalah fungsi kernel. 8

Metode Kernel Fungsi Kernel : Definisi Fungsi kernel adalah suatu fungsi k yang mana untuk semua vektor input x,z akan memenuhi kondisi k(x,z) = φ(x) T φ(z) dimana φ(.) adalah fungsi pemetaan dari ruang input ke ruang fitur Dengan kata lain, fungsi kernel adalah fungsi perkalian dalam (inner product) pada ruang fitur. 9 Fungsi Kernel : Contoh Salah satu contoh fungsi kernel yang banyak digunakan adalah Gaussian radial basis function (RBF), yaitu: k(x,x') = φ( x-x' ) = exp(- x-x' 2 / 2s 2 ) dimana x' adalah inti yang dipilih dari data pelatihan. Contoh: fungsi basis dengan pusat/inti x' = 5 dan bobot w = 0.04 dapat digambarkan sbb: w * k(x,5) = 0.04 * φ( x-5 ) Metode Kernel = 0.04 * exp(- x-5 2 / 2s 2 ) 0

Metode Kernel Fungsi Kernel : Keuntungan Fungsi kernel memungkinkan kita untuk mengimplementasikan suatu model pada ruang dimensi lebih tinggi (ruang fitur) tanpa harus mendefinisikan fungsi pemetaan dari ruang input ke ruang fitur Sehingga, untuk kasus yang nonlinearly separable pada ruang input, diharapkan akan menjadi linearly separable pada ruang fitur Selanjutnya, kita dapat menggunakan hyperplane sebagai decision boundary secara efisien Metode Kernel Fungsi Kernel : Penggunaan Secara umum, ada dua cara penggunaan metode kernel pada machine learning, yaitu: Penggunaan langsung, yaitu fungsi kernel digunakan sebagai fungsi basis dari model machine learning tersebut, contoh: radial basis function networks Penggunaan tidak langsung melalui kernel trick, yaitu merepresentasikan suatu model kedalam representasi dual yang mengandung inner product dari fungsi pemetaan, contoh: kernel linear regression, kernel Perceptron, support vector machine, dll

RBF Networks Definisi Radial Basis Function (RBF) networks adalah model linear dimana fungsi basis berupa radial basis function, yaitu fungsi yang tergantung pada jarak antara argumennya, yaitu φ( x-x n ), sehingga modelnya berbentuk: dimana w n adalah parameter bobot, x n adalah pusat fungsi basis radial RBF networks merupakan suatu homogeneous kernels, yaitu: Misal fungsi kernel Gaussian: M y x = w n x x n n= k(x,x n ) = k( x x n ) = φ( x-x n ) φ( x-x n ) = exp(- x-x n 2 /2σ 2 ) 3 RBF Networks Formulasi Masalah Pembelajaran Asumsikan kita memiliki data pembelajaran {x n, t n }, n = sd N. Selanjutnya, misal semua x n dijadikan sebagai pusat dari fungsi basis, maka modelnya akan menjadi: N y x = w n x x n n= Dengan memisalkan φ n (x i ) = φ( x i -x n ), kita dapat mengekspresikan t i sebagai: N t i = w n n x i e i, dimana i= sd N n= dimana e i adalah error antara t i dan y(x i ) 4

RBF Networks Formulasi Masalah Persamaan sebelumnya dapat ditulis dalam bentuk SPL: t = Pw + e dimana t = [t... t N ] T e = [e... e N ] T w = [w... w N ] T P = [φ... φ Ν ], dimana φ i = [φ i (x )... φ i (x N )] T, dengan i = sd N Selanjutnya, parameter bobot w dapat diperoleh dengan menggunakan metode least quares, yaitu dengan memecahkan SPL normal berikut ini: P T t = P T Pw 5 RBF Networks Contoh Kasus Seorang ahli biologi telah melakukan eksperimen sebanyak 7 kali untuk melihat pertumbuhan bakteri berdasarkan kadar Nitrogen, dan diperoleh kondisi sbb: Kadar Nitrogen (gram) 3 4 6 7 8 9 Pertumbuhan Bakteri 3 4 6 8 8 Tentukan RBF Networks berdasarkan data tsb! Solusi: Dari persoalan diatas diketahui x = {3, 4, 6, 7, 8, 9}, t = {, 3, 4, 6, 8, 8}, N=6 Selanjutnya fungsi basis radial yang digunakan adalah Gaussian dengan σ = 0.5, yaitu: φ( x-x n ) = exp(- x-x n 2 /0.5) 6

RBF Networks Contoh Kasus Dengan menggunakan semua data x sebagai pusat fungsi basis radial, maka:.05 P=[.00.50 2.05 3.08 5.05.05.00.20.50 2.05 3.08.50 2.05.20.50.00.05.05.00.20.05.50.20 Dengan menyelesaikan SPL t = Pw menggunakan metode least squares, yaitu menyelesaikan SPL P t t = P T Pw, maka parameter bobot dapat ditentukan, yaitu: w = [ 227, -029, 5387, -8457, 4744, -884] T Sehingga RBF Networks yang terbentuk adalah 3.08 2.05.20.05.00.05 5.05 3.08.50.20.05.00] y(x) = 227*φ( x -3 ) - 029*φ( x -4 ) + 5387*φ( x -6 ) - 8457*φ( x -7 ) + 4744*φ( x -8 ) - 884*φ( x -9 ) 7 RBF Networks Metode Umum Karena ada satu fungsi basis untuk setiap data pembelajaran, maka model yang terbentuk akan menjadi mahal secara komputasi ketika melakukan prediksi untuk data baru. Untuk itu dibutuhkan mekanisme untuk menentukan lokasi pusat fungsi basis yang optimal, antara lain: Dipilih secara acak dari data pembelajaran Menggunakan algoritma unsupervised learning, misal: metode K-Means Pendekatan secara sistematik, misal: metode orthogonal least square Setelah jumlah lokasi pusat fungsi basis ditentukan, misal M, maka parameter bobot dapat ditentukan dengan menggunakan metode least squares M y x = w n x x n n= 8

RBF Networks Pemilihan Secara Acak ) Dengan memilih 3, 6, dan 9 sebagai pusat fungsi basis radial, maka:.05 P=[.00.50 2.05 3.08 5.05.50.20.00.05.20.50 Dengan menyelesaikan SPL t = Pw menggunakan metode least squares, yaitu menyelesaikan SPL P t t = P T Pw, maka parameter bobot dapat ditentukan, yaitu: w = [ -0.80, 0.5, -2.68] T Sehingga RBF Networks yang terbentuk adalah 5.05 3.08.50.20.05.00] y(x) = -0.80*φ( x -3 ) + 0.5*φ( x -6 ) - 2.68*φ( x -9 ) 9 RBF Networks Pemilihan Dengan Unsupervised Learning 2) Dengan memilih rata-rata nilai x, yaitu x = 6.667, sebagai pusat fungsi basis radial, maka:.80 P=[3.50.00.09.52 2.73] Dengan menyelesaikan SPL t = Pw menggunakan metode least squares, yaitu menyelesaikan SPL P t t = P T Pw, maka parameter bobot dapat ditentukan, yaitu: w = [.95] T Sehingga RBF Networks yang terbentuk adalah y(x) =.95*φ( x -6.667 ) 20

RBF Networks Pemilihan Secara Sistematik Selain dengan menggunakan metode least squares biasa seperti yang sudah dijelaskan sebelumnya, parameter bobot w dapat juga diperoleh dengan menggunakan metode orthogonal least squares (OLS) Selain memiliki propertis numerik yang lebih superior dibandingkan dengan metode least suares biasa, metode OLS juga memungkinkan untuk memilihan lokasi pusat fungsi basis secara lebih sistematik 2 Orthogonal Least Squares Metode Faktorisasi Matrik Metode OLS menggunakan metode faktorisasi matrik untuk menyelesaikan SPL (t = Pw + e), yaitu metode yang akan memfaktorkan matrik koefisien (P) menjadi matrik ortogonal Ada beberapa metode faktorisasi matrik ortogonal yang dapat digunakan, antara lain: Faktorisasi QR, dengan menggunakan teknik Householder Reflection, Given Rotation, Classical Gram-Schmidt, dll Single Value Decomposition (SVD) 22

Orthogonal Least Squares Penentuan Nilai Bobot t = P w + e Faktorisasi QR --> P = S A S adalah matrik orthogonal (S T S = diagonal) A=[ 0 0 a,2 0 a, N a N, N 0 ], matrik segitiga atas () t = S g + e (2) A w = g g = (S T S) - S T t = D - S T t (solusi dengan metode least squares) A dan g diketahui maka w dapat dicari dengan substitusi balik 23 Orthogonal Least Squares Faktorisasi QR: Metode Classical Gram-Schmidt Matrik P difaktorkan menjadi matrik orthogonal S dan matrik segitiga atas A dengan cara sbb: s = p untuk k=2,..., N : ik T p k = w i,k w T i w i k s k = p k ik s i i= Contoh: Faktorisasi QR dari: adalah P = [ 5 S = [ 5 5 ] 4.654 0.923], A = [ 0 0.3846 ] 24

Orthogonal Least Squares Pemilihan Lokasi Pusat Fungsi Basis Metode OLS dapat digunakan untuk mendefiniskan lokasi pusat fungsi basis yang signifikan berdasarkan suatu rasio pereduksi error (error reduction ratio (err)) sbb: t=s g e N e T e=t T t g 2 i s T i s i i= N t T t= g 2 i s T i s i e T e i= N e T e t T t = i= g i 2 s i T s i t T t [err] i = g 2 i s T i s i,n t T t Metode OLS akan memilih data pembelajaran yang memiliki nilai err terbesar pada setiap iterasi sebagai pusat fungsi basis 25 Orthogonal Least Squares Algoritma Diberikan data pembelajaran {x n,t n }, n= sd N dan suatu fungsi basis radial φ(.) Bentuk matrik koefisien P (semua data dijadikan pusat) Langka Pertama, untuk M s = p i g = s T t s T s [err] = g 2 s T s t T t cari [err] = max[err], M dan pilih s =s = p g =g Iterasi pertama adalah untuk menentukan kolom pertama matrik S (s ) yang dipilih dari vektor kolom matrik P yang akan memberikan nilai err terbesar atau yang akan mereduksi error terbesar Selanjutnya solusi least quares yang bersesuaian juga ditentukan, yaitu nilai g 26

Orthogonal Least Squares Algoritma Langka ke k k 2, untuk M jk s k g k T p i = w j, j k w T j w j k = p i j= = s k T t s k T s k jk s j [err] k = g k 2 s k T s k t T t cari [err] k k = max[err] k, M, i i,...,i k dan pilih s k = s k k = g k k g k jk = k jk Algoritma disamping adalah penentuan vektor kolom matrik S selanjutnya (s k ), vektor kolom matrik A (α jk ), dan solusi least square g k Pemilihan pusat akan berhenti jika M [err] j j= dimana 0 < ρ < adalah suatu toleransi. 27 Regularized OLS Regularization Pada aplikasi praktis, kita sering menemukan kondisi dimana ketersediaan data pembelajaran terbatas, sehingga penomena overfitting, yaitu peningkatan error diluar data pembelajaran, sering terjadi Salah satu teknik yang umum digunakan untuk mengkontrol penomena overfitting adalah regularization, yaitu menambahkan suatu pinalti (regularizer) yang berupa parameter bobot pada fungsi error, yaitu: e T e + λw T w Penambahan pinalti tsb bertujuan supaya bobot yang dihasilkan berupa bilangan yang tidak terlalu besar, sehingga fluktuasi prediksi tidak terlalu besar (kurva menjadi lebih mulus) 28

Regularized OLS Penentuan Nilai Bobot t = P w + e Faktorisasi QR --> P = S A S adalah matrik orthogonal (S T S = diagonal) A=[ 0 0 a,2 0 a, N a N, N 0 ], matrik segitiga atas () t = S g + e (2) A w = g g = (S T S + λι Ν ) - S T t = D - S T t (solusi dengan metode least squares) A dan g diketahui maka w dapat dicari dengan substitusi balik 29 Regularized OLS Pemilihan Lokasi Pusat Fungsi Basis Metode OLS dapat digunakan untuk mendefiniskan lokasi pusat fungsi basis yang signifikan berdasarkan suatu rasio pereduksi error (regularized error reduction ratio - rerr) sbb: N t = S g e t T t = g 2 i s T i s i e T e i= N e T e g T g = t T t g 2 i s T i s i N i= g 2 e T e g T i s T i s i g i= = t T t t T t [rerr] i = g 2 i s T i s i, N t T t Metode ROLS akan memilih data pembelajaran yang memiliki nilai rerr terbesar pada setiap iterasi sebagai pusat fungsi basis 30

Regularized OLS Algoritma Diberikan data pembelajaran {x n,t n }, n= sd N dan suatu fungsi basis radial φ(.) Bentuk matrik koefisien P (semua data dijadikan pusat) Langka Pertama, untuk M s = p i g = s T t s T s [err] = g 2 s T s t T t cari [err] = max[err], M dan pilih s =s = p g =g Iterasi pertama adalah untuk menentukan kolom pertama matrik S (s ) yang dipilih dari vektor kolom matrik P yang akan memberikan nilai err terbesar atau yang akan mereduksi error terbesar Selanjutnya solusi least quares yang bersesuaian juga ditentukan, yaitu nilai g 3 Regularized OLS Algoritma Langka ke k k 2, untuk M jk s k g k T p i = w j, j k w T j w j k = p i j= jk s j = s k T t s k T s k [err] k = g k 2 s k T s k t T t cari [err] k k = max[err] k, M, i i,...,i k dan pilih s k = s k k = g k k g k jk = k jk Algoritma disamping adalah penentuan vektor kolom matrik S selanjutnya (s k ), vektor kolom matrik A (α jk ), dan solusi least square g k Pemilihan pusat akan berhenti jika M [err] j j= dimana 0 < ρ < adalah suatu toleransi. 32

Data simulasi dibagun dengan menggunakan persamaan berikut ini: dimana a = 0.2, b = 0., τ = 8 Simulasi Mackey-Glass Time Series Prediction a * s( t τ ) ( b) * s( t ) + untuk t τ + s( t + ) = + s( t τ ) 0 0.3 untuk t τ Data simulasi tersebut terdiri dari 000 titik dengan diberikan noise berdistribusi N(0, 0.), dimana 500 data pertama sebagai data pembelajaran, dan 500 lainnya sebagai data penguji Masalah: memprediksi nilai s(t+) berdasarkan nilai-nilai s(t), s(t-),..., s(t-5) Model: masalah regresi dengan fitur input berdimensi 6, yaitu [s(t), s(t-), s(t- 2), s(t-3), s(t-4), s(t-5)], dan target adalah bilangan real, yaitu [s(t+)] 33 Simulasi Mackey-Glass Time Series Prediction Fungsi basis yang digunakan adalah fungsi Gaussian, yaitu: φ( x-x n ) = exp(- x-x n 2 /2σ 2 ) Parameter model, yaitu σ dan λ, dapat ditentukan dengan menggunakan teknik cross-validation, dimana untuk algoritma OLS hanya parameter σ yang perlu dioptimasi. Pada simulasi ini digunakan algoritma genetik untuk optimasi parameter tsb. Akurasi prediksi diukur dengan menggunakan root mean squares error (RMSE), yaitu: RMSE= MSE= t i y x i 2 i= N Hasil: Algoritma OLS memberikan akurasi RMSE sebesar 0.00047 Algoritma ROLS memberikan akurasi RMSE sebesar 0.000294 34

Simulasi Mackey-Glass Time Series Prediction.6.4 Value of Time Series.2 0.8 0.6 0.4 0.2 0 50 00 50 200 250 300 350 400 450 500 Time Index Ket: garis putus-putus biru adalah fungsi Mackey-Glass, o adalah data pembelajaran, garis merah adalah prediksi dari ROLS 35 Simulasi Composit Stock Index Prediction Data index saham gabungan (composite stock index) untuk simulasi adalah data dari Bursa Efek Jakarta Data pembelajaran berjumlah 24 (tahun 200), sementara data penguji berjumlah 242 (tahun 2002) Fitur yang umum digunakan untuk masalah ini antara lain: moving average (MA), momentum (M), relative strength index (RSI), stochastic (%K), moving average of stochastic (%D) Masalah: memprediksi harga index saham gabungan hari berikutnya s(t+) berdasarkan beberapa fitur, yaitu: s(t), s(t-), MA 5, MA 0, RSI 5 dan M Model: masalah regresi dengan fitur input berdimensi 6, yaitu [s(t), s(t-), MA 5, MA 0, RSI 5, M], dan target adalah bilangan real, yaitu [s(t+)] 36

Simulasi Composit Stock Index Prediction Fungsi basis yang digunakan adalah fungsi Gaussian, yaitu: φ( x-x n ) = exp(- x-x n 2 /2σ 2 ) Parameter model, yaitu σ dan λ, dapat ditentukan dengan menggunakan teknik cross-validation, dimana untuk algoritma OLS hanya parameter σ yang perlu dioptimasi. Pada simulasi ini digunakan algoritma genetik untuk optimasi parameter tsb. Akurasi prediksi diukur dengan menggunakan root mean squares error (RMSE), yaitu: RMSE= MSE= t i y x i 2 i= N Hasil: Algoritma ROLS memberikan akurasi RMSE sebesar 0.4899 37 Simulasi Composit Stock Index Prediction 600.00 Composite Stock Index 500.00 400.00 300.00 Jan-0 May-0 Dec-0 May-02 Oct-02 Time Index Ket: garis putus-putus biru adalah data target, garis merah adalah prediksi dari ROLS 38

Referensi Bishop, C. H., Pattern Recognition and Machine Learning, Springer, 2006 (Bab 6.3) Chen, S., Cowan, C. F. N., Grant, P. M., Orthogonal Least Squares Learning Algorithm for Radial Basis Functions Networks, IEEE Transactions on Neural Networks, Vol. 2, No. 2, 99 Chen, S., Chng, E. S., Alkadhimi, K., Regularized Orthogonal Least Squares Algorithm for Constructing Radial Basis Function Networks, Int. J. Control, Vol. 64, No. 5, 996 Murfi, H., Kerami, D., Regularized Orthogonal Least Squares-based Radial Basis Function Networks and Its Application on Time Series Prediction, Proceeding of SEAMS ICOMA'03, 2003