Studi Modifikasi standard Backpropagasi

dokumen-dokumen yang mirip
Bab 5 Penerapan Neural Network Dalam Klasifikasi Citra Penginderaan Jauh

BAB VIIB BACKPROPAGATION dan CONTOH

PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA BARAT

BACK PROPAGATION NETWORK (BPN)

z_in ( ) dan mengaplikasikan fungsi aktivasi untuk menghitung sinyal output ( ) Propagasi balik:

BAB 2 TINJAUAN PUSTAKA

BAB II DASAR TEORI Jaringan Syaraf Tiruan. Universitas Sumatera Utara

BAB 3 METODOLOGI PENELITIAN

BACK PROPAGATION NETWORK (BPN)

BAB 2 KONSEP DASAR PENGENAL OBJEK

Prediksi Pergerakan Harga Harian Nilai Tukar Rupiah (IDR) Terhadap Dollar Amerika (USD) Menggunakan Metode Jaringan Saraf Tiruan Backpropagation

lalu menghitung sinyal keluarannya menggunakan fungsi aktivasi,

SATIN Sains dan Teknologi Informasi

BAB 2 LANDASAN TEORI. suatu perusahaan yang akan memberikan keuntungan dalam bentuk deviden dan capital

Perbaikan Metode Prakiraan Cuaca Bandara Abdulrahman Saleh dengan Algoritma Neural Network Backpropagation

Bab 4 Model Neural Network

BAB II TINJAUAN PUSTAKA

BAB II LANDASAN TEORI

Jaringan Syaraf Tiruan Menggunakan Algoritma Backpropagation Untuk Memprediksi Jumlah Pengangguran (Studi Kasus DiKota Padang)

Architecture Net, Simple Neural Net

BAB 2 LANDASAN TEORI

IDENTIFIKASI POLA IRIS MENGGUNAKAN METODE BACKPROPAGATION

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MENGETAHUI LOYALITAS KARYAWAN

BAB IV ANALISA DAN PERANCANGAN

BAB 3 PERANCANGAN SISTEM. Bab ini menguraikan analisa penelitian terhadap metode Backpropagation yang

BAB 2 LANDASAN TEORI. Universitas Sumatera Utara

BAB II. Penelitian dengan jaringan syaraf tiruan propagasi balik. dalam bidang kesehatan sebelumnya pernah dilakukan oleh

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI PRODUKTIVITAS PEGAWAI. Jasmir, S.Kom, M.Kom

BAB II DASAR TEORI. 2.1 Citra Digital

BAB 2 HEMISPHERIC STRUCTURE OF HIDDEN LAYER NEURAL NETWORK, PCA, DAN JENIS NOISE Hemispheric structure of hidden layer neural network

SIMULASI DAN PREDIKSI JUMLAH PENJUALAN AIR MENGGUNAKAN JARINGAN SYARAF TIRUAN BACKPROPAGATION (Study Kasus: PDAM TIRTA KEPRI) Ilham Aryudha Perdana

SATIN Sains dan Teknologi Informasi

Jurnal Informatika Mulawarman Vol 5 No. 1 Februari

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PENJUALAN HANDPHONE DENGAN MENGGUNAKAN METODE BACKPROPAGATION (Studi Kasus : CV.

ANALISIS PENAMBAHAN NILAI MOMENTUM PADA PREDIKSI PRODUKTIVITAS KELAPA SAWIT MENGGUNAKAN BACKPROPAGATION

ANALISIS ALGORITMA INISIALISASI NGUYEN-WIDROW PADA PROSES PREDIKSI CURAH HUJAN KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

BACKPROPAGATION NEURAL NETWORK AS A METHOD OF FORECASTING ON CALCULATION INFLATION RATE IN JAKARTA AND SURABAYA

Presentasi Tugas Akhir

Arsitektur Jaringan Salah satu metode pelatihan terawasi pada jaringan syaraf adalah metode Backpropagation, di mana ciri dari metode ini adalah memin

JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI CURAH HUJAN SUMATERA UTARA DENGAN METODE BACK PROPAGATION (STUDI KASUS : BMKG MEDAN)

BAB 2 TINJAUAN PUSTAKA

BAB III ANALISIS DAN PERANCANGAN SISTEM. forecasting produksi gula berdasarkan hasil laporan tahunan PTPN IX

1.1. Jaringan Syaraf Tiruan

METODOLOGI PENELITIAN

BAB 2 TINJAUAN PUSTAKA

BAB III METODE PENELITIAN

Prediksi Jumlah Penjualan Air Mineral Pada Perusahaan XYZ Dengan Jaringan Saraf Tiruan

BAB IV PERANCANGAN & IMPLEMENTASI SISTEM

BAB 3 ANALISIS DAN PERANCANGAN SISTEM

BAB 1 PENDAHULUAN Latar Belakang

Jurnal Coding, Sistem Komputer Untan Volume 04, No.2 (2016), hal ISSN : x

ANALISIS LEARNING RATES PADA ALGORITMA BACKPROPAGATION UNTUK KLASIFIKASI PENYAKIT DIABETES

IDENTIFIKASI FAKTOR KETIDAKNYAMANAN PADA PEKERJA PENGRAJIN PATUNG PRIMITIF DENGAN MENGGUNAKAN JARINGAN SYARAF TIRUAN ABSTRAK

KLASIFIKASI ARITMIA EKG MENGGUNAKAN JARINGAN SYARAF TIRUAN DENGAN FUNGSI AKTIVASI ADAPTIF

MODEL PEMBELAJARAN JARINGAN SYARAF TIRUAN UNTUK OTOMATISASI PENGEMUDIAN KENDARAAN BERODA TIGA

MATERI DAN METODE. Cara Pengambilan Data

Muhammad Fahrizal. Mahasiswa Teknik Informatika STMIK Budi Darma Jl. Sisingamangaraja No. 338 Simpanglimun Medan

Pengembangan Aplikasi Prediksi Pertumbuhan Ekonomi Indonesia dengan Jaringan Syaraf Tiruan Backpropagation

Jurnal Ilmiah Komputer dan Informatika (KOMPUTA) 1 Edisi.,Volume,. Bulan.. ISSN :

Implementasi Metode Backpropagation Untuk Klasifikasi Kenaikan Harga Minyak Kelapa Sawit

BAB III METODE EGARCH, JARINGAN SYARAF TIRUAN DAN NEURO-EGARCH

BAB 2 TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA

PREDIKSI CURAH HUJAN DI KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

Proses Pembelajaran dengan BackPropagation pada kasus penyakit asma

PREDIKSI PENDAPATAN ASLI DAERAH KALIMANTAN BARAT MENGGUNAKAN JARINGAN SYARAF TIRUAN BACKPROPAGATION

BAB 2 LANDASAN TEORI

BAB II LANDASAN TEORI

Abstrak. Kata kunci : Jaringan Syaraf Tiruan, Backpropagation, Prakiraan Beban. 1. Pendahuluan

ANALISA NILAI UJIAN MASUK STT WASTUKANCANA BERDASARKAN NILAI UJIAN NASIONAL MENGGUNAKAN METODE BACKPROPAGATION

Peramalan Dosis Pupuk Berdasarkan Karakteristik dan Lingkungan Tanaman Jeruk Siam Menggunakan Metode Backpropagation

BAB 2 LANDASAN TEORI

ANALISIS PENAMBAHAN MOMENTUM PADA PROSES PREDIKSI CURAH HUJAN KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

BAB 2 TINJAUAN PUSTAKA

VOL. 01 NO. 02 [JURNAL ILMIAH BINARY] ISSN :

ANALISIS VARIASI PARAMETER LEARNING VECTOR QUANTIZATION ARTIFICIAL NEURAL NETWORK TERHADAP PENGENALAN POLA DATA ODOR

ANALISIS PENGGUNAAN ALGORITMA KOHONEN PADA JARINGAN SYARAF TIRUAN BACKPROPAGATION DALAM PENGENALAN POLA PENYAKIT PARU

NEURAL NETWORK BAB II

ANALISIS JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI JUMLAH RESERVASI KAMAR HOTEL DENGAN METODE BACKPROPAGATION (Studi Kasus Hotel Grand Zuri Padang)

PENGENALAN HURUF DAN ANGKA PADA CITRA BITMAP DENGAN JARINGAN SARAF TIRUAN METODE PROPAGASI BALIK

APLIKASI ESTIMASI REGISTRASI MAHASISWA BARU MENGGUNAKAN METODE JARINGAN SYARAF TIRUAN BERDASARKAN PERBANDINGAN RATIO DOSEN DAN MAHASISWA

PERAMALAN INDEKS HARGA SAHAM GABUNGAN MENGUNAKAN BACKPROPAGATION DAN ALGORITMA GENETIKA

BAB II TINJAUAN PUSTAKA

ANALISIS JARINGAN SARAF TIRUAN BACKPROPAGATION TERHADAP PERAMALAN NILAI TUKAR MATA UANG RUPIAH DAN DOLAR

PREDIKSI NILAI UAS SISWA SMK MENGGUNAKAN ALGORITMA LEVENBERG-MARQUARDT (Studi Kasus : SMK Negeri 4 Tanjungpinang)

PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA UTARA MENGGUNAKAN METODE BACKPROPAGATION

JARINGAN SYARAF TIRUAN

BAB II TEORI DASAR. Gambar 2.1 Anatomi Jantung

Aplikasi Graf pada Artificial Neural Network dan Backpropagation Algorithm

UNIVERSITAS INDONESIA PENGEMBANGAN JARINGAN SYARAF TIRUAN DENGAN METODE SOM FUZZY DAN LVQ FUZZY TESIS DWI SUDARNO PUTRA

Peramalan Penjualan Mobil Menggunakan Jaringan Syaraf Tiruan dan Certainty Factor

BAB II TINJAUAN PUSTAKA

BAB 2 LANDASAN TEORI

BAB II LANDASAN TEORI. Peramalan pada dasarnya merupakan proses menyusun informasi tentang

BAB II LANDASAN TEORI

134 Sutikno, Indriyati, Sukmawati N.E, Priyo S.S., Helmie A.W., Indra W., Nurdin B., Tri Wardati K., Raditya L.R. dan Diah Putu D.

BAB III METODOLOGI PENELITIAN. Model sistem presensi biometri sidik jari yang dikembangkan secara garis

JURNAL TEKNIK ITS Vol. 1, (Sept, 2012) ISSN: A-222

WAVELET -JARINGAN SYARAF TIRUAN UNTUK PREDIKSI DATA TIME SERIES

BAB 2 LANDASAN TEORI

Transkripsi:

Studi Modifikasi standard Backpropagasi 1. Modifikasi fungsi objektif dan turunan 2. Modifikasi optimasi algoritma Step Studi : 1. Studi literatur 2. Studi standard backpropagasi a. Uji coba standar backpropagasi pada xor problem b. Evaluasi karakteristik standar backpropagasi 1). Tingkat konvergensi ke global minimum 2). Tingkat akurasi output 3. Studi modifikasi standar backpropagasi a. Uji coba modifikasi standar backpropagasi pada xor problem b. Evaluasi karakteristik modifikasi standar backpropagasi 1). Tingkat konvergensi ke global minimum 2). Tingkat akurasi output 4. Membandingkan standar dan modifikasi backpropagasi a. Tingkat konvergensi ke global minimum b. Tingkat akurasi output 5. Implementasi a. Programing b. Management Database

Backpropagasi Backpropagasi merupakan algoritma pelatihan untuk memperkecil tingkat error dengan menyesuaikan bobot berdasarkan perbedaan output dan target yang diinginkan. Proses pelatihan : 1. Pengambilan input 2. Penelusuran error 3. Penyesuaian bobot Arsitektur : Y 1 Y k Y m w 01 w 11 w j1 w p1 w ok W 1k W jk W pk w 0m W 1m Wjm W pm 1 Z 1 Z j Z p V 01 V 11 V j1 V n1 V oj V 1j V ij V nj V 0p V 1p V ip V np 1 X 1 X j X n

Algoritma : Step 0 : Inisialisai Bobot Random Nguyen-Widrow Step 1 : Selama kondisi stopping FALSE, lakukan Step 2-9 Step 2 : Untuk setiap pasangan pelatihan, lakukan Step 3-8 (Proses Feedforward) : Step 3 : Setiap unit input (X i, i = 1,,n) : menerima input x i mengirimkannya ke semua unit layer diatasnya (Hidden layer). Step 4 : Setiap unit hidden (Z j, j = 1,,p) menghitung semua sinyal input dengan bobotnya : z_in j = v oj + Σ x i v ij menghitung nilai aktivasi setiap unit hidden sebagai output unit hidden : z j = f(z_in j ) mengirim nilai aktivasi sebagai input untuk unit output. Step 5 : Setiap unit output (Y k, k = 1,,m) menghitung semua sinyal inputnya dengan bobotnya : y_in k = w ok + Σ z j w jk * menghitung nilai aktivasi setiap unit output sebagai output jaringan. y k = f(y_in k ) (Backpropagation of error) : Step 6 : Setiap unit output (Y k, k = 1,,m) : menerima pola target yang bersesuaian dengan pola input menghitung informasi error : δ k = (t k - y k ) f (y_in k ) menghitung besarnya koreksi bobot unit output : w jk = α E(w jkj )/ w jk = α δ k z j menghitung besarnya koreksi bias output : w 0k = α δ k mengirimkan δ k ke unit-unit yang ada pada layer di bawahnya.

Step 7 : Setiap unit hidden (Z j, j = 1,,p) : * menghitung semua koreksi error : δ_in j = Σ δ k w jk menghitung nilai aktivasi koreksi error : δ j = δ_in j f (z_in j ) menghitung koreksi bobot unit hidden : v ij = α δ j x i * menghitung koreksi error bias unit hidden : v 0j = α δ j Step 8 : Setiap unit output (Y k, k = 1,,m) : * meng-update bobot dan biasnya (j = 0,,p) : w jk(baru) = w jk(lama) + w jk w 0k(baru) = w 0k(lama) + w 0k Setiap unit hidden (Z j, j = 1,,p) * meng-update bobot dan biasnya (i = 0,,n) : v ij(baru) = v ij(lama) + v ij v 0j(baru) = v 0j(lama) + v 0j Step 9 : Kondisi stopping ( Toleransi error )

Metode Inisialisasi Nguyen Widrom : Menentukan faktor skala : β = 0.7 (p) 1/n β : faktor skala n : jumlah unit input p : jumlah unit hidden Algoritma : Untuk setiap unit hidden (j=1,..., p) : Inisialisasi bobot secara random v ij = bilangan acak antara -0.5 sampai 0.5 p Hitung : v j = { Σ (v ij ) 2 } i=1 Update bobot v ij = β v ij v j Set bias v 0j : bilangan acak antara - β sampai β

Ar si t ekt ur JNPB JNPB terdiri dari satu lapis masukan satu atau lebih lapis tersembunyi satu lapis keluaran. Lapisan masukan hanya bertugas meneruskan masukan dan tidak melakukan komputasi, sementara lapisan tersembunyi dan lapisan keluaran melakukan komputasi. Jumlah neuron pada lapisan masukan sama dengan jumlah ciri atau atribut pada pola yang akan dikenali, sedang jumlah neuron pada lapisan keluaran sama dengan jumlah kelas pola. Lapisan Y 1 Y k keluaran Y m w 01 w 11 w j1 w p1 w ok W 1k W jk W pk w 0m W 1m Wjm W pm Lapisan tersembunyi 1 Z 1 Z j Z p V 01 V 11 V j1 V n1 V oj V 1j V ij V nj V 0p V 1p V ip V np Lapisan masukan 1 X 1 X j X n

Algoritma 1. Tentukan inisialisasi bobot awal Random Nguyen Widrow 2. Mekanisme komputasi jaringan Terdapat dua macam jenis komputasi, komputasi maju (forward pass) komputasi balik (backward pass). 2.a. Komputasi Maju Dalam komputasi maju, menghitung nilai aktivasi semua neuron (lapis tersembunyi dan lapis keluaran); mulai dari neuron masukan menuju neuron keluaran 1. Neuron pada lapis tersembunyi menghitung nilai total masukan : menjumlahkan perkalian sinyal masukan dari lapisan masukan dengan bobot antara lapisan masukan dan lapisan tersembunyi, dan bias tertentu. 2. Neuron tersebut lalu menghitung nilai aktivasi dengan menerapkan fungsi aktifasi pada nilai total masukan. 3. Sinyal keluaran dari lapisan tersembunyi menjadi masukan bagi lapisan keluaran. Neuron pada lapisan keluaran menghitung nilai total masukan neuron keluaran (lihat 1). 4. Neuron bersangkutan menghitung nilai aktivasi neuron keluaran dengan menerapkan fungsi aktifasi pada nilai total masukan neuron kelurana (lihat 2).

Step 1 : Selama kondisi stopping FALSE, lakukan Step 2-9 Step 2 : Untuk setiap pasangan pelatihan, lakukan Step 3-8 (Proses Feedforward) : Step 3 : Setiap unit input (X i, i = 1,,n) : menerima input x i mengirimkannya ke semua unit layer diatasnya (Hidden layer). Step 4 : Setiap unit hidden (Z j, j = 1,,p) menghitung semua sinyal input dengan bobotnya : z_in j = v oj + Σ x i v ij menghitung nilai aktivasi setiap unit hidden sebagai output unit hidden : z j = f(z_in j ) mengirim nilai aktivasi sebagai input untuk unit output. Step 5 : Setiap unit output (Y k, k = 1,,m) menghitung semua sinyal inputnya dengan bobotnya : y_in k = w ok + Σ z j w jk * menghitung nilai aktivasi setiap unit output sebagai output jaringan. y k = f(y_in k ) 2.b. Perhitungan Komputasi Balik Komputasi balik dimulai dari lapisan keluaran. Komputasi balik bertujuan untuk menyesuaikan bobot dalam jaringan. 1. Setiap neuron di lapisan keluaran menghitung selisih target keluaran dan sinyal keluaran. 2. Setiap neuron di lapisan keluaran menghitung dan menyesuaikan bobot hubungan dari dirinya ke semua neuron di lapisan tersembunyi. 3. Propagasikan sinyal kesalahan ke lapisan tersembunyi sehingga setiap neuron di lapisan tersembunyi menghitung dan menyesuaikan

bobot hubungan dari dirinya ke semua neuron di lapisan masukan (lihat 2) Fungsi Kesal ahan Algoritme propagasi balik menggunakan prosedur gradient descent atau menuruni lembah permukaan error, untuk meminimisasi suatu fungsi kesalahan. Fungsi kesalahan yang umum dipakai ialah fungsi error kuadratis: E = 1 2 2 (d k - o k ) (2.11) k At ur an Pembel aj ar an Proses pembelajaran JNPB adalah sebagai berikut: 1. Inisialisasi bobot awal. 2. Untuk tiap pola pelatihan lakukan langkah 3 dan langkah 4. 3. Lakukan langkah komputasi maju: Setiap neuron di lapisan masukan menerima sinyal x i dan meneruskannya ke semua neuron di lapisan tersembunyi. Setiap neuron di lapisan tersembunyi menjumlahkan sinyal masukan yang dikalikan dengan bobot bersesuaian: Z_ in = v + x v j 0 j i ij i= 1 n lalu menghitung sinyal keluaran dengan fungsi aktifasi: Z j = f ( Z_ in ) j dan meneruskan sinyal ini pada semua neuron di lapisan keluaran.

Setiap neuron di lapisan keluaran menjumlahkan sinyal masukan yang dikalikan dengan bobot bersesuaian: y_ in = w + z w k 0k j jk j= 1 p lalu menghitung sinyal keluaran dengan fungsi aktifasi: y j = f ( y_ in ) k 4. Lakukan komputasi balik : a. Komputasi di lapis keluaran: Setiap neuron di lapisan keluaran diberikan target masukan tertentu. Hitung sinyal error δ k untuk setiap neuron k di lapisan ini: = ( t y ) f ( y_ in ) ' δ k k k k Hitung modifikasi bobot untuk setiap hubungan antara neuron bersangkutan dengan semua neuron di lapisan tersembunyi: w = αδ z jk k j Hitung modifikasi bias untuk setiap neuron di lapisan keluaran: w 0 k = αδ k b. Komputasi di lapis tersembunyi: Hitung sinyal error δ j untuk setiap neuron j di lapisan tersembunyi: m ' d = ( δ w ) f ( z_ in ) j k jk j k = 1

Hitung modifikasi bobot untuk hubungan antara neuron bersangkutan dengan semua neuron di lapisan masukan: v = αδ x ij j i Hitung modifikasi bias untuk setiap neuron di lapisan tersembunyi: v0 j = αδ j i Ubah bobot dan bias w ( new) = w ( old) + w v ( new) = v ( old) + v jk jk jk ij ij ij Bias juga dirubah Wok baru = wok lama + alfa.wok lama Voj baru = voj lama + alfa.voj lama 5. Uji kriteria kesalahan, bila kesalahan lebih besar dari batas yang telah ditetapkan, ulangi langkah 2 sampai 4; bila tidak, pelatihan selesai. Fakt or - f akt or dal am Pembel aj ar an Beberapa faktor yang mempengaruhi keberhasilan algoritme propagasi balik, antara lain: 1. Inisialisasi bobot Bobot awal menentukan apakah jaringan akan mencapai global minima atau local minima kesalahan, dan seberapa cepat jaringan akan konvergen. Inisialisasi acak merupakan cara yang paling sering

digunakan dalam inisialisasi bobot. Untuk mempercepat proses pelatihan, suatu modifikasi dari inisialisasi acak diperkenalkan oleh Nguyen dan Widrow. Inisialisasi Nguyen-Widrow didefinisikan sebagai: Untuk bias dan bobot hubungan antara semua neuron di lapisan tersembunyi dan semua neuron di lapisan keluaran, lakukan inisialisasi acak dengan jangkauan -0,5 dan 0,5. Untuk bias bobot hubungan antara lapisan tersembunyi dan lapisan masukan, lakukan sebagai berikut: Hitung β = 0.7 (P) 1/N di mana adalah faktor skala, P adalah ukuran lapisan tersembunyi dan N adalah ukuran lapisan masukan. Untuk setiap neuron j di lapisan tersembunyi, lakukan sebagai berikut: Inisialisasi secara acak bobot antara neuron bersangkutan dengan semua neuron di lapisan masukan: w ij = bilangan acak antara -0,5 dan 0,5. Hitung norma wj: w j = w ij i Inisialisasi kembali wij: w = ij β w ij w j (2.12) Inisialisasi bias: θj = bilangan acak antara -β dan β. Sebagai pengganti inisialisasi acak, dalam tugas akhir ini akan dipakai inisialisasi Nguyen-Widrow. 2. Laju pembelajaran Merupakan parameter jaringan dalam mengendalikan proses penyesuaian bobot. Nilai laju pembelajaran yang optimal bergantung pada kasus yang dihadapi. Laju pembelajaran yang terlalu kecil menyebabkan konvergensi jaringan menjadi lebih lambat, sedang laju pembelajaran yang terlalu besar dapat menyebabkan ketidakstabilan pada jaringan

3. Momentum Momentum digunakan untuk mempercepat pelatihan jaringan. Metode momentum melibatkan penyesuaian bobot ditambah dengan faktor tertentu dari penyesuaian sebelumnya. Penyesuaian ini dinyatakan sebagai berikut: w jk ( t + 1) = αδ k z j + µ w jk ( t) (2.13) Notasi : X : nilai masukan, X = ( X 1,... X i,...x n ) v : bobot antara bias atau input dengan hidden Z : nilai aktivasi hidden, Z = ( Z 1,... X j,...x p ) Z j = f (z_in) z_in j = v 0j +Σ x i v ij i=1 n w : bobot antara bias atau hidden dengan output Y : nilai output aktual, Y = ( Y 1,... Y k,...y m ) Y k = f (y_in) y_in k = w 0k +Σ x i v ij k=1 p Update bobot : tanpa momentum w jk(t+1) = w jk(t) + w jk w jk = - α E(w jk ) w jk v ij(t+1) = v ij(t) + v ij

v ij = - α E(v ij ) v ij Update bobot : dengan momentum w jk(t+1) = w jk(t) + w jk + η w jk(t-1) w jk = - α E(w jk ) w jk v ij(t+1) = v ij(t) + v ij + η v ij(t-1) v ij = - α E(v ij ) v ij Fungsi Error : Kuadratik E = 0.5 Σ k (t k - Y k ) 2 Untuk update bobot antara hidden dan output ; E = E Y k y_in k w jk Y k y_in k w jk E = - Σ k (t k - Y k ) Y k Y k = f(y_in k ) Y k = f (y_in k )

y_in k y_in k = w ok + Σ z j w jk y_in k = z j w jk E(w jk ) = - Σ k (t k - Y k ) f (y_in k ) z j w jk didefinisikan : δ k = Σ k (t k - y k ) (f (y_in)) E(w jk ) = - δ k Z j w jk W = - α (- δ k Zj )= α δ k Z j Untuk update bobot antara input dan hidden ; E = E Y k y_in k z j z_in j v ij Y k y_in k z j z_in j v ij E = - Σ k (t k - Y k ) Y k Y k = f(y_in k ) Y k = f (y_in k ) y_in k y_in k = w ok + Σ z j w jk

y_in k = w jk z j z j = f (z_in j ) z_in j z_in j = v 0j +Σ x i v ij i=1 n z_in j = x i v ij E = - Σ k (t k - Y k ) f (y_in k ) w jk f (z_in j ) X i v ij didefinisikan : δ k = Σ k (t k - y k ) (f (y_in)) E = - Σ k δ k w jk f (z_in j ) X i v ij didefinisikan : δ j = Σ k δ k w jk f (z_in j ) E = - δ j X j v ij V = - α (- δ j X i )= α δ j X i