ABSTRAKSI I. PENDAHULUAN

dokumen-dokumen yang mirip
BAB 2 KONSEP DASAR PENGENAL OBJEK

METODOLOGI PENELITIAN

BAB 2 LANDASAN TEORI

ANALISIS PENAMBAHAN NILAI MOMENTUM PADA PREDIKSI PRODUKTIVITAS KELAPA SAWIT MENGGUNAKAN BACKPROPAGATION

BAB II DASAR TEORI Jaringan Syaraf Tiruan. Universitas Sumatera Utara

BAB 2 LANDASAN TEORI

BAB II LANDASAN TEORI

BAB IV IMPLEMENTASI DAN PENGUJIAN

MODEL PEMBELAJARAN JARINGAN SYARAF TIRUAN UNTUK OTOMATISASI PENGEMUDIAN KENDARAAN BERODA TIGA

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB 2 TINJAUAN PUSTAKA

SATIN Sains dan Teknologi Informasi

BAB 2 LANDASAN TEORI. fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses

BAB II NEURAL NETWORK (NN)

Neural Network (NN) Keuntungan penggunaan Neural Network : , terdapat tiga jenis neural network Proses Pembelajaran pada Neural Network

Penerapan Jaringan Saraf Tiruan Metode Backpropagation Menggunakan VB 6

BAB 2 LANDASAN TEORI

BAB 3 METODOLOGI PENELITIAN

Architecture Net, Simple Neural Net

BAB 2 LANDASAN TEORI

Aplikasi yang dibuat adalah aplikasi untuk menghitung. prediksi jumlah dalam hal ini diambil studi kasus data balita

Gambar 2.1 Neuron biologi manusia (Medsker & Liebowitz, 1994)

BAB II TINJAUAN PUSTAKA

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI VOLUME PEMAKAIAN AIR BERSIH DI KOTA PONTIANAK

Jaringan Syaraf Tiruan

VOL. 01 NO. 02 [JURNAL ILMIAH BINARY] ISSN :

BAB 3 PERANCANGAN SISTEM. Bab ini menguraikan analisa penelitian terhadap metode Backpropagation yang

BAB 2 LANDASAN TEORI. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu

BAB IV JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK)

Architecture Net, Simple Neural Net

BAB 1 PENDAHULUAN. 1 Universitas Kristen Maranatha. Gambar 1.1 : Ilustrasi jaringan syaraf manusia yang diadaptasi untuk ANN (Kriesel, 2011)

I PENDAHULUAN II LANDASAN TEORI

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MENGETAHUI LOYALITAS KARYAWAN

IMPLEMENTASI ALGORITMA PERCEPTRON UNTUK PENGENALAN POLA MASUKAN BINER MAUPUN BIPOLAR MENGGUNAKAN BORLAND DELPHI

Jurnal Informatika Mulawarman Vol 5 No. 1 Februari

PREDIKSI CURAH HUJAN DI KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

Bab 5 Penerapan Neural Network Dalam Klasifikasi Citra Penginderaan Jauh

KLASIFIKASI ARITMIA EKG MENGGUNAKAN JARINGAN SYARAF TIRUAN DENGAN FUNGSI AKTIVASI ADAPTIF

BAB VIIB BACKPROPAGATION dan CONTOH

ARTIFICIAL NEURAL NETWORK TEKNIK PERAMALAN - A

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PENYAKIT SALURAN PERNAFASAN DENGAN METODE BACKPROPAGATION

BAB 2 LANDASAN TEORI

BAB 3 METODOLOGI PENELITIAN

PENGENALAN HURUF DAN ANGKA PADA CITRA BITMAP DENGAN JARINGAN SARAF TIRUAN METODE PROPAGASI BALIK

IMPLEMENTASI JARINGAN SYARAF TIRUAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI HARGA SAHAM

BAB 2 TINJAUAN PUSTAKA

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PENJUALAN OBAT Pada PT. METRO ARTHA PRAKARSA MENERAPKAN METODE BACKPROPAGATION

II. TINJAUAN PUSTAKA. 2.1 Pembenihan Ikan. 2.2 Pengaruh Suhu Terhadap Ikan

BACK PROPAGATION NETWORK (BPN)

APLIKASI JARINGAN SYARAF TIRUAN MULTI LAYER PERCEPTRON PADA APLIKASI PRAKIRAAN CUACA

PERAMALAN HARGA SAHAM PERUSAHAAN MENGGUNAKAN ARTIFICIAL NEURAL NETWORK DAN AKAIKE INFORMATION CRITERION

RANCANG BANGUN TOOL UNTUK JARINGAN SYARAF TIRUAN (JST) MODEL PERCEPTRON

PERBANDINGAN ALGORITMA PARTICLE SWARM OPTIMIZATION DAN REGRESI PADA PERAMALAN WAKTU BEBAN PUNCAK

ANALISIS VARIASI PARAMETER LEARNING VECTOR QUANTIZATION ARTIFICIAL NEURAL NETWORK TERHADAP PENGENALAN POLA DATA ODOR

lalu menghitung sinyal keluarannya menggunakan fungsi aktivasi,

BAB 3 ANALISIS DAN PERANCANGAN SISTEM

PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA BARAT

Sebelumnya... Pembelajaran Mesin/Machine Learning Pembelajaran dengan Decision Tree (ID3) Teori Bayes dalam Pembelajaran

JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI CURAH HUJAN SUMATERA UTARA DENGAN METODE BACK PROPAGATION (STUDI KASUS : BMKG MEDAN)

Klasifikasi Pola Huruf Vokal dengan Menggunakan Jaringan Saraf Tiruan

BAB 1 PENDAHULUAN Latar Belakang

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI PRODUKTIVITAS PEGAWAI. Jasmir, S.Kom, M.Kom

BAB 3 METODOLOGI PENELITIAN

MATERI DAN METODE. Cara Pengambilan Data

BAB III PERANCANGAN DAN IMPLEMENTASI SISTEM

BAB 4 DISAIN MODEL. Pengguna. Citra. Ekstraksi Ciri x. Antar muka (Interface) Data Hasil Ekstraksi Ciri. Testing dan Identifikasi.

BAB III ANALISIS DAN PERANCANGAN

ANALISIS PENGGUNAAN ALGORITMA KOHONEN PADA JARINGAN SYARAF TIRUAN BACKPROPAGATION DALAM PENGENALAN POLA PENYAKIT PARU

BAB 2 TINJAUAN PUSTAKA. menggunakan teknik statistik, matematika, kecerdasan buatan, tiruan dan machinelearning

PENGENALAN KARAKTER ALFANUMERIK MENGGUNAKAN METODE BACKPROPAGARATION

PREDIKSI KELULUSAN MAHASISWA MENGGUNAKAN METODE NEURAL NETWORK DAN PARTICLE SWARM OPTIMIZATION

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) ERWIEN TJIPTA WIJAYA, ST, M.KOM

Pengenalan Karakter Manusia Melalui Bentuk Wajah dengan Metode Back Propagation Jaringan Saraf Tiruan

Analisis Jaringan Saraf Tiruan Model Perceptron Pada Pengenalan Pola Pulau di Indonesia

Jaringan Syaraf Tiruan. Disusun oleh: Liana Kusuma Ningrum

ANALISIS FUNGSI AKTIVASI SIGMOID BINER DAN SIGMOID BIPOLAR DALAM ALGORITMA BACKPROPAGATION PADA PREDIKSI KEMAMPUAN SISWA

BAB II LANDASAN TEORI

PERANCANGAN ALGORITMA BELAJAR JARINGAN SYARAF TIRUAN MENGGUNAKAN PARTICLE SWARM OPTIMIZATION (PSO)

ANALISIS PENAMBAHAN MOMENTUM PADA PROSES PREDIKSI CURAH HUJAN KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

BAB II TINJAUAN PUSTAKA

ABSTRACT. Kata kunci: Fuzzy Tsukamoto, Jaringan Syaraf Tiruan, Backpropagation 1. LATAR BELAKANG MASALAH

Jurnal Coding, Sistem Komputer Untan Volume 04, No.2 (2016), hal ISSN : x

PERANCANGAN PROGRAM PENGENALAN BENTUK MOBIL DENGAN METODE BACKPROPAGATION DAN ARTIFICIAL NEURAL NETWORK SKRIPSI

PERANCANGAN APLIKASI MENGIDENTIFIKASI PENYAKIT MATA DENGAN MENGGUNAKAN METODE BACKPROPAGATION

PENGENALAN AKSARA JAWAMENGGUNAKAN LEARNING VECTOR QUANTIZATION (LVQ)

APLIKASI JARINGAN SARAF TIRUAN UNTUK INVENTARISASI LUAS SUMBER DAYA ALAM STUDI KASUS PULAU PARI

Prediksi Curah Hujan Di Kota Pontianak Menggunakan Parameter Cuaca Sebagai Prediktor Pada Skala Bulanan, Dasarian Dan Harian Asri Rachmawati 1)*

BAB III PERANCANGAN SISTEM

BACK PROPAGATION NETWORK (BPN)

Jaringan Syaraf Tiruan Menggunakan Algoritma Backpropagation Untuk Memprediksi Jumlah Pengangguran (Studi Kasus DiKota Padang)

BAB II TINJAUAN PUSTAKA

IMPLEMENTASI JARINGAN SYARAF TIRUAN MULTI LAYER FEEDFORWARD DENGAN ALGORITMA BACKPROPAGATION SEBAGAI ESTIMASI NILAI KURS JUAL SGD-IDR

BAB 2 LANDASAN TEORI

ANALISIS ALGORITMA INISIALISASI NGUYEN-WIDROW PADA PROSES PREDIKSI CURAH HUJAN KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

BAB 2 TINJAUAN PUSTAKA

Farah Zakiyah Rahmanti

PEMANFAATAN NEURAL NETWORK PERCEPTRON PADA PENGENALAN POLA KARAKTER

BAB I PENDAHULUAN. universitas swasta yang memiliki 7 Fakultas dengan 21 Program Studi yang

Presentasi Tugas Akhir

METODOLOGI PENELITIAN

Transkripsi:

ABSTRAKSI Back Propagation merupakan teknik yang sering digunakan untuk generalisasi pada Delta Rule. Delta Rule merupakan aturan yang berdasarkan pada ide sederhana yaitu secara berkesinambungan memodifikasi strength koneksi untuk mereduksi selisih / beda ( disebut Delta) antara nilai keluaran yang diinginkan terhadap nilai keluaran saat itu dari hasil pemrosesan elemennya. Algoritma Back Propagation pada saat diterapkan kemungkinan akan mempunyai pembelajaran yang rendah, dimana hal tersebut berhubungan dengan laju pembelajaran yang tetap. Karena hal itulah diperlukan suatu metoda pembelajaran dimana pengubahan nilai pada parameternya akan menyebabkan laju pembelajaran adaptif, sehingga iterasi yang berlebihan untuk mencapai konvergensi akan dapat dikurang. Adaptasi laju pembelajaran delta-bar-delta adalah salah satu metoda pengubahan laju pembelajaran yang diharapkan dapat mempercepat konvergensi dari backpropagation. Penelitian mengenai penerapan adaptasi laju pembelajaran dan penggunaan parameternya memerlukan suatu perangkat lunak, sekaligus juga untuk mengetahui pengaruhnya pada backpropagation. Tugas Akhir ini menyakan suatu perangkat lunak untuk mensaranai penelitian diterapkannya Adaptasi Laju Pembelajaran Delta-bar-delta pada Backpropagation dan melihat pengaruh parameter Delta-bar-delta (, dan ) pada kinerja Backpropagation. Penguan pada Delta-bar-delta memperlihatkan bahwa sistem konvergen pada iterasi 10 sampai iterasi ke 40, sedangkan pada backpropagation standar cenderung konvergen pada iterasi acak. Perangkat lunak menggunakan bahasa pemrograman aras tinggi Borland Delphi 3.0. I. PENDAHULUAN Latar Belakang Jaringan Saraf Tiruan (Artificial Neural Network) melakukan pemetaan antara vektor masukan dan keluaran. Penamaan Jaringan Saraf Tiruan karana kemiripan strukturnya dengan apa yang ada pada otak manusia. Karakteristik jaringan ini ditentukan oleh sekumpulan elemen pemroses sederhana (atau disebut neuron ) yang dikoneksikan oleh weighted links. [8] Jaringan Saraf Tiruan terdiri dari sekumpulan weighted links dan sekumpulan node. Node dikelompokkan dalam suatu layer. Layer yang bukan merupakan masukan maupun keluaran dikenal sebagai hidden layer[8]. Algoritma yang efektif dan sering digunakan untuk algoritma supervised learning pada Jaringan Saraf Tiruan adalah Algoritma Backpropagation. Algoritma ini merupakan generalisasi dari delta rule (perceptron learning rule). Backpropagation (Rumelhart, Hinton, dan William, 1986) merupakan suatu metoda network training dari sekian banyak proyek Jaringan Saraf Tiruan dan untuk alasan yang bagus. Seperti halnya metoda lemah lainnya, hal ini sederhana untuk diimplementasikan, lebih cepat daripada pendekatan umumnya, well-tested di lapangan dan mudah untuk dibentuk (dengan domain pengetahuan terkode (encoded) dalam lingkungan pembelajarannya) ke dalam algoritma yang efisien dan sangat spesifik.[9]. Sayangnya metoda backpropagation bisa sangat lambat untuk praktek penerapannya[21].

Cost surface untuk jaringan multilayer dapat menjadi kompleks, kemudian untuk pemilihan laju pembelajaran bisa cukup sulit. Laju pembelajaran yang bagus ketika bekerja pada suatu lokasi cost surface bisa menjadi tidak bekerja sebagus itu pada lokasi yang lain. Delta-bar-delta marupakan algoritma heuristik untuk memodifikasi laju pembelajaran pada saat training progress. Ide dibalik metoda delta-bar-delta adalah membiarkan program itu sendiri untuk mencari laju pembelajaran pada tiap bobot (terjadi adaptasi laju pembelajaran pada saat training progress). Perbandingan kinerja jaringan saraf tiruan backpropagation (tanpa adaptasi laju pembelajaran) dengan jaringan dengan metoda deltabar-delta diterapkan, perlu diteliti lebih jauh terutama untuk mendapatkan perbedaan kecepatan konvergensinya (dalam hal iterasinya). Penelitian itu juga bisa mengungkap berapa sebaiknya penentuan awal / inisialisasi untuk parameter delta-bar-delta. Untuk dapat melakukan penelitian dan melakukan penguan Jaringan Saraf Tiruan Backpropagation dengan adaptasi laju pembelajaran (delta-bardelta), diperlukan suatu perangkat lunak yang mengimplementasikan jaringan saraf tiruan backpropagation dengan adaptasi laju pembelajaran, selain itu juga dapat menghasilkan data untuk penelitian selanjutnya. Tujuan Tujuan dari penulisan Tugas Akhir adalah : melakukan perancangan perangkat lunak Jaringan Saraf Tiruan Backpropagation dengan metoda deltabar-delta dan menganalisis pengaruh adaptasi laju pembelajaran pada percepatan konvergensi. Pembatasan Masalah Dalam tulisan ini pembahasan dibatasi hanya pada ruang lingkup: arsitektur Jaringan Saraf Tiruan Backpropagation dengan menggunakan 2 hidden layer, 4 node pada hidden layer pertama, 3 node pada hidden layer kedua, 4 node masukan, 1 node keluaran, menggunakan 1 jenis sample training yang terdiri dari 40 training set. adaptasi laju pembelajaran dengan metoda delta-bar-delta pengaruh parameter,, pada laju perubahan rata-rata squared error (E av ), bobot, learn rate pada Jaringan Saraf Tiruan Backpropagation. jaringan mencapai konvergensi apabila laju perubahan rata-rata squared error (E av ) 2.10-3 pembandingan kecepatan konvergensi diukur dari iterasinya. inisialisasi laju pembelajaran untuk jaringan Backpropagation dengan deltabar-delta dan Backpropagation tanpa delta-bar-delta adalah 0,4. II. ALGORITMA BACK PROPAGATION Sebagai rangkuman algoritma bacpropagation adalah: 1. Koreksi w (n) yang ditrerapkan pada bobot yang menghubungkan neuron i sampai neuron j didefiniskan sebagai delta rule berikut : Koreksi Laju Gradien Sinyalmasukan bobot pembelajar an. lokal. neuron j w( n) j( n) yj( n)

2. Gradien lokal j (n) tergantung pada bagaimana neuron j sebagai keluaran atau hidden node: Jika neuron j adalah node keluaran, j (n) sama dengan produk turunan j (v j (n)) dan sinyal error e j (n), keduanya berhubungan langsung dengan neuron j. Jika neuron j adalah node keluaran, j (n) sama dengan produk dari hubungan turunan j (v j (n)) dan weighted sum dari semua dihitung untuk layer hidden atau keluaran selanjutnya dimana dikoneksikan ke neuron j Laju Pembelajaran Pada parameter laju pembelajaran, semakin kecil nilainya akan semakin kecil pula perubahan bobot sinapsis dari satu iterasi ke iterasi selanjutnya, akan tetapi perubahan itu akan berpengaruh pada lambatnya laju belajar. Pada sisi yang lain parameter dibuat terlalu besar, akan berbanding lurus dengan meningkatnya laju belajar, menghasilkan perubahan yang besar pada bobot sinapsis, diasumsikan jaringan akan menjadi tak stabil (misal berosilasi). Metoda sederhana untuk menaikkan laju belajar dan menghindari bahaya ketidak stabilan adalah memodifikasi delta rule yaitu dengan memasukkan momentum, seperti terlihat di bawah ini: Δw (n) Δw (n 1) (n)y (n) dimana biasanya adalah nilai positif yang disebut sebagai konstanta momentum, bila diberi nilai nol maka algoritma dioperasikan tanpa momentum. Konvergensi dan Inisialisasi Bobot Jaringan dikatakan telah konvergen apabila laju perubahan rata-rata squared j j error (E av ) pada tiap epoch (siklus training) telah cukup kecil, yaitu sekitar 0.01 persen.[4]. Inisialisasi synaptic weight dan level ambang pada jaringan seharusnya terdistribusi dalam range kecil, alasannya adalah untuk mengurangi kemungkinan neuron-neuron dalam jaringan saturasi dan menghasilkan gradien error kecil serta pembelajaran akan diinisialisasi sangat lambat[4]. Pilihan yang mungkin untuk inisialisasi bobot adalah dengan mengambil nilai acak pada range: w = [ - (2.4 / Jumlah input), (2.4/Jumlah input)] Algoritma Delta Bar Delta Empat Aturan Heuristic Jacobs Jacobs memberi panduan sebagai pijakan untuk berpikir tentang bagaimana akselerasi konvergensi pada pembelajaran backpropagation dengan adaptasi laju pembelajaran sebagai berikut: 1. Tiap parameter jaringan dari cost function mempunyai parameter individual laju pembelajaran. 2. Tiap parameter laju pembelajaran bisa bervariasi dari satu iterasi ke iterasi selanjutnya. 3. Turunan dari cost function terhadap synaptic weight, apabila mempunyai tanda aljabar sama untuk iterasi berurutan dari algoritma tersebut maka parameter laju pembelajaran untuk khususnya weight tersebut dinaikkan. 4. Turunan dari cost function terhadap synaptic weight, apabila mempunyai tanda aljabar berkebalikan untuk iterasi berurutan dari algoritma tersebut maka parameter laju pembelajaran untuk khususnya weight tersebut diturunkan. Aturan Pembelajaran Delta-bardelta[4]

(n )1 Pada persamaan berikut, nilai synaptic weight w menghubungkan neuron i ke neuron j, diukur pada iterasi n, parameter laju pembelajaran dihubungkan ke bobot pada iterasi ini. Perubahan laju pembelajaran kini dituliskan sebagai berikut: - (n) ka S (n-1)d (n)>0 ka S (n-1)d (n)<0 0 ka S (n-1)d (n)=0.. (2.40) dimana D dan S sendiri didefinisikan sebagai ( n) D ( n) w.. ( n) (2.41) dan S ( n) (1 ) D ( n 1) S ( n 1)... (2.42) dimana adalam konstanta positif. Kuantitas D (n) adalah current value dari turunan parsial permukaan error terhadap bobot w (n). Kuantitas kedua S merupakan exponensial dari penjumlahan bobot pada turunan saat ini dan sebelumnya dari permukaan error terhadap bobot w (n), selanjutnya dengan sebagai dasar dan iterasi ke n sebagai exponen. Sebagai catatan, ka parameter kontrol dan di set sama dengan nol, parameter laju pembelajaran diasumsikan mempunyai nilai konstan sebagaimana ada pada backpropagation standar. Dari persamaan-persamaan di atas dapat ditulis pengamatan sebagai berikut: 1. Aturan pembelajaran delta-bar-delta menggunakan mekanisme seuai pada heuristik 3 dan 4. Secara spesifik, ka untuk synaptic weight w turunan D (n) pada iterasi n dan q dan exponentially weighted sum S (n-1) pada iterasi n-1 sebelumnya mempunyai tanda sama, parameter laju pembelajaran pada bobot dinaikkan secara konstan. Jika pada sisi lain, kuantitas D (n) dan S (n- 1) mempunyai tanda berlawanan, parameter laju pembelajaran pada bobot w diturunkan dengan proporsi pada current value (n), S selain itu parameter laju pembelajaran tetap tak berubah 2. Parameter laju pembelajaran (n) dinaikkan secara linier tetapi berbentuk penurunan exponensial (decremented exponentially). Menaikkan secara linier akan mencegah parameter laju pembelajaran menjadi tumbuh secara cepat, sebaliknya penurunan secara eksponensial mempunyai arti bahwa paramater laju

pembelajaran tetap positif dan berkurang / reduced secara cepat. Pada penerapan secara strict dalam pembelajaran backpropagation menggunakan komputasi pengubahan bobot dan parameter untuk tiap pola masukan. Tiga lapis feed forward network ( fase forward propagation) x -1-1 -1 0 = w (1), (1) w (2), (2) w (3), (3) X 1 (-) (-) (-) O 1 X 2 (-) (-) (-) O 2 X p (-) (-) (-) O q Sensitivity network (fase backpropagation) (-) (-) (-) e 1 e 2 e q (1) (2) (3) III. PERANCANGAN SISTEM Perancangan perangkat lunak JST Backpropagation akan lebih mudah dipahami dengan melihat arsitektur Multilayer Perceptron seperti diperlihatkan pada Gambar 3.1.

Gambar 3.1. Jaringan Multilayer Perceptron Pada Gambar 3.1 terlihat koneksi / link antar node, mulai dari masukan x n sampai dengan keluaran o n, hanya saja untuk perancangan perangkat lunak pada tulisan ini menggunakan konfigurasi 4 node masukan, 4 node hidden layer1, 3 node hidden layer2, 1 node keluaran. Blok-blok penting yang perlu dibangun pada perancangan perangkat lunak ini adalah: - Pengacak bobot/weight - Fungsi aktivasi - Turunan aktivasi - Penghitungan Forward layer 1,2,3 - Penghitungan Gradien / di semua layer - Penghitungan Laju Pembelajaran dengan Teknik Delta-bar-delta - Penghitungan Perubahan bobot di layer 1,2,3 - Fungsi-fungsi pendukung Blok-blok tersebut selanjutnya dilakukan integrasi satu sama lain dengan menggunakan aliran data tertentu, dimana hal ini terlihat pada Gambar 3.2. Blok yang ada pada diagram alir tersebut tidak termasuk fungsi-fungsi antarmuka grafis dengan pengguna perangkat lunak, karena dengan pertimbangan bahwa fungsi tersebut bersifat umum, seperti pengelolaan file dan interprestasi grafis dan penentuan titik henti system. Interprestasi grafis itu sendiri terpisah dengan proses pembelajaran, dengan penjelasan bahwa proses forward dan backward system melakukan updating pada tiap iterasi pada suatu variable global. Blok interprestasi grafis secara periodik membaca variable global dengan timer dan menuliskannya dalam bentuk chart. Blok iterprestasi grafis tersebut berarti dipicu oleh suatu pewaktu (timer) yang artinya adalah tidak melakukan intervensi dalam proses proses JST, namun hal ini tidak berlaku pada saat melakukan penulisan data parameter JST ke dalam suatu history / log. Penulisan ke log file harus dilaksanakan pada tiap iterasi, sehingga terlihat perubahan nilai bobot, laju pembelajaran dan perubahan error yang dicapai.

M U L A I In is ia lis a si b o b o t d e n g a n n ila i a c a k d e n g a n ra n g e t e rte n tu A p a k a h g lo b a l e rro r m e n d e k a ti 2.1 0-3 T id a k S ia p k a n p o la p e rta m a M e n g h it u n g g lo b a l e rro r T id a k m a su k k e s e m u a j a rin g a n, d im u la i j a rin g a n p a d a la p is m a s u k a n d a n m e n g h itu n g a k tiv a s i u n tu k tia p u n it Gambar 3.3 Diagram Alir pengacak bobot m e n g h itu n g e rro r p a d a k e lu a ra n d e n g a n m e la k u k a n p e m b a n d in g a n 3.2 te rh Fungsi a d a p ta rgaktivasi e t y a n g d ih a ra p k a n Pada Gambar 3.4 memperlihatkan diagram alir fungsi aktivasi yang menggunakan asumsi m a s u k k e s e m u a j a rin g a n d im u la i p apembatasan d a k e lu a ra n d a n mpangkat e n g h itu n g maksimum dan e rro r u n tu k se m u a u n it minimum suatu nilai, untuk mencegah terjadinya nilai tak hingga ataupun divide overflow. S ia p k a n u n t u k b o b o t p e rta m a Y a A p a k a h b o b o t s u d a h d ip ro s e s s e m u a? Ambil nilai v Y a A p a k a h s e m u a p o la te la h d it ra in in g k a n? Gambar 3.2 Diagram alir sistem penguan akselerasi konvergensi Y a T id a k g ra d ie n p a d a ta h a p in i d ib a n d in g k a n d e n g a n g ra d ie n p a d a ta h a p s e b e lu m n y a Apakah min v max? Ya Tidak Apakah v > max? Ya m a s u k k e s e m u a ja rin g a n d a n 3.1 Pengacak bobot (weight) m e n g u b a h b o b o t s e s u a i d e n g a n g ra d ie n,la ju p e m b e la j a ra n, Proses inisialisasi jaringan, m o m e n tu m d a n a k t iv a s i bobot dengan memasukkan nilai yang acak dengan nilai tertentu sesuai persamaan (2.27), sedangkan diagram alir seperti pada Gambar 3.3. S E L E S A I sgrndisi = random sgrndtanda = random Apakah sgrndtanda > 0.5 A p a k a h g ra d ie n m e m p u n y a i ta n d a sa m a 2a Gambar d e n g a n 3.4 g ra d ie Diagram n p a d a Alir ( vfungsi aktivasi Y) a a ta h a p s e b e lu m n ya 1 exp( bv) la ju p e m b e la j a ra n Fungsi aktivasi seperti pada persamaan d in a ik k a n (2.5) melakukan penakaran dari T id a k keluaran suatu neuron, dalam hal ini variabel la ju p e m b e la ja ra n dinamai dengan d it u ru n k a n NilaiYgDitakar. Baris programnya seperti berikut: 3.3 Turunan Fungsi Aktivasi Diagram Alir turunan fungsi aktivasi adalah seperti pada Gambar Ya 3.5. (v)= a Tidak reaplikasi= - sgrndisi Ambil nilai v reaplikasi = sgrndisi Bobot = Apakah nilai v berada dalam range ambang maksim um dan Tidak

Penghitungan forward mempunyai fungsi utama yaitu menjumlah input sebanding dengan bobotnya, menggunakan persamaan (2.1). Adapun v i selanjutnya ditakar dengan fungsi aktivasi. 3.5 Penghitungan Net Backward Pada blok ini mempunyai tujuan utama yaitu melakukan pemanggilan fungsi-fungsi yang akan mempersiapkan pengubahan bobot, selanjutnya barulah melakukan pemanggilan fungsi pengubahan bobot. Diagram Alir penghitungan Net Backward terlihat pada Gambar 3.7. Gambar 3.5 Diagram alir turunan fungsi aktivasi Turunan fungsi aktivasi sesuai persamaan (2.6) merupakan pemroses dari keluaran fungsi aktivasi yang kemudian bisa digunakan untuk menghitung gradien. Hitung sem ua gradien Ubah bobot layer keluaran gunakan Gradien keluaran 3.4 Penghitungan Forward layer 1,2,3 Diagram Alir penghitungan forward adalah seperti terlihat pada Gambar 3.6. Hitung layer1 Hitung Fungsi aktivasi Layer1 Hitung Turunan Aktivasi Layer1 Gambar 3.6 Penghitungan Forward layer 1,2,3 Hitung Layer2 Hitung Fungsi aktivasi Layer2 Hitung Turunan Aktivasi Layer2 Gambar 3.7 Penghitungan Net Backward Hitung Layer Keluaran Ubah bobot layer2 gunakan Gradien layer2 Ubah bobot layer1 gunakan Gradien layer1 Hitung Fungsi 3.6 Gradien ( ) di semua layer aktivasi Layer Diagram keluaran Alir penghitungan gradien secara umum (semua layer) terlihat pada Hitung Gambar Turunan 3.8, sedangkan diagram alir Aktivasi untuk Layer penghitungan keluaran Hitung Gradien keluaran

masing-masing layer seperti ditunjukkan pada Gambar 3.9. Gambar 3.8 Diagram alir Gradien ( ) di semua layer oleh beberapa parameter, yaitu S dan D, yang keduanya juga dipengaruhi oleh faktor baik yang lalu maupun yang saat itu dihitung. Untuk melakukan perubahan pada laju pembelajaran sendiri dipengaruhi secara langsung oleh nilai S yang lalu/iterasi sebelumnya dan D pada saat itu, sehingga nilai S dan D perlu disimpan M U LA I untuk pemrosesan selanjutnya. H itung S denga n m e ng gunak an D (n-1 ) dan pa ram eter H itung D (n) Hitung Deviasi Error Gradien = deviasi error * Turunan layer keluaran Hitung Sum NilaiTotGradien = Jumlah dari Gradien keluaran * bobot layer keluaran Hitung Gradien Layer2 dari NilaiTotGradien * keluaran layer 2 (a) Layer keluaran (b) Hidden squared error Layer 2 (c) Hidden Layer 1 Gambar 3.9 Diagram alir Gradien ( ) di masingmasing layer Prosedur ini berguna untuk nantinya menentukan nilai pengubahan bobot. Pada masing-masing lapisan prosedur ini mempunyai fungsi seperti pada persamaan (2.16). 3.7 Penghitungan Laju Pembelajaran dengan Teknik Delta-bar-delta Diagram alir penerapan Adaptasi Laju Pembelajaran Deltabar-delta seperti ditunjukkan pada Gambar 3.10. Blok ini memperlihatkan bahwa perubahan laju pembelajaran () dipengaruhi T idak A pa ka h S (n-1).d (n) > 0? T ida k A pa kah S (n-1).d (n) < 0? Gambar 3.10 Penghitungan Laju Pembelajaran dengan Delta-bar-delta S E LE S A I 3.8 Penghitungan Perubahan bobot di layer 1,2,3 Diagram alir penghitungan perubahan bobot di semua layer ditunjukkan pada Gambar 3.11. i = 1 NilaiTotGradien = Jumlah dari Gradien Layer2 * bobot layer2 Hitung Gradien Layer1 dari NilaiTotGradien * keluaran layer 1 Y a H itung perubahan S im pan, S (n), D (n) Apakah sem ua bobot pada layer i telah diubah? Y a Gunakan penguba Set pointer ke bobot (1,1) Ya Tidak Lakukan penghitungan Ubah b dengan gradie

Keterangan : i adalah layer Gambar 3.11 Diagram alir penghitungan Perubahan bobot di layer 1 Fungsi ini melakukan pengubahan bobot, dimana didalamnya terdapat Teknik Delta- Bar-Delta untuk mempersiapkan. Fungsi ini selanjutnya menyimpan nilai sebelum pengubahan dan setelah pengubahan. 3.9 Fungsi pengacak sample Urutan sample yang akan dijadikan masukan jaringan perlu diacak untuk meningkatkan kinerja pembelajaran[4], hal ini ditunjukkan pada Gambar 3.12. Apakah AcakKe > MaxAcak? Inisialisai Array Urutan Sample Set MaxAcak= frekuensi pengacakan Gambar 3.12 Set Fungsi AcakKe=1 pengacak sample Tidak Pertukarkan Posisi sample AcakKe= AcakKe+1 Ya