BAB II TINJAUAN PUSTAKA

dokumen-dokumen yang mirip
BAB VIIB BACKPROPAGATION dan CONTOH

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI

BAB 2 KONSEP DASAR PENGENAL OBJEK

BAB II TINJAUAN PUSTAKA

PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA BARAT

BAB IV JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK)

BAB II DASAR TEORI Jaringan Syaraf Tiruan. Universitas Sumatera Utara

BAB II LANDASAN TEORI

Penerapan Jaringan Saraf Tiruan Metode Backpropagation Menggunakan VB 6

BAB 2 LANDASAN TEORI

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) ERWIEN TJIPTA WIJAYA, ST, M.KOM

BAB II LANDASAN TEORI

SATIN Sains dan Teknologi Informasi

BAB 3 METODOLOGI PENELITIAN

Jaringan Syaraf Tiruan. Disusun oleh: Liana Kusuma Ningrum

BAB VIII JARINGAN SYARAF TIRUAN

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MENGETAHUI LOYALITAS KARYAWAN

JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI CURAH HUJAN SUMATERA UTARA DENGAN METODE BACK PROPAGATION (STUDI KASUS : BMKG MEDAN)

ARTIFICIAL NEURAL NETWORK TEKNIK PERAMALAN - A

BAB II LANDASAN TEORI

JARINGAN SYARAF TIRUAN

lalu menghitung sinyal keluarannya menggunakan fungsi aktivasi,

BAB 2 TINJAUAN PUSTAKA

Architecture Net, Simple Neural Net

BAB 2 LANDASAN TEORI. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu

PREDIKSI PENDAPATAN ASLI DAERAH KALIMANTAN BARAT MENGGUNAKAN JARINGAN SYARAF TIRUAN BACKPROPAGATION

SATIN Sains dan Teknologi Informasi

METODOLOGI PENELITIAN

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI PRODUKTIVITAS PEGAWAI. Jasmir, S.Kom, M.Kom

Gambar 2.1 Neuron biologi manusia (Medsker & Liebowitz, 1994)

VOL. 01 NO. 02 [JURNAL ILMIAH BINARY] ISSN :

BAB II. Penelitian dengan jaringan syaraf tiruan propagasi balik. dalam bidang kesehatan sebelumnya pernah dilakukan oleh

ANALISIS PENAMBAHAN NILAI MOMENTUM PADA PREDIKSI PRODUKTIVITAS KELAPA SAWIT MENGGUNAKAN BACKPROPAGATION

ANALISIS ALGORITMA INISIALISASI NGUYEN-WIDROW PADA PROSES PREDIKSI CURAH HUJAN KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

BAB 2 LANDASAN TEORI. fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses

Prediksi Pergerakan Harga Harian Nilai Tukar Rupiah (IDR) Terhadap Dollar Amerika (USD) Menggunakan Metode Jaringan Saraf Tiruan Backpropagation

APLIKASI JARINGAN SYARAF TIRUAN DALAM PENGHITUNGAN PERSENTASE KEBENARAN KLASIFIKASI PADA KLASIFIKASI JURUSAN SISWA DI SMA N 8 SURAKARTA

SATIN Sains dan Teknologi Informasi

Jurnal Informatika Mulawarman Vol 5 No. 1 Februari

BACK PROPAGATION NETWORK (BPN)

Architecture Net, Simple Neural Net

PENGENALAN HURUF DAN ANGKA PADA CITRA BITMAP DENGAN JARINGAN SARAF TIRUAN METODE PROPAGASI BALIK

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PENJUALAN HANDPHONE DENGAN MENGGUNAKAN METODE BACKPROPAGATION (Studi Kasus : CV.

PREDIKSI CURAH HUJAN DI KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

Studi Modifikasi standard Backpropagasi

ANALISIS PENAMBAHAN MOMENTUM PADA PROSES PREDIKSI CURAH HUJAN KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

Jaringan syaraf dengan lapisan tunggal

Arsitektur Jaringan Salah satu metode pelatihan terawasi pada jaringan syaraf adalah metode Backpropagation, di mana ciri dari metode ini adalah memin

BAB 3 PERANCANGAN SISTEM. Bab ini menguraikan analisa penelitian terhadap metode Backpropagation yang

I PENDAHULUAN II LANDASAN TEORI

IMPLEMENTASI JARINGAN SYARAF TIRUAN MULTI LAYER FEEDFORWARD DENGAN ALGORITMA BACKPROPAGATION SEBAGAI ESTIMASI NILAI KURS JUAL SGD-IDR

T 11 Aplikasi Model Backpropagation Neural Network Untuk Perkiraan Produksi Tebu Pada PT. Perkebunan Nusantara IX

1.1. Jaringan Syaraf Tiruan

IDENTIFIKASI POLA IRIS MENGGUNAKAN METODE BACKPROPAGATION

BAB II TINJAUAN PUSTAKA

BACK PROPAGATION NETWORK (BPN)

Presentasi Tugas Akhir

BAB 2 TINJAUAN PUSTAKA

Muhammad Fahrizal. Mahasiswa Teknik Informatika STMIK Budi Darma Jl. Sisingamangaraja No. 338 Simpanglimun Medan

Perbaikan Metode Prakiraan Cuaca Bandara Abdulrahman Saleh dengan Algoritma Neural Network Backpropagation

FAKULTAS SAINS DAN TEKNOLOGI UIN SUSKA RIAU. IIS AFRIANTY, ST., M.Sc

BAB 2 LANDASAN TEORI

PERAMALAN JUMLAH KENDARAAN DI DKI JAKARTA DENGAN JARINGAN BACKPROPAGATION

BAB II LANDASAN TEORI

BAB 3 ANALISIS DAN PERANCANGAN SISTEM

Jaringan Syaraf Tiruan

KLASIFIKASI ARITMIA EKG MENGGUNAKAN JARINGAN SYARAF TIRUAN DENGAN FUNGSI AKTIVASI ADAPTIF

ANALISIS JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI JUMLAH RESERVASI KAMAR HOTEL DENGAN METODE BACKPROPAGATION (Studi Kasus Hotel Grand Zuri Padang)

ANALISIS JARINGAN SARAF TIRUAN BACKPROPAGATION TERHADAP PERAMALAN NILAI TUKAR MATA UANG RUPIAH DAN DOLAR

Jaringan Syaraf Tiruan Menggunakan Algoritma Backpropagation Untuk Memprediksi Jumlah Pengangguran (Studi Kasus DiKota Padang)

BAB 2 LANDASAN TEORI. Universitas Sumatera Utara

BAB II LANDASAN TEORI

BAB 2 TINJAUAN PUSTAKA

BAB 2 LANDASAN TEORI

Sebelumnya... Pembelajaran Mesin/Machine Learning Pembelajaran dengan Decision Tree (ID3) Teori Bayes dalam Pembelajaran

Implementasi Jaringan Syaraf Tiruan Backpropagation dan Steepest Descent untuk Prediksi Data Time Series

BACKPROPAGATION NEURAL NETWORK AS A METHOD OF FORECASTING ON CALCULATION INFLATION RATE IN JAKARTA AND SURABAYA

BAB 2 TINJAUAN PUSTAKA

Prediksi Jumlah Penjualan Air Mineral Pada Perusahaan XYZ Dengan Jaringan Saraf Tiruan

VIII.PENGANTAR JARINGAN SYARAF TIRUAN (JST)

BAB III METODE PENELITIAN. Penelitian ini dilaksanakan Februari 2014 sampai dengan Juli 2014 di

Peramalan Penjualan Mobil Menggunakan Jaringan Syaraf Tiruan dan Certainty Factor

BAB 2 TINJAUAN PUSTAKA

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PENJUALAN OBAT Pada PT. METRO ARTHA PRAKARSA MENERAPKAN METODE BACKPROPAGATION

BAB 2 LANDASAN TEORI. suatu perusahaan yang akan memberikan keuntungan dalam bentuk deviden dan capital

SIMULASI DAN PREDIKSI JUMLAH PENJUALAN AIR MENGGUNAKAN JARINGAN SYARAF TIRUAN BACKPROPAGATION (Study Kasus: PDAM TIRTA KEPRI) Ilham Aryudha Perdana

JARINGAN SARAF TIRUAN DENGAN BACKPROPAGATION UNTUK MENDETEKSI PENYALAHGUNAAN NARKOTIKA

POSITRON, Vol. IV, No. 2 (2014), Hal ISSN :

Jurnal Coding, Sistem Komputer Untan Volume 04, No.2 (2016), hal ISSN : x

MODEL PEMBELAJARAN JARINGAN SYARAF TIRUAN UNTUK OTOMATISASI PENGEMUDIAN KENDARAAN BERODA TIGA

JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MENDETEKSI GANGGUAN PSIKOLOGI

BAB III METODOLOGI PENELITIAN

BAB 1 PENDAHULUAN Latar Belakang

terinspirasi dari sistem biologi saraf makhluk hidup seperti pemrosesan informasi

Jaringan Syaraf Tiruan

PERAMALAN HARGA SAHAM PERUSAHAAN MENGGUNAKAN ARTIFICIAL NEURAL NETWORK DAN AKAIKE INFORMATION CRITERION

BAB 2 TINJAUAN PUSTAKA

ANALISIS PENGGUNAAN ALGORITMA KOHONEN PADA JARINGAN SYARAF TIRUAN BACKPROPAGATION DALAM PENGENALAN POLA PENYAKIT PARU

Neural Network (NN) Keuntungan penggunaan Neural Network : , terdapat tiga jenis neural network Proses Pembelajaran pada Neural Network

Transkripsi:

BAB II TINJAUAN PUSTAKA 2.1 JARINGAN SARAF SECARA BIOLOGIS Jaringan saraf adalah salah satu representasi buatan dari otak manusia yang selalu mencoba untuk mensimulasikan proses pembelajaran pada otak manusia. Istilah buatan disini digunakan karena jaringan saraf ini diimplementasikan dengan menggunakan program komputer yang mampu menyelesaikan sejumlah proses perhitungan selama proses pembelajaran (Fausett, 1994). Setiap sel saraf memiliki satu inti sel. Inti sel ini yang akan bertugas untuk melakukan pemrosesan informasi. Informasi tersebut akan diterima dendrit. Informasi hasil olahan ini akan menjadi masukan bagi neuron lain. Informasi yang dikirimkan antar neuron adalah berupa rangsangan yang dilewatkan melalui dendrit. Informasi yang datang akan diterima oleh dendrit dan dijumlahkan lalu dikirim melalui axon ke dendrit akhir. Informasi ini akan diterima oleh neuron lain jika memenuhi batasan tertentu. Batasan tertentu dikenal dengan nama nilai ambang (threshold) yang dikatakan teraktivasi (Haykin, 2008). Menurut Siang (2005) Jaringan Saraf Tiruan dibentuk sebagai generalisasi model matematika dari jaringan saraf biologi, dengan asumsi bahwa : 1. Pengolahan informasi terdiri dari elemen-elemen sederhana yang disebut neuron. 2. Sinyal dilewatkan dari satu neuron ke neuron yang lain melalui hubungan koneksi. 3. Tiap hubungan koneksi mempunyai nilai bobot sendiri. 4. Tiap neuron mempergunakan fungsi aktivasi terhadap input yang diterimanya untuk menentukan sinyal keluaran.

Gambar 2.1 Saraf Secara Biologis (Haykin, 2008) 2.2 JARINGAN SARAF TIRUAN (JST) JST dibuat pertama kali pada tahun 1943 oleh neurophysiologist Waren McCulloch dan logician Walter Pits. Teknologi yang tersedia pada saat itu belum memungkinkan mereka berbuat lebih jauh. JST merupakan suatu sistem pemrosesan Informasi yang memiliki karaktristik-karakteristik menyerupai jaringan saraf Biologi. Hal yang sama diutarakan oleh Simon Haykin yang menyatakan Bahwa JST adalah sebuah mesin yang dirancang untuk memodelkan cara otak manusia mengerjakan fungsi atau tugas-tugas tertentu. Mesin ini memiliki kemampuan menyimpan pengetahuan berdasarkan pengalaman dan menjadikanya simpanan pengetahuan yang dimiliki menjadi bermanfaat (Haykin, 2008). 2.2.1 Karakteristrik JST Karakteristik JST ditentukan oleh 3 hal yaitu: 1. Pola hubungan antar neuron disebut arsiktektur jaringan. 2. Metode untuk menentukan nilai bobot tiap hubungan disebut pembelajaran/ pelatihan. 3. Fungsi aktivasi (Fungsi Transfer)

2.2.2 Struktur dan Komponen JST JST terdiri dari sejumlah elemen pemroses sederhana yang disebut dengan neuron. Tiap neuron terhubung sambungan komunikasi dimana tiap sambungan mempunyai nilai bobot sendiri. Nilai bobot ini menyediakan informasi yang akan digunakan oleh jaringan untuk memecahkan masalah. Neuron buatan ini dirancang untuk menirukan karakteristik neuron biologis. Secara prinsip diberikan serangkaian masukan (input) yang masing-masing menggambarkan keluaran (output) yang kemudian akan menjadi masukan bagi neuron lain. Setiap input akan dikalikan dengan suatu faktor penimbang tertentu (w i ) yang analog dengan tegangan synapsis. Semua input tertimbang itu dijumlahkan untuk menentukan tingkat aktivasi suatu neuron. Gambar 2.2 menunjukkan serangkaian input dengan nama x 1, x 2,..., x n pada suatu neuron buatan. Untuk mendapat keluaran dari setiap input digunakan: n Yin = xiw i (2.1) i=1 W 1 X 1 X 2 W 2 X i W i Y in Keterangan : X 1,X 2,... X i : Data Input, w 1, w 2, w i : Bobot, Y -in : Sinyal output Gambar 2.2 Model Neuron Buatan (Fausett, 1994) Output yang diharapkan dalam sistem JST ini berada pada range 0 sampai 1 dan dengan fungsi Sigmoid Biner berapapun nilai input-nya akan dihasilkan output dengan nilai antara 0 sampai 1. Biasanya satu neuron mengirimkan nilai aktivasinya ke beberapa neuron yang lain.

2.2.3 Pemrosesan Informasi dalam JST Aliran informasi yang diproses disesuaikan dengan arsitektur jaringan (Wulandari et al, 2012). Beberapa konsep utama yang berhubungan dengan proses adalah: 1. Masukan (Input), setiap input bersesuaian dengan suatu atribut tunggal. Serangkaian input pada JST diasumsikan sebagai vektor X yang bersesuaian dengan sinyal-sinyal yang masuk ke dalam sinapsis neuron biologis. Input merupakan sebuah nilai yang akan diproses menjadi nilai output. 2. Keluaran (Output), output dari jaringan adalah penyelesaian masalah. 3. Bobot (Weight), mengekspresikan kekuatan relatif (atau nilai matematis) dari input data awal. Penyesuaian yang berulang-ulang terhadap nilai bobot menyebabkan JST belajar. Bobot-bobot ini diasumsikan sebagai vektor w. setiap bobot bersesuaian dengan tegangan (strength) penghubung sinapsis biologis tunggal. 4. Fungsi Penjumlahan, menggandakan setiap nilai input x i dengan bobot w i dan menjumlahkannya bersama-sama untuk memperoleh suatu output Y. Fungsi penjumlahan ini bersesuaian dengan badan sel biologis (soma). 5. Fungsi Alih (Transfer Function), menghitung stimulasi internal atau level aktivasi dari saraf. 2.2. 4 Fungsi Aktivasi Fungsi aktivasi merupakan fungsi yang digunakan untuk meng-update nilai-nilai bobot periterasi dari semua nilai input. Secara sederhana fungsi aktivasi adalah proses untuk mengalikan input dengan bobotnya kemudian menjumlahkannya (penjumlahan sigma). Ada beberapa fungsi aktifasi yang sering digunakan dalam jaringan saraf tiruan antara lain : 1. Fungsi Sigmoid Biner Fungsi ini digunakan untuk jaringan saraf yang dilatih dengan menggunakan metode Backpropagation. Fungsi Sigmoid Biner memiliki nilai pada range 0 sampai 1. Oleh karena itu fungsi ini sering digunakan untuk jaringan yang membutuhkan nilai output yang terletak pada interval 0 sampai 1.

1 f ( x) = (2.2) 1 x + e dimana x : nilai sinyal keluaran dari satu neuron yang akan diaktifkan e : nilai konstanta dengan nilai = 2.718281828 2. Fungsi Identitas (linear) Fungsi linear memiliki nilai output yang sama dengan nilai input-nya. 3. Fungsi Saturating Linear Fungsi ini akan bernilai 0 jika input-nya kurang dari -1/2 dan akan benilai 1 jika input-nya lebih dari ½. 4. Fungsi Symetrik Fungsi ini akan bernilai -1 jika input-nya kurang dari -1 dan akan bernilai 1 jika input-nya lebih dari 1. 5. Fungsi Sigmoid Bipolar Fungsi Sigmoid Bipolar hampir sama dengan fungsi Siqmoid Biner hanya saja output dari fungsi ini memiliki range antara 1 sampai -1 2 f ( x) = 1 (2.3) x 1+ e dimana x : nilai sinyal keluaran dari satu neuron yang akan diaktifkan e : nilai konstanta dengan nilai = 2.718281828 2. 2.5 Arsitektur Jaringan Saraf Tiruan Secara umum arsitektur JST terdiri dari atas beberapa lapisan yaitu sebagai berikut (Dhaneswara dan Moertini, 2004): 1. Lapisan Masukan (input layer)

Lapisan masukan merupakan lapisan yang terdiri dari beberapa neuron yang akan menerima sinyal dari luar dan kemudian meneruskan ke neuron-neuron lain dalam jaringan. 2. Lapisan Tersembunyi (hidden layer) Lapisan tersembunyi merupakan tiruan dari sel-sel saraf konektor pada jaringan saraf biologis. Lapisan tersembunyi berfungsi meningkatkan kemampuan jaringan dalam memecahkan masalah. 3. Lapisan Keluaran (output layer) Lapisan keluaran berfungsi menyalurkan sinyal-sinyal keluaran hasil pemrosesan jaringan. Lapisan ini juga terdiri dari sejumlah neuron. Lapisan keluaran merupakan tiruan sel-sel saraf motor pada jaringan saraf biologi. Arsitektur Jaringan Saraf Tiruan terdiri dari 2 macam jaringan yaitu sebagai berikut: 1. Jaringan Lapisan Tunggal (Single Layer ) Jaringan single layer terdiri atas satu lapisan input dan satu lapisan output dengan setiap neuron yang saling terhubung. Dalam jaringan ini, semua unit input dihubungkan dengan semua unit output dengan bobot yang berbeda-beda. Tidak ada unit input yang dihubungkan dengan unit input lainnya. Demikian pula dengan unit output, tidak ada unit output yang terhubung dengan unit output yang lain (Fausset, 1994). Selama proses pelatihan, bobot tersebut dimodifikasi untuk meningkatkan keakuratan hasil. Jaringan single layer dapat dilihat pada gambar 2.3 :

Keterangan : X 1,X 2,X 3 : node lapisan input, Y 1,Y 2 : node lapisan Output, w 11, w 12 w 31 : bobot untuk menghubungkan sinyal input masukan dengan keluaran. Gambar 2.3 JST Lapisan Single Layer (Fausset, 1994) Untuk mendapatkan nilai keluaran node 1 (Y 1 ) didapat dengan mengalikan sinyal masukan dengan bobot yang menuju node Y 1 = (x 1 *w 11 ) + (x 2 * w 21 ) + (x 3 *w 31 ). Dengan cara yang sama dapat dihitung untuk nilai keluaran dari Y 2. Sehingga dapat dirumuskan: Y = i n i= 1 x i v ij (2.4) Rumus 2.4 dapat digunakan jika tidak terdapat bias. Jika menggunakan bias maka Y 1 = v 01 + (x 1 *w 11 ) + (x 2 * w 21 ) + (x 3 *w 31 ) dan n Y i = v 0 j + x i v ij (2.5) i= 1

Nilai input dalam gambar 2.4 merupakan nilai objek yang akan dihitung/ diteliti yang sudah disesuaikan dengan batas nilai fungsi aktifasi yang digunakan. Misalnya jika menggunakan fungsi aktifasi Sigmoid Biner maka nilai x i yang dapat digunakan adalah dalam interval -1 s/d 1. Jika nilai x i lebih besar atau lebih kecil dari interval tersebut maka data terlebih dahulu dinormalisasi. Nilai Input Neuron-Neuron pada Lapisan Input V V V 41 31 13 21 V23 V33 V42 V V11 V12 V22 V 32 V 43 Neuron-Neuron pada Lapisan tersembunyi Z Z 21 31 Z Z 11 12 Z22 Z32 Neuron-Neuron pada Lapisan output Nilai Output

Keterangan :x 1.. x 4 : lapisan input,z 1.. z 3 : Lapisan tersembunyi,y 1, y 2 : lapisan output Gambar 2.5 JST Lapisan Multi Layer (Fausset, 1994) Untuk mendapatkan nilai keluaran node 1 (Z 1 ) didapat dengan mengalikan sinyal masukan dengan bobot yang menuju node Z 1 = (x 1 *V 11 ) + (x 2 * V 21 ) + (x 3 *V 31 ) + (x 4 *v 41. Dengan cara yang sama dapat dihitung untuk nilai keluaran dari z 2 dan z 3. (2.5) Untuk mendapatkan nilai keluaran node 1 (Y 1 ) didapat dengan mengalikan sinyal masukan dengan bobot yang menuju node Y 1 = (x 1 *z 11 ) + (x 2 * z 21 ) + (x 3 *z 31 ) Dengan cara yang sama dapat dihitung untuk nilai keluaran dari y. Sehingga dapat dirumuskan: 2 Y i p = z i w jk (2.6) i= 1 Jika pada gambar 2.4 ditambah bias menuju lapisan tersembunyi (b1) dengan bobotnya v 01 dan bias menuju lapisan output (b2) dengan bobotnya w 01, maka rumus 2.5 dan 2.6 akan menjadi: z i n = x i v ij + v jk i= 1 (2.7) Y i p = z i w jk + w jk (2.8) i= 1 2.2.6 Proses Pembelajaran Jaringan Saraf Tiruan Suatu karakteristik yang sangat menarik dari JST adalah kemampuannya untuk belajar. Cara belajar dari latihan yang diberikan pada JST menunjukkan beberapa kesamaan dengan perkembangan intelektual manusia. Kemampuan belajar JST bersifat sangat terbatas

sehingga jaringan ini tidak dapat melakukan segalanya seperti kemampuan saraf sesungguhnya. Proses pembelajaran suatu JST melibatkan tiga pekerjaan, sebagai berikut: 1. Menghitung output. 2. Membandingkan output dengan target yang diinginkan. 3. Menyesuaikan bobot dan mengulangi proses Pada umumnya, jika menggunakan Jaringan Saraf Tiruan, hubungan antara input dan output harus diketahui secara pasti. Jika hubungan tersebut telah diketahui maka dapat dibuat suatu model. Hal lain yang penting adalah proses belajar hubungan input/output dilakukan dengan pembelajaran. Pelatihan Jaringan Saraf bertujuan untuk mencari bobotbobot yang terdapat pada setiap layer. Ada dua jenis pelatihan dalam sistem jaringan saraf tiruan, yaitu: 1. Pembelajaran Terawasi (Supervised Learning). Dalam proses pelatihan ini, jaringan dilatih dengan cara diberikan data yang disebut pelatihan data. Pelatihan data terdiri atas pasangan input-output yang diharapkan dan disebut associative memory. Setelah jaringan dilatih, associative memory dapat mengingat suatu pola. Dalam tesis ini akan digunakan pembelajaran terawasi yaitu dengan menggunakan metode backpropagation. 2. Pembelajaran Tidak Terawasi (Unsupervised Learning). Dalam proses pelatihan ini, jaringan dilatih hanya dengan diberi data input yang memiliki kesamaan sifat tanpa disertai output. 2.3 METODE BACKPROPAGATION Backpropagation merupakan salah satu metode pelatihan dari Jaringan Saraf Tiruan. Backpropagation menggunakan arsitektur multilayer dengan metode pelatihan supervised pelatihan. Metode Backpropagation ini dikembangkan oleh Rumelhart Hinton dan Williams sekitar tahun 1986. Menurut teori Backpropagation, metode ini secara efektif bisa menentukan pendekatan yang paling baik dari data yang dimasukkan.

Backpropagation merupakan generalisasi aturan delta (Widrow-Hoff). Backpropagation menerapkan metode gradient descent untuk meminimalkan error kuadrat total dari keluaran yang dihitung oleh jaringan. Backpropagation melatih jaringan untuk memperoleh keseimbangan antara kemampuan jaringan untuk mengenali pola yang digunakan selama pelatihan dan kemampuan jaringan merespon secara benar terhadap pola masukan yang serupa (tapi tidak sama) dengan pola pelatihan. 2.3.1 Algoritma Backpropagation: 1. Inisialisasi bobot (ambil bobot awal dengan nilai random yang cukup kecil antara 0 sampai 1). 2. Untuk setiap pasangan vektor pelatihan lakukan langkah 3 sampai langkah 8. 3. Tiap-tiap unit input (X i dimana i=1,2,3,...,n) menerima sinyal masukan x i dan menjalankan sinyal tersebut ke semua unit pada lapisan yang ada diatasnya atau selanjutnya (dalam hal ini adalah lapisan tersembunyi). 4. Tiap-tiap unit tersembunyi (Z dimana j=1,2,3,...,p) jumlahkan bobotnya dengan sinyalsinyal input masing-masing : Z inj= v 0 j j n + x i v ij (2.9) i= 1 gunakan fungsi aktivasi untuk menghitung sinyal output-nya: Z j = f(z inj ) (2.10) dan kirimkan sinyal tersebut ke semua unit di layer atasnya (unit-unit output layer) 5. Tiap-tiap unit output (Y k dimana k=1,2,3,...,m) jumlahkan bobotnya dengan sinyal-sinyal input masing-masing: p yink = w 0 j + z i w jk (2.11) gunakan fungsi aktivasi untuk menghitung sinyal outputnya : y k = f(y ink ) (2.12) i= 1

dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unit-unit output). 6. Tiap-tiap unit output (Y k dimana k=1,2,3,...,m) menerima target pola yang berhubungan dengan pola input pembelajaran, hitung informasi error-nya: δk = (t k -y k ) f (y_in k ) (2.13) kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk memperbaiki nilai w jk ) : wjk = α δ k z j (2.14) hitung juga koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai w 0k ): w0k = α δ k (2.15) kirimkan ini ke unit-unit yang ada lapisan bawahnya. 7. Tiap-tiap unit tersembunyi (Z j dimana j=1,2,3,...,p) menjumlahkan delta inputnya (dari unit-unit yang berada pada lapisan di atasnya): δ_in j m = δ (2.16) k = 1 k w jk kalikan nilai ini dengan turunan dari fungsi aktivasinya untuk menghitung informasi error : δ j = δ_ in j f (z_in j ) (2.17) kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk memperbaiki nilai v ij ) : vjk = α δ j x i (2.18) hitung juga koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai v v0j = α δ j (2.19) 0j ):

8. Tiap-tiap unit output (Y k dimana k=1,2,3,...,m) memperbaiki bias dan bobotnya (j = 0,1,2,...,p): wjk(baru) = w jk (lama)+ w jk (2.20) tiap-tiap unit tersembunyi (Z = 0,1,2,...,n): j dimana j = 1,2,3,...,p) memperbaiki bias dan bobotnya (i vij(baru) = v ij (lama)+ v ij (2.21) 9. Tes kondisi berhenti. Tahap 3 sampai dengan tahap 5 merupakan bagian dari feedforward, tahap 6 sampai 8 merupakan bagian dari backpropagation (Fausset,1994). 2.3.2 Arsitektur Backpropagation: Pada gambar 2.5 dapat dilihat gambar arsitektur Backpropagation dengan 3 node input layer masukan 2 node pada hidden layer, 3 node output layer dan 2 bias 1 menuju hidden layer, 1 menuju output layer. Pada gambar 2.6 arsitektur backpropagation terdapat dua jenis tanda panah yaitu tanda panah maju ( ) dan tanda panah mundur ( ). Tanda panah maju digunakan pada saat proses feedforward untuk mendapatkan sinyal keluaran dari output layer. Jika nilai error yang dihasilkan lebih besar dari batas error yang digunakan dalam sistem, maka akan dilakukan koreksi bobot dan bias. Koreksi bobot dapat dilakukan dengan menambah atau menurunkan nilai bobot. Jika sinyal keluaran terlalu besar dari target yang ditentukan maka bobotnya diturunkan, sebaliknya jika sinyal keluaran terlalu kecil dari target yang ditentukan maka bobotnya dinaikkan. Koreksi bobot akan dilakukan sampai selisih target dan sinyal keluaran sekecil mungkin atau sama dengan batas error. Untuk melakukan koreksi bobot dan bias akan dilakukan penelusuran ke belakang seperti ditunjukkan dengan tanda panah mundur.

Output Output Output b 1 b 2 Keterangan:Y 1..Y 3 : output, X 1 X n : data input, b 1,b 2 : bias, Z 1, Z 2 : hidden Layer Gambar 2.5 Gambar Arsitektur Backpropagation (Fausett, 1994) 2.3.3 Meningkatkan Hasil Metode Backpropagation Masalah utama yang dihadapi dalam Backpropagation adalah lamanya iterasi yang harus dilakukan. Backpropagation tidak dapat memberikan kepastian tentang berapa epoch yang harus dilalui untuk mencapai kondisi yang diinginkan. Untuk meningkatkan hasil yang diperoleh dengan metode backpropagation dapat dilakukan dengan analisis bobot dan bias awal, jumlah unit tersembunyi, waktu iterasi dan penambahan mom 2.3.3.1 Pemilihan Bobot dan Bias Awal Bobot awal akan mempengaruhi apakah jaringan mencapai titik minimum lokal (local minimum) atau global, dan seberapa cepat konvergensinya dalam pelatihan. Inisialisasi bobot awal dapat dilakukan dengan 2 (dua) Metode yaitu: Inisialisasi Bobot dan Bias awal secara Random dan Inisialisasi Bobot dan Bias awal dengan Metode Nguyen Widrow. Bobot dalam Backpropagation tidak boleh diberi nilai yang sama. Penyebabnya adalah karena jika bobot sama jaringan tidak akan terlatih dengan benar. Jaringan mungkin saja gagal untuk belajar terhadap serangkaian contoh-contoh pelatihan. Misalnya dengan kondisi

tetap atau bahkan error semakin besar dengan diteruskannya proses pelatihan. Untuk mengatasi hal ini maka inisialisasi bobot dibuat secara acak. Bobot yang menghasilkan nilai turunan aktivasi yang kecil sedapat mungkin dihindari karena akan menyebabkan perubahan bobotnya menjadi sangat kecil. Demikian pula nilai bobot awal tidak boleh terlalu besar karena nilai turunan fungsi aktivasinya menjadi sangat kecil juga. Dalam Standar Backpropagation, bobot dan bias diisi dengan bilangan acak kecil. Untuk inisialisasi bobot awal secara random maka nilai yang digunakan adalah antara -0.5 sampai 0.5 atau -1 sampai 1. 2.3.3.2 Jumlah Unit Tersembunyi Berdasarkan hasil teoritis, Backpropagation dengan sebuah hidden layer sudah cukup untuk mampu mengenali sembarang pasangan antara masukan dan target dengan tingkat ketelitian yang ditentukan. Akan tetapi penambahan jumlah hidden layer kadangkala membuat pelatihan lebih mudah. Jika jaringan memiliki lebih dari hidden layer, maka algoritma pelatihan yang dijabarkan sebelumnya perlu direvisi. Dalam propagasi maju, keluaran harus dihitung untuk Setiap layer, dimulai dari hidden layer paling bawah (terdekat dengan unit masukan). Sebaliknya dalam propagasi mundur, faktor δ perlu dihitung untuk tiap hidden layer, dimulai dari lapisan keluaran (Hajar, 2005). 2.3.3.3 Waktu Iterasi Tujuan utama penggunaan Backpropagation adalah mendapatkan keseimbangan antara pengenalan pola pelatihan secara benar dan respon yang baik untuk pola lain yang sejenis. Jaringan dapat dilatih terus menerus hingga semua pola pelatihan dikenali dengan benar. Akan tetapi hal itu tidak menjamin jaringan akan mampu mengenali pola pengujian dengan tepat. Jadi tidaklah bermanfaat untuk meneruskan iterasi hingga semua kesalahan pola pelatihan = 0. Umumnya data dibagi menjadi dua bagian, yaitu pola data pelatihan dan data pengujian. Perubahan bobot dilakukan berdasarkan pola pelatihan. Akan tetapi selama pelatihan (misalkan setiap 10 epoch), kesalahan yang terjadi dihitung berdasarkan semua

data (pelatihan dan pengujian). Selama kesalahan ini menurun, pelatihan terus dijalankan. Akan tetapi jika kesalahannya sudah meningkat, pelatihan tidak ada gunanya diteruskan. Jaringan sudah mulai mengambil sifat yang hanya dimiliki secara spesifik oleh data pelatihan (tapi tidak dimiliki oleh data pengujian) dan sudah mulai kehilangan kemampuan melakukan generalisasi. 2.3.3.4 Momentum Pada standar Backpropagation, perubahan bobot didasarkan atas gradien yang terjadi untuk pola yang dimasukkan saat itu. Modifikasi yang dapat dilakukan adalah melakukan perubahan bobot yang didasarkan atas ARAH GRADIEN pola terakhir dan pola sebelumnya (momentum) yang dimasukkan. Jadi tidak hanya pola masukan terakhir saja yang diperhitungkan. Penambahan momentum dimaksudkan untuk menghindari perubahan bobot yang mencolok akibat adanya data yang sangat berbeda dengan yang lain. Apabila beberapa data terakhir yang diberikan ke jaringan memiliki pola yang serupa (berarti arah gradien sudah benar), maka perubahan bobot dilakukan secara cepat. Namun apabila data terakhir yang dimasukkan memiliki pola yang berbeda dengan pola sebelumnnya, maka perubahan bobot dilakukan secara lambat (Fausset, 1994). Penambahan momentum, bobot baru pada waktu ke (T + 1) didasarkan atas bobot pada waktu T dan (T-1). Di sini harus ditambahkan 2 variabel baru yang mencatat besarnya momentum untuk 2 iterasi terakhir. Jika μ adalah konstanta yang menyatakan parameter momentum (Dhaneswara dan Moertini, 2004). Jika menggunakan momentum maka bobot baru dihitung berdasarkan persamaan: wjk(t+1) = wjk(t) + α δk zj + μ ( wjk(t) wjk(t-1)) (2.24) dan vij(t+1) = vij(t) + α δj xi + μ ( vij(t) vij(t-1)) (2.25) 2.3.4 Pengujian (Testing) pada Metode Backpropagation

Dalam proses testing ini diberikan input data yang disimpan dalam disk (file testing). JST yang telah dilatih akan mengambil data tersebut dan memberikan output yang merupakan Hasil Prediksi JST. JST memberikan output berdasarkan bobot yang disimpan dalam proses pelatihan. Pada akhir testing dilakukan perbandingan antara hasil prediksi (output JST) dan hasil asli (kondisi nyata yang terjadi). Hal ini adalah untuk menguji tingkat keberhasilan JST dalam melakukan prediksi. 2.4 METODE NGUYEN WIDROW Nguyen Widrow mengusulkan cara membuat inisialisasi bobot dan bias ke unit tersembunyi sehingga menghasilkan iterasi lebih cepat. Metode Nguyen Widrow akan menginisialisasi bobot-bobot lapisan dengan dengan nilai antara -0.5 sampai 0.5. Sedangkan bobot dari lapisan input ke lapisan tersembunyi dirancang sedemikian rupa sehingga dapat meningkatkan kemampuan lapisan tersembunyi dalam melakukan proses pembelajaran (Fausset, 1994) Metode Nguyen Widrow secara sederhana dapat diimplementasikan dengan prosedur sebagai berikut: Tetapkan: n = jumlah unit masukan(input) p = jumlah unit tersembunyi ( p ) 1 n β = faktor skala =.7( ) 0 (2.22) Analisis metode Nguyen Widrow didasarkan atas fungsi tangen Sigmoid yang memiliki interval nilai dari -1 sampai 1. Dalam fungsi tangen sigmoid ketika digunakan nilai x = 1 akan menghasilkan pendekatan nilai 0.75 dan ketika x = -1 akan mendekati nilai 0.25. Sedangkan Nilai β mempunyai interval 0 sampai 1 (0 < β < 1). Nilai yang paling dekat dengan 0.75 yang berada dalam interval 0 sampai dengan 1 adalah 0.7 dan 0.8. Jika digunakan 0.8 maka nilai nya akan melebihi batas interval fungsi sigmoid yaitu lebih dari 1.

Hal inilah yang menyebabkan faktor skala β yang digunakan dalam metode Nguyen Widrow menggunakan nilai 0.7. Nilai 0.7 dalam faktor skala metode Nguyen Widrow diharapkan dapat menghasilkan bias dan bobot yang mampu menyesuaikan dengan pola pelatihan dalam backpropagation. Algoritma inisialisasi Nguyen Widrow adalah sebagai berikut: Kerjakan untuk setiap unit pada lapisan tersembunyi (j=1,2,...,p): a. Inisialisasi bobot-bobot dari lapisan input ke lapisan tersembunyi v = bilangan acak dalam interval [-0,5: 0,5] ij b. Hitung v j c. Inisialisasi ulang bobot-bobot : βvij v ij = (2.23) v j d. Set bias b 1j = bilangan random antara - β sampai β 2.5 NORMALISASI DATA Normalisasi adalah penskalaan terhadap nilai-nilai masuk ke dalam suatu range tertentu. Hal ini dilakukan agar nilai input dan target output sesuai dengan range dari fungsi aktivasi yang digunakan dalam jaringan. Normalisasi ini dilakukan untuk mendapatkan data berada dalam interval 0 sampai dengan 1. Hal ini disebabkan karena nilai dalam fungsi aktifasi Sigmoid Biner adalah berada diantara 0 dan 1. Tapi akan lebih baik jika ditransformasikan keinterval yang lebih kecil. Misalnya pada interval [0,1..0,9], karena mengingat fungsi Sigmoid Biner nilainya tidak pernah mencapai 0 ataupun 1 (Santoso at el, 2007). Adapun rumus yang digunakan untuk normalisasi data adalah sebagai berikut:

( xmax xmin )( a) X = + xmin ( b a). (2.26) Dimana: Xmax Xmin a b x : Nilai maximum data aktual : Nilai minimum data aktual : Data terkecil : Data terbesar : Data aktual 2.6 PENELITIAN TERKAIT Terdapat beberapa riset yang telah dilakukan oleh banyak peneliti berkaitan dengan penulisan penelitian ini. Adapun penelitian tersebut dapat dilihat pada tabel 2.1 di bawah ini:

Tabel 2.1 Penelitian Terkait Nama Peneliti Judul Pembahasan Tahun Andrijasa M.F, Mistianingsih, Hadihardaja I.K, Sutikno S, Penerapan Jaringan Syaraf Tiruan Untuk Memprediksi Jumlah Pengangguran di Provinsi Kalimantan Timur Dengan Menggunakan Algoritma Pembelajaran Backprpagation. Pemodelan Curah Hujan- Limpasan Menggunakan Artificial Neural Network. Hajar I Penggunaan Backpropagation neural network pada relay jarak untuk mendeteksi gangguan pada jaringan transmisi. Melakukan modifikasi learning rate untuk mendapatkan hasil prediksi yang akurat dalam penelitian yang dilakukannya learning rate terbaik adalah 0.01 dengan 1 hidden layer. Menghitung kesalahan absolute rata-rata (KAR) dalam metode Backpropagation. Backpropagation neural network deprogram secara terpadu menggunakan algoritma generalized delta rule (GDR) untuk mengenali pola-pola bentuk gelombang tegangan dan arus pada kondisi saluran transmisi terganggu, dengan menggunakan tegangan dan arus phasa sebagai input, output backpropagation adalah keputusan trip/tidak trip. 2010 2005 2005 Siana Halim, Penerapan Jaringan Saraf Tiruan untuk Peramalan Membandingkan MAD dengan MSE dalam Model 2000 GARCH dan MAD dengan MSE dalam backpropagation Dhaneswara,G., Moertini, V. S. Implementasi Jaringan Saraf Tiruan Tipe Multilayer Feed- Melakukan konfigurasi jaringan saraf tiruan 2004 Forward Menggunakan menggunakan Algoritma Backpropagation Backpropagation dengan

dengan Momentum untuk Klasifikasi Data membandingkan hasil yang diperoleh dengan 1 lapisan tersembunyi dengan 2 lapisan tersembunyi dengan Eksperimen Data Aplikasi Kredit Bank.