JARINGAN SYARAF TIRUAN

Ukuran: px
Mulai penontonan dengan halaman:

Download "JARINGAN SYARAF TIRUAN"

Transkripsi

1 JARINGAN SYARAF TIRUAN 8 Jaringan syaraf adalah merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba untuk mensimulasikan proses pembelajaran pada otak manusia tersebut. Istilah buatan disini digunakan karena jaringan syaraf ini diimplementasikan dengan menggunakan program komputer yang mampu menyelesaikan sejumlah proses perhitungan selama proses pembelajaran. 8. OTAK MANUSIA Otak manusia berisi berjuta-juta sel syaraf yang bertugas untuk memproses informasi. Tiap-tiap sel bekerja seperti suatu prosesor sederhana. Masing-masing sel tersebut saling berinteraksi sehingga mendukung kemampuan kerja otak manusia. Sel- (Neuron-) Dendrit Inti Sel (Neucleus) Axon Dendrit Synapsis Sel- (Neuron-) Gambar 8. Susunan syaraf manusia. Gambar 8. menunjukkan susunan syaraf pada manusia. Setiap sel syaraf (neuron) akan memiliki satu inti sel, inti sel ini nanti yang akan bertukan untuk melakukan pemrosesan informasi. Informasi yang datang akan diterima oleh dendrit. Selain menerima informasi, dendrit juga menyertai axon sebagai keluaran dari suatu pemrosesan informasi. Informasi hasil olahan ini akan menjadi masukan bagi neuron lain yang mana antar dendrit kedua sel tersebut dipertemukan dengan synapsis. Informasi yang dikirimkan antar neuron ini berupa rangsangan yang dilewatkan melalui dendrit. Informasi yang datang dan diterima oleh dendrit akan dijumlahkan dan dikirim melalui axon ke dendrit akhir yang bersentuhan dengan dendrit dari neuron yang lain. Informasi ini akan diterima oleh neuron lain jika memenuhi batasan tertentu, yang sering dikenal dengan nama nilai ambang (threshold). Pada kasus ini, neuron tersebut dikatakan teraktivasi. Hubungan antar neuron terjadi secara adaptif, artinya struktur hubungan tersebut terjadi secara dinamis. Otak manusia selalu memiliki kemampuan untuk belajar dengan melakukan adaptasi. 8. SEJARAH Mulai dari ditemukannya, jaringan syaraf tiruan telah mengalami tahap-tahap perkembangan, antara lain: Pada tahun 94-an, para ilmuwan menemukan bahwa psikologi dari otak sama dengan mode pemrosesan yang dilakukan oleh peralatan komputer. 49

2 Pada tahun 943, McCulloch dan Pitts merancang model formal yang pertama kali sebagai perhitungan dasar neuron. Pada tahun 949, Hebb menyatakan bahwa informasi dapat disimpan dalam koneksi-koneksi dan mengusulkan adanya skema pembelajaran untuk memperbaiki koneksi-koneksi antar neuron tersebut. Pada tahun 954, Farley dan Clark mensetup model-model untuk relasi adaptif stimulus-respon dalam jaringan random. Pada tahun 958, Rosenblatt mengembangkan kosep dasar tentang perceptron untuk klasifikasi pola. Pada tahun 96, Widrow dan Hoff mengembangkan ADALINE untuk kendali adaptif dan pencocokan pola yang dilatih dengan aturan pembelajaran Least Mean Square (LMS). Pada tahun 974, Werbos memperkenalkan algoritma backpropagation untuk melatih perceptron dengan banyak lapisan. Pada tahun 975, Little dan Shaw menggambarkan jaringan syaraf dengan menggunakan model probabilistik. Pada tahun 98, Kohonen mengembangkan metode pembelajaran jaringan syaraf yang tidak terawasi (unsupervised learning) untuk pemetaan. Pada tahun 98, Grossberg mengembangkan teori jaringan yang diinspirasi oleh perkembangan psikologi. Bersama Carpenter, mereka mengenalkan sejumlah arsitektur jaringan, antara lain: Adaptive Resonance Theory (ART), ART, dan ART3. Pada tahun 98, Hopfield mengembangkan jaringan syaraf reccurent yang dapat digunakan untuk menyimpan informasi dan optimasi. Pada tahun 985, algoritma pembelajaran dengan menggunakan mesin Boltzmann yang menggunakan model jaringan syaraf probabilistik mulai dikembangkan. Pada tahun 987, Kosko mengembangkan jaringan Adaptive Bidirectional Associative Memory (BAM). Pada tahun 988, mulai dikembangkan fungsi radial basis. 8.3 KOMPONEN JARINGAN SYARAF Ada beberapa tipe jaringan syaraf, namun demikian, hampir semuanya memiliki komponen-komponen yang sama. Seperti halnya otak manusia, jaringan syaraf juga terdiri-dari beberapa neuron, dan ada hubungan antara neuron-neuron tersebut. Neuron-neuron tersebut akan mentransformasikan informasi yang diterima melalui sambungan keluarnya menuju ke neuron-neuron yang lain. Pada jaringan syaraf, hubungan ini dikenal dengan nama bobot. Informasi tersebut disimpan pada suatu nilai tertentu pada bobot tersebut. Gambar 8. menunjukkan struktur neuron pada jaringan syaraf. Input dari neuronneuron yang lain bobot Fungsi aktivasi Output bobot Output ke neuronneuron yang lain Gambar 8. Struktur neuron jaringan syaraf. 5

3 Jika kita lihat, neuron buatan ini sebenarnya mirip dengan sel neuron biologis. Neuron-neuron buatan tersebut bekerja dengan cara yang sama pula dengan neuron-neuron biologis. Informasi (disebut dengan: input) akan dikirim ke neuron dengan bobot kedatangan tertentu. Input ini akan diproses oleh suatu fungsi perambatan yang akan menjumlahkan nilai-nilai semua bobot yang yanag datang. Hasil penjumlahan ini kemudian akan dibandingkan dengan suatu nilai ambang (threshold) tertentu melalui fungsi aktivasi setiap neuron. Apabila input tersebut melewati suatu nilai ambang tertentu, maka neuron tersebut akan diaktifkan, tapi kalau tidak, maka neuron tersebut tidak akan diaktifkan. Apabila neuron tersebut diaktifkan, maka neuron tersebut akan mengirimkan output melalui bobot-bobot outputnya ke semua neuron yang berhubungan dengannya. Demikian seterusnya. Pada jaringan syaraf, neuron-neuron akan dikumpulkan dalam lapisan-lapisan (layer) yang disebut dengan lapisan neuron (neuron layers). Biasanya neuronneuron pada satu lapisan akan dihubungkan dengan lapisan-lapisan sebelum dan sesudahnya (kecuali lapisan input dan lapisan output). Informasi yang diberikan pada jaringan syaraf akan dirambatkan lapisan ke lapisan, mulai dari lapisan input sampai ke lapisan output melalui lapisan yang lainnya, yang sering dikenal dengan nama lapisan tersembunyi (hidden layer). Tergantung pada algoritma pembelajarannya, bisa jadi informasi tersebut akan dirambatkan secara mundur pada jaringan. Gambar 8.3 menunjukkan jaringan syaraf dengan 3 lapisan. Nilai input Neuron-neuron pada lapisan input Neuron-neuron pada lapisan tersembunyi Neuron-neuron pada lapisan output Nilai output Gambar 8.3 Jaringan syaraf dengan 3 lapisan. Gambar 8.3 bukanlah struktur umum jaringan syaraf. Beberapa jaringan syaraf ada juga yang tidak memiliki lapisan tersembunyi, dan ada juga jaringan syaraf dimana neuron-neuronnya disusun dalam bentuk matriks. 8.4 ARSITEKTUR JARINGAN Seperti telah dijelaskan sebelumnya bahwa neuron-neuron dikelompokkan dalan lapisan-lapisan. Umumnya, neuron-neuron yang terletak pada lapisan yang sama akan memiliki keadaan yang sama. Faktor terpenting dalam menentukan kelakuan suatu neuron adalah fungsi aktivasi dan pola bobotnya. Pada setiap lapisan yang sama, neuron-neuron akan memiliki fungsi aktivasi yang sama. 5

4 Apabila neuron-neuron dalam suatu lapisan (misalkan lapisan tersembunyi) akan dihubungkan dengan neuron-neuron pada lapisan yang lain (misalkan lapisan output), maka setiap neuron pada lapisan tersebut (misalkan lapisan tersembunyi) juga harus dihubungkan dengan setiap lapisan pada lapisan lainnya (misalkan lapisan output). Ada beberapa arsitektur jaringan syaraf, antara lain: a. Jaringan dengan lapisan tunggal (single layer net) Jaringan dengan lapisan tunggal hanya memiliki satu lapisan dengan bobot-bobot terhubung. Jaringan ini hanya menerima input kemudian secara langsung akan mengolahnya menjadi output tanpa harus melalui lapisan tersembunyi (Gambar 8.4). Pada Gambar 8.4 tersebut, lapisan input memiliki 3 neuron, yaitu X, X dan X 3. Sedangkan pada lapisan output memiliki neuron yaitu Y dan Y. Neuronneuron pada kedua lapisan saling berhubungan. Seberapa besar hubungan antara neuron ditentukan oleh bobot yang bersesuaian. Semua unit input akan dihubungkan dengan setiap unit output. Nilai input X X X 3 Lapisan Input w w w w w 3 w 3 Matriks bobot Y Y Lapisan Output Nilai output Gambar 8.4 Jaringan syaraf dengan lapisan tunggal. b. Jaringan dengan banyak lapisan (multilayer net) Jaringan dengan banyak lapisan memiliki atau lebih lapisan yang terletak diantara lapisan input dan lapisan output (memiliki atau lebih lapisan tersembunyi), seperti terlihat pada Gambar 8.5. Umumnya, ada lapisan bobotbobot yang terletak antara lapisan yang bersebelahan. Jaringan dengan banyak lapisan ini dapat menyelesaikan permasalahan yang lebih sulit daripada lapisan dengan lapisan tunggal, tentu saja dengan pembelajaran yang lebih rumit. Namun demikian, pada banyak kasus, pembelajaran pada jaringan dengan banyak lapisan ini lebih sukses dalam menyelesaikan masalah. 5

5 Nilai input X X X 3 Lapisan Input v v v v v 3 v 3 Matriks bobot pertama Z Z Lapisan Tersembunyi w w Matriks bobot kedua Y Lapisan Output Nilai output Gambar 8.5 Jaringan syaraf dengan banyak lapisan. c. Jaringan dengan lapisan kompetitif (competitive layer net) Umumnya, hubungan antar neuron pada lapisan kompetitif ini tidak diperlihatkan pada diagram arsitektur. Gambar 8.6 menunjukkan salah satu contoh arsitektur jaringan dengan lapisan kompetitif yang memiliki bobot -. A - A i A m A j - Gambar 8.6 Jaringan syaraf dengan lapisan kompetitif. 8.5 FUNGSI AKTIVASI Ada beberapa fungsi aktivasi yang sering digunakan dalam jaringan syaraf tiruan, antara lain: a. Fungsi Undak Biner (Hard Limit) Jaringan dengan lapisan tunggal sering menggunakan fungsi undak (step function) untuk mengkonversikan input dari suatu variabel yang bernilai kontinu ke suatu output biner ( atau ) (Gambar 8.7). 53

6 Fungsi undak biner (hard limit) dirumuskan sebagai:, y, jika x jika x y Gambar 8.7 Fungsi aktivasi: Undak Biner (hard limit). x b. Fungsi Undak Biner (Threshold) Fungsi undak biner dengan menggunakan nilai ambang sering juga disebut dengan nama fungsi nilai ambang (threshold) atau fungsi Heaviside (Gambar 8.8). Fungsi undak biner (dengan nilai ambang ) dirumuskan sebagai: y, y, jika x jika x x Gambar 8.8 Fungsi aktivasi: Undak Biner (threshold). c. Fungsi Bipolar (Symetric Hard Limit) Fungsi bipolar sebenarnya hampir sama dengan fungsi undak biner, hanya saja output yang dihasilkan berupa, atau (Gambar 8.9). Fungsi Symetric Hard Limit dirumuskan sebagai:, y,, jika x jika x jika x y x - Gambar 8.9 Fungsi aktivasi: Bipolar (symetric hard limit). 54

7 d. Fungsi Bipolar (dengan threshold) Fungsi bipolar sebenarnya hampir sama dengan fungsi undak biner dengan threshold, hanya saja output yang dihasilkan berupa, atau (Gambar 8.). Fungsi bipolar (dengan nilai ambang ) dirumuskan sebagai:, y, jika x jika x y x - Gambar 8. Fungsi aktivasi: Bipolar (threshold). e. Fungsi Linear (identitas) Fungsi linear memiliki nilai output yang sama dengan nilai inputnya (Gambar 8.). Fungsi linear dirumuskan sebagai: y x y - x - Gambar 8. Fungsi aktivasi: Linear (identitas). f. Fungsi Saturating Linear Fungsi ini akan bernilai jika inputnya kurang dari ½, dan akan bernilai jika inputnya lebih dari ½. Sedangkan jika nilai input terletak antara ½ dan ½, maka outpunya akan bernilai sama dengan nilai input ditambah ½ (Gambar 8.). Fungsi saturating linear dirumuskan sebagai: ; y x,5; ; jika x,5 jika,5 x,5 jika x,5 55

8 y -,5,5 x Gambar 8. Fungsi aktivasi: Saturating Linear g. Fungsi Symetric Saturating Linear Fungsi ini akan bernilai - jika inputnya kurang dari, dan akan bernilai jika inputnya lebih dari. Sedangkan jika nilai input terletak antara dan, maka outpunya akan bernilai sama dengan nilai inputnya (Gambar 8.3). Fungsi symetric saturating linear dirumuskan sebagai: ; y x; ; jika x jika x jika x y - x - Gambar 8.3 Fungsi aktivasi: Symetric Saturating Linear. h. Fungsi Sigmoid Biner. Fungsi ini digunakan untuk jaringan syaraf yang dilatih dengan menggunakan metode backpropagation. Fungsi sigmoid biner memiliki nilai pada range sampai. Oleh karena itu, fungsi ini sering digunakan untuk jaringan syaraf yang membutuhkan nilai output yang terletak pada interval sampai. Namun, fungsi ini bisa juga digunakan oleh jaringan syaraf yang nilai outputnya atau (Gambar 8.4). Fungsi sigmoid biner dirumuskan sebagai: y f(x) x e dengan: f'(x) f(x)[ f(x)] 56

9 y = =,5 y.6.5 = x Gambar 8.4 Fungsi aktivasi: Sigmoid Biner. i. Fungsi Sigmoid Bipolar Fungsi sigmoid bipolar hampir sama dengan fungsi sigmoid biner, hanya saja output dari fungsi ini memiliki range antara sampai (Gambar 8.5). Fungsi sigmoid bipolar dirumuskan sebagai: x e y f(x) x e dengan: f'(x) [ f(x)][ f(x)] Fungsi ini sangat dekat dengan fungsi hyperbolic tangent. Keduanya memiliki range antara sampai. Untuk fungsi hyperbolic tangent, dirumuskan sebagai: y f(x) x x e e x x e e atau x e y f(x) x e dengan: f'(x) [ f(x)][ f(x)] = =,5 = x Gambar 8.5 Fungsi aktivasi: Sigmoid Bipolar. 57

10 8.6 PROSES PEMBELAJARAN Pada otak manusia, informasi yang dilewatkan dari satu neuron ke neuron yang lainnya berbentuk rangsangan listrik melalui dendrit. Jika rangsangan tersebut diterima oleh suatu neuron, maka neuron tersebut akan membangkitkan output ke semua neuron yang berhubungan dengannya sampai informasi tersebut sampai ke tujuannya yaitu terjadinya suatu reaksi. Jika rangsangan yang diterima terlalu halus, maka output yang dibangkitkan oleh neuron tersebut tidak akan direspon. Tentu saja sangatlah sulit untuk memahami bagaimana otak manusia bisa belajar. Selama proses pembelajaran, terjadi perubahan yang cukup berarti pada bobot-bobot yang menghubungkan antar neuron. Apabila ada rangsangan yang sama dengan rangsangan yang telah diterima oleh neuron, maka neuron akan memberikan reaksi dengan cepat. Namun apabila kelak ada rangsangan yang berbeda dengan apa yang telah diterima oleh neuron, maka neuron akan segera beradaptasi untuk memberikan reaksi yang sesuai. Jaringan syaraf akan mencoba untuk mensimulasikan kemampuan otak manusia untuk belajar. Jaringan syaraf tiruan juga tersusun atas neuronneuron dan dendrit. Tidak seperti model biologis, jaringan syaraf memiliki struktur yang tidak dapat diubah, dibangun oleh sejumlah neuron, dan memiliki nilai tertentu yang menunjukkan seberapa besar koneksi antara neuron (yang dikenal dengan nama bobot). Perubahan yang terjadi selama proses pembelajaran adalah perubahan nilai bobot. Nilai bobot akan bertambah, jika informasi yang diberikan oleh neuron yang bersangkutan tersampaikan, sebaliknya jika informasi tidak disampaikan oleh suatu neuron ke neuron yang lain, maka nilai bobot yang menghubungkan keduanya akan dikurangi. Pada saat pembelajaran dilakukan pada input yang berbeda, maka nilai bobot akan diubah secara dinamis hingga mencapai suatu nilai yang cukup seimbang. Apabila nilai ini telah tercapai mengindikasikan bahwa tiap-tiap input telah berhubungan dengan output yang diharapkan. a. Pembelajaran terawasi (supervised learning) Metode pembelajaran pada jaringan syaraf disebut terawasi jika output yang diharapkan telah diketahui sebelumnya. Contoh: andaikan kita memiliki jaringan syaraf yang akan digunakan untuk mengenali pasangan pola, misalkan pada operasi AND: Input target Pada proses pembelajaran, satu pola input akan diberikan ke satu neuron pada lapisan input. Pola ini akan dirambatkan di sepanjang jaringan syaraf hingga sampai ke neuron pada lapisan output. Lapisan output ini akan membangkitkan pola output yang nantinya akan dicocokkan dengan pola output targetnya. Apabila terjadi perbedaan antara pola output hasil pembelajaran dengan pola target, maka disini akan muncul error. Apabila nilai error ini masih cukup besar, mengindikasikan bahwa masih perlu dilakukan lebih banyak pembelajaran lagi. 58

11 b. Pembelajaran tak terawasi (unsupervised learning) Pada metode pembelajaran yang tak terawasi ini tidak memerlukan target output. Pada metode ini, tidak dapat ditentukan hasil yang seperti apakah yang diharapkan selama proses pembelajaran. Selama proses pembelajaran, nilai bobot disusun dalam suatu range tertentu tergantung pada nilai input yang diberikan. Tujuan pembelajaran ini adalah mengelompokkan unit-unit yang hampir sama dalam suatu area tertentu. Pembelajaran ini biasanya sangat cocok untuk pengelompokan (klasifikasi) pola. 8.7 PEMBELAJARAN TERAWASI (SUPERVISED LEARNING) A. Hebb Rule Hebb rule adalah metode pembelajaran yang paling sederhana. Pada metode ini pembelajaran dilakukan dengan cara memperbaiki nilai bobot sedemikian rupa sehingga jika ada neuron yang terhubung, dan keduanya pada kondisi hidup (on) pada saat yang sama, maka bobot antara keduanya dinaikkan. Apabila data direpresentasikan secara bipolar, maka perbaikan bobotnya adalah: dengan: w i : bobot data input ke-i; x i : input data ke-i. y : output data. w i (baru) = w i (lama) + x i *y Misalkan kita gunakan pasangan vektor input s dan vektor output sebagai pasangan vektor yang akan dilatih. Sedangkan vektor yang hendak digunakan untuk testing adalah vektor x. Algoritma. Inisialisasi semua bobot: w ij = ; dengan i=,,...,n; dan j=,,...,m.. Untuk setiap pasangan input-output (s-t), lakukan langkah-langkah sebagai berikut: a. Set input dengan nilai sama dengan vektor input: x i = s i ; (i=,,...,n) b. Set output dengan nilai sama dengan vektor output: y j = t j ; c. Perbaiki bobot: (j=,,...,m) w ij (baru) = w ij (lama) + x i *y j ; (i=,,...,n; dan j=,,...,m) dengan catatan bahwa nilai bias selalu. Contoh 8.: Misalkan kita ingin membuat jaringan syaraf untuk melakukan pembelajaran terhadap fungsi OR dengan input dan target bipolar sebagai berikut: 59

12 Input Bias Target Bobot awal dan bobot bias kita set=. Arsitektur jaringan untuk contoh 8.. x w xw+b y_in F(y_in) y x w b Gambar 8.6 Arsitektur jaringan contoh 8.. X = T = - Bobot awal = w = b = Perubahan bobot: Data ke- w = + = w = + = b = - = - Data ke- w = - = w = + = b = - + = Data ke-3 w = + = w = - = b = + = Data ke-4 w = + = w = + = b = + = 6

13 Kita bisa melakukan pengetesan terhadap salah satu data yang ada, misal kita ambil x=[- ]. Y = + (-*) + (-*) = - B. Perceptron Perceptron juga termasuk salah satu bentuk jaringan syaraf yang sederhana. Perceptron biasanya digunakan untuk mengklasifikasikan suatu tipe pola tertentu yang sering dikenal dengan pemisahan secara linear. Pada dasarnya, perceptron pada jaringan syaraf dengan satu lapisan memiliki bobot yang bisa diatur dan suatu nilai ambang (threshold). Algoritma yang digunakan oleh aturan perceptron ini akan mengatur parameter-parameter bebasnya melalui proses pembelajaran. Nilai threshold () pada fungsi aktivasi adalan non negatif. Fungsi aktivasi ini dibuat sedemikian rupa sehingga terjadi pembatasan antara daerah positif dan daerah negatif (Gambar 8.7). x + - daerah negatif + - daerah positif daerah nol x Gambar 8.7 Pembatasan linear dengan perceptron. Garis pemisah antara daerah positif dan daerah nol memiliki pertidaksamaan: w x + w x + b > Sedangkan garis pemisah antara daerah negatif dengan daerah nol memiliki pertidaksamaan: w x + w x + b < - Misalkan kita gunakan pasangan vektor input s dan vektor output sebagai pasangan vektor yang akan dilatih. Algoritma:. Inisialisasi semua bobot dan bias: (untuk sederhananya set semua bobot dan bobot bias sama dengan nol). Set learning rate: ( < ). (untuk sederhananya set sama dengan ).. Selama kondisi berhenti bernilai false, lakukan langkah-langkah sebagai berikut: (i). Untuk setiap pasangan pembelajaran s-t, kerjakan: a. Set input dengan nilai sama dengan vektor input: x i = s i ; 6

14 b. Hitung respon untuk unit output: y _ in b i x i w i, y,, jika y _ in jika y _ in jika y _ in c. Perbaiki bobot dan bias jika terjadi error: Jika y t maka: w i (baru) = w i (lama) + *t*x i b(baru) = b(lama) + *t jika tidak, maka: w i (baru) = w i (lama) b(baru) = b(lama) (ii). Tes kondisi berhenti: jika tidak terjadi perubahan bobot pada (i) maka kondisi berhenti TRUE, namun jika masih terjadi perubahan maka kondisi berhenti FALSE. Algoritma di atas bisa digunakan baik untuk input biner maupun bipolar, dengan tertentu, dan bias yang dapat diatur. Pada algoritma tersebut bobot-bobot yang diperbaiki hanyalah bobot-bobot yang berhubungan dengan input yang aktif (x i ) dan bobot-bobot yang tidak menghasilkan nilai y yang benar. Contoh 8.: Misalkan kita ingin membuat jaringan syaraf untuk melakukan pembelajaran terhadap fungsi AND dengan input biner dan target bipolar sebagai berikut: Input Bias Target Arsitektur jaringan untuk contoh 8. terlihat pada Gambar 8.8. x w xw+b y_in F(y_in) y x w b Gambar 8.8 Arsitektur jaringan contoh 8.. Bobot awal : w = [,,] Bobot bias awal : b = [,] Learning rate (alfa):,8 Threshold (tetha) :,5 6

15 Epoh ke Data ke- y_in =, +, +, =, Hasil aktivasi = (-,5 < y_in <,5) Target = Bobot baru: w =, +,8 *, *, =,8 w =, +,8 *, *, =,8 Bobot bias baru: b =, +,8 *, =,8 Data ke- y_in =,8 +,8 +, =,6 Hasil aktivasi = (y_in >,5) Target = - Bobot baru: w =,8 +,8 * -, *, =, w =,8 +,8 * -, *, =,8 Bobot bias baru: b =,8 +,8 * -, =, Data ke-3 y_in =, +, +,8 =,8 Hasil aktivasi = (y_in >,5) Target = - Bobot baru: w =, +,8 * -, *, =, w =,8 +,8 * -, *, =, Bobot bias baru: b =, +,8 * -, = -,8 Data ke-4 y_in = -,8 +, +, = -,8 Hasil aktivasi = - (y_in < -,5) Target = - Epoh ke Data ke- y_in = -,8 +, +, = -,8 Hasil aktivasi = - (y_in < -,5) Target = Bobot baru: w =, +,8 *, *, =,8 w =, +,8 *, *, =,8 Bobot bias baru: b = -,8 +,8 *, =, Data ke- y_in =, +,8 +, =,8 Hasil aktivasi = (y_in >,5) Target = - Bobot baru: w =,8 +,8 * -, *, =, w =,8 +,8 * -, *, =,8 Bobot bias baru: b =, +,8 * -, = -,8 63

16 Data ke-3 y_in = -,8 +, +,8 =, Hasil aktivasi = (-,5 < y_in <,5) Target = - Bobot baru: w =, +,8 * -, *, =, w =,8 +,8 * -, *, =, Bobot bias baru: b = -,8 +,8 * -, = -,6 Data ke-4 y_in = -,6 +, +, = -,6 Hasil aktivasi = - (y_in < -,5) Target = - Epoh ke Data ke- y_in = -,6 +, +, = -,6 Hasil aktivasi = - (y_in < -,5) Target = Bobot baru: w =, +,8 *, *, =,8 w =, +,8 *, *, =,8 Bobot bias baru: b = -,6 +,8 *, = -,8 Data ke- y_in = -,8 +,8 +, =, Hasil aktivasi = (-,5 < y_in <,5) Target = - Bobot baru: w =,8 +,8 * -, *, =, w =,8 +,8 * -, *, =,8 Bobot bias baru: b = -,8 +,8 * -, = -,6 Data ke-3 y_in = -,6 +, +,8 = -,8 Hasil aktivasi = - (y_in < -,5) Target = - Data ke-4 y_in = -,6 +, +, = -,6 Hasil aktivasi = - (y_in < -,5) Target = - Epoh ke Data ke- y_in = -,6 +, +,8 = -,8 Hasil aktivasi = - (y_in < -,5) Target = Bobot baru: w =, +,8 *, *, =,8 w =,8 +,8 *, *, =,6 Bobot bias baru: b = -,6 +,8 *, = -,8 64

17 Data ke- y_in = -,8 +,8 +, =, Hasil aktivasi = (-,5 < y_in <,5) Target = - Bobot baru: w =,8 +,8 * -, *, =, w =,6 +,8 * -, *, =,6 Bobot bias baru: b = -,8 +,8 * -, = -,6 Data ke-3 y_in = -,6 +, +,6 =, Hasil aktivasi = (-,5 < y_in <,5) Target = - Bobot baru: w =, +,8 * -, *, =, w =,6 +,8 * -, *, =,8 Bobot bias baru: b = -,6 +,8 * -, = -,4 Data ke-4 y_in = -,4 +, +, = -,4 Hasil aktivasi = - (y_in < -,5) Target = - Epoh ke Data ke- y_in = -,4 +, +,8 = -,6 Hasil aktivasi = - (y_in < -,5) Target = Bobot baru: w =, +,8 *, *, =,8 w =,8 +,8 *, *, =,6 Bobot bias baru: b = -,4 +,8 *, = -,6 Data ke- y_in = -,6 +,8 +, = -,8 Hasil aktivasi = - (y_in < -,5) Target = - Data ke-3 y_in = -,6 +, +,6 = -, Hasil aktivasi = (-,5 < y_in <,5) Target = - Bobot baru: w =,8 +,8 * -, *, =,8 w =,6 +,8 * -, *, =,8 Bobot bias baru: b = -,6 +,8 * -, = -,4 Data ke-4 y_in = -,4 +, +, = -,4 Hasil aktivasi = - (y_in < -,5) Target = - Epoh ke

18 Data ke- y_in = -,4 +,8 +,8 = -,8 Hasil aktivasi = - (y_in < -,5) Target = Bobot baru: w =,8 +,8 *, *, =,6 w =,8 +,8 *, *, =,6 Bobot bias baru: b = -,4 +,8 *, = -,6 Data ke- y_in = -,6 +,6 +, = -, Hasil aktivasi = (-,5 < y_in <,5) Target = - Bobot baru: w =,6 +,8 * -, *, =,8 w =,6 +,8 * -, *, =,6 Bobot bias baru: b = -,6 +,8 * -, = -,4 Data ke-3 y_in = -,4 +, +,6 = -,8 Hasil aktivasi = - (y_in < -,5) Target = - Data ke-4 y_in = -,4 +, +, = -,4 Hasil aktivasi = - (y_in < -,5) Target = - Epoh ke Data ke- y_in = -,4 +,8 +,6 = -, Hasil aktivasi = (-,5 < y_in <,5) Target = Bobot baru: w =,8 +,8 *, *, =,6 w =,6 +,8 *, *, =,4 Bobot bias baru: b = -,4 +,8 *, = -,6 Data ke- y_in = -,6 +,6 +, = -, Hasil aktivasi = (-,5 < y_in <,5) Target = - Bobot baru: w =,6 +,8 * -, *, =,8 w =,4 +,8 * -, *, =,4 Bobot bias baru: b = -,6 +,8 * -, = -,4 Data ke-3 y_in = -,4 +, +,4 =, Hasil aktivasi = (-,5 < y_in <,5) Target = - Bobot baru: w =,8 +,8 * -, *, =,8 w =,4 +,8 * -, *, =,6 Bobot bias baru: 66

19 b = -,4 +,8 * -, = -3, Data ke-4 y_in = -3, +, +, = -3, Hasil aktivasi = - (y_in < -,5) Target = - Epoh ke Data ke- y_in = -3, +,8 +,6 = -,8 Hasil aktivasi = - (y_in < -,5) Target = Bobot baru: w =,8 +,8 *, *, =,6 w =,6 +,8 *, *, =,4 Bobot bias baru: b = -3, +,8 *, = -,4 Data ke- y_in = -,4 +,6 +, = -,8 Hasil aktivasi = - (y_in < -,5) Target = - Data ke-3 y_in = -,4 +, +,4 =, Hasil aktivasi = (-,5 < y_in <,5) Target = - Bobot baru: w =,6 +,8 * -, *, =,6 w =,4 +,8 * -, *, =,6 Bobot bias baru: b = -,4 +,8 * -, = -3, Data ke-4 y_in = -3, +, +, = -3, Hasil aktivasi = - (y_in < -,5) Target = - Epoh ke Data ke- y_in = -3, +,6 +,6 =, Hasil aktivasi = (-,5 < y_in <,5) Target = Bobot baru: w =,6 +,8 *, *, =,4 w =,6 +,8 *, *, =,4 Bobot bias baru: b = -3, +,8 *, = -,4 Data ke- y_in = -,4 +,4 +, =, Hasil aktivasi = (-,5 < y_in <,5) Target = - Bobot baru: w =,4 +,8 * -, *, =,6 w =,4 +,8 * -, *, =,4 Bobot bias baru: b = -,4 +,8 * -, = -3, 67

20 Data ke-3 y_in = -3, +, +,4 = -,8 Hasil aktivasi = - (y_in < -,5) Target = - Data ke-4 y_in = -3, +, +, = -3, Hasil aktivasi = - (y_in < -,5) Target = - Epoh ke Data ke- y_in = -3, +,6 +,4 =,8 Hasil aktivasi = (y_in >,5) Target = Data ke- y_in = -3, +,6 +, = -,6 Hasil aktivasi = - (y_in < -,5) Target = - Data ke-3 y_in = -3, +, +,4 = -,8 Hasil aktivasi = - (y_in < -,5) Target = - Data ke-4 y_in = -3, +, +, = -3, Hasil aktivasi = - (y_in < -,5) Target = - Pada epoh ke- ini sudah tidak terjadi perubahan bobot, sehingga proses pembelajaran dihentikan. Hasil akhir diperoleh: Nilai bobot, w =,6; dan w =,4. Bobot bias, b = -3,. Dengan demikian garis yang membatasi daerah positif dengan daerah nol memenuhi pertidaksamaan:,6 x +,4 x 3, >,5 Sedangkan garis yang membatasi daerah negatif dengan daerah nol memenuhi pertidaksamaan: C. Delta Rule,6 x +,4 x 3, < -,5 Pada delta rule akan mengubah bobot yang menghubungkan antara jaringan input ke unit output (y_in) dengan nilai target (t). Hal ini dilakukan untuk meminimalkan error selama pelatihan pola. Delta rule untuk memperbaiki bobot ke-i (untuk setiap pola) adalah: w i = (t y_in)*x i ; 68

21 dengan: x = vektor input. y_in = input jaringan ke unit output Y. y _ in n xi * w i i t = target (output). Nilai w baru diperoleh dari nilai w lama ditambah dengan w, w i = w i + w i Contoh 8.3: Akan dibentuk jaringan syaraf untuk operasi OR (Tabel 8.). Tabel 8.. Operasi OR x x Target (t) x OR x Ada input (x dan x ) dengan output (target t). Arsitektur jaringan terdiri-dari lapisan input dan satu lapisan output (Gambar 8.9). Hanya ada neuron pada lapisan output. x w xw y_in F(y_in) y x w Gambar 8.9 Arsitektur jaringan pada Contoh 8.3. Karena target yang diharapkan berbentuk biner, maka fungsi aktivasi yang digunakan adalah fungsi undak biner, dengan =,5. Learning rate yang digunakan adalah =,. Bobot awal yang dipilih w =, dan w =,3. Disini nilai error () diperoleh dari nilai t-y. Pada Epoh pertama: Data ke- : x = ; x = ; t =. w =, dan w =,3. a = x w + x w = *, + *,3 =. y =, karena a =,5. = t y = =. w = w + *x * =, +,** =,. w = w + *x * =,3 +,** =,3. Data ke- : x = ; x = ; t =. 69

22 w =, dan w =,3. a = x w + x w = *, + *,3 =,3. y =, karena a =,3,5. = t y = =. w = w + *x * =, +,** =,. w = w + *x * =,3 +,** =,5. Data ke-3 : x 3 = ; x 3 = ; t 3 =. w =, dan w =,5. a 3 = x 3 w + x 3 w = *, + *,5 =,. y 3 =, karena a 3 =,,5. 3 = t 3 y 3 = =. w = w + *x 3 * 3 =, +,** =,3. w = w + *x 3 * 3 =,5 +,** =,5. Data ke-4 : x 4 = ; x 4 = ; t 4 =. w =,3 dan w =,5. a 4 = x 4 w + x 4 w = *,3 + *,5 =,8. y 4 =, karena a 4 =,8 >,5. 4 = t 4 y 4 = =. w = w + *x 4 * 4 =,3 +,** =,3. w = w + *x 4 * 4 =,5 +,** =,5. Pada Epoh kedua: Data ke- : x = ; x = ; t =. w =,3 dan w =,5. a = x w + x w = *,3 + *,5 =. y =, karena a =,5. = t y = =. w = w + *x * =,3 +,** =,3. w = w + *x * =,5 +,** =,5. Demikian seterusnya. Hasil akhir, dengan Err= tercapai pada Epoh ke-4. Hasil selengkapnya terlihat pada Tabel 8.. Tabel 8.. Hasil pembelajaran sampai epoh ke-4. Epoh x x t Bobot Awal Bobot Akhir a y w w w w,,3,,,3,,3,3,,,5,,5,,,3,5,3,5,8,,3,5,3,5,,3,5,3,5,5,,3,7,3,7,3,,5,7,5,7,,,5,7 3,5,7,,5,7,5,7,7,,5,7,5,7,5,,7,7,7,7,4,,7,7 4,7,7,,7,7,7,7,7,,7,7,7,7,7,,7,7 7

23 D. Backpropagation,7,7,4,,7,7 Backpropagation merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuran yang ada pada lapisan tersembunyinya. Algoritma backpropagation menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur (backward). Untuk mendapatkan error ini, tahap perambatan maju (forward propagation) harus dikerjakan terlebih dahulu. Pada saat perambatan maju, neuron-neuron diaktifkan dengan menggunakan fungsi aktivasi sigmoid, yaitu: f(x) x e Arsitektur jaringan backpropagation seperti terlihat pada Gambar 8.. X v Y w v Z w X v v w 3 Y w Z w v 3 X 3 v 3 w 3 Y 3 Gambar 8. Arsitektur jaringan backpropagation. Algoritma backpropagation: Inisialisasi bobot (ambil bobot awal dengan nilai random yang cukup kecil). Kerjakan langkah-langkah berikut selama kondisi berhenti bernilai FALSE:. Untuk tiap-tiap pasangan elemen yang akan dilakukan pembelajaran, kerjakan: Feedforward: a. Tiap-tiap unit input (X i, i=,,3,...,n) menerima sinyal x i dan meneruskan sinyak tersebut ke semua unit pada lapisan yang ada di atasnya (lapisan tersembunyi). b. Tiap-tiap unit tersembunyi (Z i, j=,,3,...,p) menjumlahkan sinyalsinyal input terbobot: n z _ inj vj xivij i gunakan fungsi aktivasi untuk menghitung sinyal outputnya: 7

24 z j = f(z_in j ) dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unitunit output). c. Tiap-tiap unit output (Y k, k=,,3,...,m) menjumlahkan sinyalsinyal input terbobot. p y _ ink wk ziw jk i gunakan fungsi aktivasi untuk menghitung sinyal outputnya: y k = f(y_in k ) dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unitunit output). Backpropagation d. Tiap-tiap unit output (Y k, k=,,3,...,m) menerima target pola yang berhubungan dengan pola input pembelajaran, hitung informasi errornya: k = (t k y k ) f (y_in k ) kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk memperbaiki nilai w jk ): w jk = k z j hitung juga koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai w k ): w k = k kirimkan k ini ke unit-unit yang ada di lapisan bawahnya. e. Tiap-tiap unit tersembunyi (Z j, j=,,3,...,p) menjumlahkan delta inputnya (dari unit-unit yang berada pada lapisan di atasnya): m _ in j kwjk k kalikan nilai ini dengan turunan dari fungsi aktivasinya untuk menghitung informasi error: j = _in j f (z_in j ) kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk memperbaiki nilai v ij ): v jk = j x i hitung juga koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai v j ): 7

25 v j = j f. Tiap-tiap unit output (Y k, k=,,3,...,m) memperbaiki bias dan bobotnya (j=,,,...,p): w jk (baru) = w jk (lama) + w jk Tiap-tiap unit tersembunyi (Z j, j=,,3,...,p) memperbaiki bias dan bobotnya (i=,,,...,n):. Tes kondisi berhenti, v ij (baru) = v ij (lama) + v ij Contoh 8.4: Akan dibentuk jaringan syaraf untuk operasi XOR. Ada input (X dan X ) dengan output (target T). Arsitektur jaringan (Gambar 8.) terdiri-dari: lapisan input, lapisan tersembunyi dengan 4 neuron, fungsi aktivasi yang digunakan pada setiap neuron pada lapisan ini adalah fungsi sigmoid (z= ). z _ in e lapisan output dengan neuron, fungsi aktivasi yang digunakan pada neuron di lapisan ini adalah fungsi sigmoid (y= ). y _ in e Bobot awal yang menghubungkan neuron-neuron pada lapisan input dan lapisan tersembunyi (v, v, v, v ) dan bobot bias v dan v dipilih secara acak. Demikian pula bobot awal yang menghubungkan neuron-neuron pada lapisan tersembunyi dan lapisan output (w, w ) dan bobot bias w juga dipilih secara acak. v x xivi i z_in z w v x v 4 v v 3 v v v x xivi i v 3x xivi3 i z_in z_in 3 z z 3 w w 3 w 4 x i w i i y_in y v 3 w 4 x v 4 v v v 4x xivi4 i z_in 4 z 4 w v 3 v 4 Gambar 8. Arsitektur jaringan syaraf untuk backpropagation: Operasi XOR. 73

26 Pada inisialisasi ditetapkan: X = T = Jumlah neuron pada input layer = 4 Jumlah neuron pada hidden layer = Jumlah neuron pada output layer = Learning rate () =, Maksimum Epoh = 5 Target Error =, Bobot awal (ditentukan secara acak): Bobot Awal input ke hidden v =,956,776,63,886,96,633,3,97 Bobot Awal bias ke hidden v =,7496,3796,756,68 Bobot Awal hidden ke output w =,8,9585,6799,55 Bobot Awal bias ke output w =,955 Pembelajaran: Epoh ke-: Data ke = Operasi pada Hidden Layer ---> > Penjumlahan terbobot: z_in = v + v *x + v *x =,7496 +,956* +,96* =,7496 z_in = v + v *x + v *x =,3796 +,776* +,633* =,

27 z_in 3 = v 3 + v 3 *x + v 3 *x =,756 +,63* +,3* =,756 z_in 4 = v 4 + v 4 *x + v 4 *x =,68 +,886* +,97* =,68 > Pengaktifan: z,7496 e,679 z,3796 e,5938 z3,756 e,6738 z4,68 e,546 Operasi pada Output Layer ---> > Perkalian: y_in = w + w *z + w *z + w 3 *z 3 + w 4 *z 4 =,955 +,8*,679 +,9585*,5938 +,6799*,6738 +,55*,546 =,63 > Pengaktifan: y e,63,8968 Error =,8968 = -,8968 Jumlah Kuadrat Error = (-,8968) =,848 (T y) * * y _ in y _ in e e (,8968) * *,899,63,63 e e w * * z w * (,899) *,679,5636 w * * z w * (,899) *,5936,498 w3 * * z 3 75

28 76,559,899) *,6738 * ( w 3 4 z 4 * * w,4486,899) *,546 * ( w 4 * w -,899,899) * ( w,893,899 *,8 w * in,7955,899 *,9585 w * in,564,899 *,6799 w * 3 3 in,456,899 *,55 w * 4 4 in z _ in z _ in in e * e *,4 e * e,893 *,679,679 z _ in z _ in in e * e *,99 e * e,7955 *,5938, z _ in z _ in3 in3 3 e * e *,4 e * e,564 *,6738, z _ in z _ in4 in4 4 e * e *,3 e * e,456 *,546,546 4,4) * * ( * x * v demikian juga v =v 3 =v 4 =v =v =v 3 =v 4,=.,4,4) * ( * v,99,99) * ( * v,4,4) * ( * v 3 3,3,3) * ( * v 4 4 v = v + v =,956 + =,956 v = v + v =,776 + =,776

29 v 3 = v 3 + v 3 =,63 + =,63 v 4 = v 4 + v 4 =,886 + =,886 v = v + v =,96 + =,96 v = v + v =,633 + =,633 v 3 = v 3 + v 3 =,3 + =,3 v 4 = v 4 + v 4 =,97 + =,97 v = v + v =,7496,4 =,7455 v = v + v =,3796,99 =,364 v 3 = v 3 + v 3 =,756,4 =,73 v 4 = v 4 + v 4 =,68,3 =,67 w = w + w =,8,5636 =,77 w = w + w =,9585,498 =,99 w 3 = w 3 + w 3 =,6799,559 =,639 w 4 = w 4 + w 4 =,55,4486 =, w = w + w =,955,899 =,8675 Pada data kedua, juga dilakukan operasi-operasi yang sama dengan menggunakan bobot-bobot akhir hasil pengolahan data pertama ini sebagai bobot-bobot awalnya. Proses ini dilakukan secara berulang sampai pada maksimum epoh (5) atau kuadrat error < target error (,). Berikut adalah bobot akhir setelah epoh ke-898: Bobot Akhir input ke hidden v = 5,876 3,667 3,4877 -,74-4,853,88-5,943,7636 Bobot Akhir bias ke hidden v =,468 -,3884 -,458 -,6994 Bobot Akhir hidden ke output w = -7,997 3,578 6,9 -,753 Bobot Akhir bias ke output w =,657 Gambar 8. menunjukkan grafik penurunan Mean Square Error (MSE) pada setiap epoh, mulai dari epoh pertama sampai epoh ke

30 . 4 5 G ra fik M S E t ia p e p o h M S E E p o h Gambar 8. Grafik penurunan Mean Square Error (MSE) sampai epoh ke-898. Sekarang kita akan melakukan pengujian terhadap data: x=[ ] Operasi pada hidden layer: z_in = v + (v *x )+ (v *x ) =,468 + (5,876*) + (-4,853*) = -,394 z f(,394),838,394 e z_in = v + (v *x )+ (v *x ) = -, (3,667*) + (,88*) =,444 z f(,444),979,444 e z_in 3 = v 3 + (v 3 *x )+ (v 3 *x ) = -,458 + (3,4877*) + (-5,943*) = -6,6 z3 f( 6,6),3 6,6 e z_in 4 = v 4 + (v 4 *x )+ (v 4 *x ) = -, (-,74*) + (,7636*) =,64 z4 f(,64),56,64 e Operasi pada output layer: y_in = w + z *w + z *w + z 3 *w 3 + z 4 *w 4. =,657 + (,838*-7,997) + (,979*3,578) + 78

31 (,3*6,9) + (,56*-,753) =,9684 z f(,9684),9684 e,95 Misalkan kita ambil threshold =,5; artinya jika nilai y,5 maka output yang diberikan adalah, namun jika nilai y <,5 maka output yang diberikan adalah. Dengan demikian output dari x=[ ] adalah (karena,95>,5). Sesuai dengan target yang diharapkan. E. Heteroassociative Memory Jaringan syaraf associative memory adalah jaringan yang bobot-bobotnya ditentukan sedemikian rupa sehingga jaringan tersebut dapat menyimpan kumpulan pengelompokan pola. Masing-masing kelompok merupakan pasangan vektor (s(p),t(p)) dengan p=,,...,p. Tiap-tiap vektor s(p) memiliki n komponen, dan tiap-tiap t(p) memiliki m komponen. Bobot-bobot tersebut dapat ditentukan dengan menggunakan Hebb rule atau delta rule. Jaringan ini nanti akhirnya akan mendapatkan vektor output yang sesuai dengan vektor inputnya (x) yang merupakan salah satu vektor s(p) atau merupakan vektor lain di luar s(p). Algoritma pembelajaran yang biasa digunakan oleh jaringan ini adalah Hebb rule dan delta rule. Algoritma:. Inisialisasi bobot dengan menggunakan Hebb rule atau delta rule.. Untuk setiap vektor input, kerjakan: Set input dengan nilai sama dengan vektor input: Hitung input jaringan ke unit output: y _ inj i xi * wij Tentukan aktivasi dari setiap unit output: ; yj ; ; y _ inj y _ inj y _ inj (untuk target bipolar) Contoh 8.5: Misalkan kita memiliki matriks P sebagai input yang hendak dilakukan pembelajaran, dengan target T. Fungsi aktivasi yang digunakan adalah fungsi bipolar. Input (s) Target (t)

32 Arsitektur jaringan seperti terlihat pada Gambar 8.3. x x x i w i y_in y x 3 x 4 x i w i y_in y x 5 x 6 Gambar 8.3 Arsitektur jaringan contoh 8.5. Bobot awal (w) Proses pembelajaran: Perubahan bobot Data ke- w =, +, =, w =, +, = -, w =, +, =, w =, +, = -, w3 =, + -, = -, w3 =, + -, =, w4 =, +, =, w4 =, +, = -, w5 =, +, =, w5 =, +, = -, w6 =, + -, = -, w6 =, + -, =, Data ke- w =, +, =, w = -, +, = -, w =, +, =, w = -, +, = -, w3 = -, + -, = -, w3 =, + -, =, w4 =, +, =, w4 = -, +, = -, w5 =, + -, =, w5 = -, + -, =, 8

33 w6 = -, +, =, w6 =, +, =, Data ke-3 w =, +, = 3, w = -, +, = -3, w =, + -, =, w = -, + -, = -, w3 = -, +, = -, w3 =, +, =, w4 =, +, = 3, w4 = -, +, = -3, w5 =, +, =, w5 =, +, = -, w6 =, + -, = -, w6 =, + -, =, Data ke-4 w = 3, + -, =, w = -3, + -, = -, w =, +, =, w = -, +, = -, w3 = -, + -, = -, w3 =, + -, =, w4 = 3, +, = 4, w4 = -3, +, = -4, w5 =, + -, =, w5 = -, + -, =, w6 = -, + -, = -, w6 =, + -, =, Data ke-5 w =, +, =, w = -, +, = -, w =, +, =, w = -, +, = -, w3 = -, + -, = -, w3 =, + -, =, w4 = 4, + -, = 5, w4 = -4, + -, = -5, w5 =, +, = -, w5 =, +, =, w6 = -, +, = -3, w6 =, +, = 3, Data ke-6 w =, +, =, w = -, +, =, w =, + -, =, w = -, + -, = -, w3 = -, +, = -, w3 =, +, =, w4 = 5, + -, = 6, w4 = -5, + -, = -6, w5 = -, +, = -, w5 =, +, =, w6 = -3, +, = -4, w6 = 3, +, = 4, 8

34 Data ke-7 w =, + -, =, w =, + -, = -, w =, +, =, w = -, +, = -, w3 = -, +, = -3, w3 =, +, = 3, w4 = 6, + -, = 7, w4 = -6, + -, = -7, w5 = -, +, = -3, w5 =, +, = 3, w6 = -4, + -, = -3, w6 = 4, + -, = 3, Data ke-8 w =, +, =, w = -, +, =, w =, + -, =, w = -, + -, = -, w3 = -3, + -, = -, w3 = 3, + -, =, w4 = 7, + -, = 8, w4 = -7, + -, = -8, w5 = -3, + -, = -, w5 = 3, + -, =, w6 = -3, + -, = -, w6 = 3, + -, =, Testing: Kita gunakan vektor input pertama: x = [-- -- ] * Penjumlahan terbobot ke- (y_in ) = > (-) * Penjumlahan terbobot ke- (y_in ) = > () Vektor di luar vektor input: x = [-- --] * Penjumlahan terbobot ke- (y_in ) = > () * Penjumlahan terbobot ke- (y_in ) = > (-) Contoh 8.6: Misalkan x adalah vektor dengan 63 komponen yang merepresentasikan pola karakter dimensi (9x7) (Gambar 8.4). Sedangkan y adalah vektor dengan 5 komponen yang juga merepresentasikan pola karakter dimensi (5x3) (Gambar 8.5). Gambar 8.4 Huruf A, sebagai matriks 9x7. 8

35 Gambar 8.5 Huruf A sebagai matriks 5x3. Apabila komponen vektor bernilai, menandakan bahwa kotak yang diwakilinya berwarna hitam, sedangkan apabila vektor bernilai, menandakan bahwa kotak yang diwakilinya berwarna putih. Vektor yang bersesuaian dengan Gambar 8. adalah: Sedangkan vektor yang bersesuaian dengan Gambar 8. adalah: - Kita ingin mencocokkan pola karakter A, B dan H dalam matriks 9x7 dengan pasangannya yaitu pola karakter A, B, dan H dalam matriks 5x3 (Gambar 8.6). Gambar 8.6 Pasangan karakter A, B dan H. Pada langkah awal, set semua komponen pada matriks bobot (63x5) sama dengan nol. Dengan menggunakan algoritma Hebb, hitung perubahan bobot: w ij (baru) = w ij (lama) + x i *y j ; (i=,,...,63; dan j=,,...,5) dengan x adalah vektor input dengan 63 komponen dan y adalah vektor target dengan 5 komponen. matriks bobot akhir dengan ukuran 63x5 yang diperoleh adalah: w =

36 F. Bidirectional Associative Memory (BAM) Bidirectional Associative Memory (BAM) adalah model jaringan syaraf yang memiliki lapisan dan terhubung penuh dari satu lapisan ke lapisan yang lainnya. Pada jaringan ini dimungkinkan adanya hubungan timbal balik antara lapisan input dan lapisan output. Namun demikian, bobot yang menghubungkan antara antara satu neuron (A) di satu lapisan dengan neuron (B) di lapisan lainnya akan sama dengan bobot yang menghubungkan neuron (B) ke neuron (A). Bisa 84

37 dikatakan bahwa, matriks bobot yang menghubungkan neuron-neuron pada lapisan output ke lapisan input sama dengan transpose matriks bobot neuronneuron yang menghubungkan lapisan input ke lapisan output. Arsitektur jaringan untuk 3 neuron pada lapisan input dan neuron pada lapisan output seperti terlihat pada Gambar 8.7. x x x 3 3 neuron pada lapisan input y y neuron pada lapisan output Gambar 8.7 Arsitektur jaringan Bidirectional Associative Memory. (i) BAM Diskret. Pada BAM diskret ada kemungkinan tipe data, yaitu biner dan bipolar. Matriks bobot awal dibuat sedemikian rupa sehingga dapat menyimpan pasangan vektor input dan vektor output s(p)-t(p), dengan p=,,3,...,p. Untuk vektor input biner, matriks bobot ditentukan sebagai: w ij ( * s i(p) )( * ti(p) ) p Sedangkan fungsi aktivasi yang digunakan adalah: Untuk lapisan output: ; yj yj; ; jika y _ inj jika y _ inj jika y _ inj Untuk lapisan input: ; xi x i; ; jika x _ ini jika x _ ini jika x _ ini Sedangkan untuk vektor input bipolar, matriks bobot ditentukan sebagai: w ij (s i(p) * ti(p)) p Sedangkan fungsi aktivasi yang digunakan adalah: Untuk lapisan output: ; y j yj; ; jika y _ inj jika y _ inj jika y _ inj 85

38 86 Untuk lapisan input: i i i i i x _ in jika ; x _ in jika x ; x _ in jika ; x Dengan catatan bahwa input input hasil olahan pada jaringan (x_in i atau y_in j ) sama dengan nilai thresholdnya (), maka fungsi aktivasi akan menghasilkan nilai sama dengan nilai sebelumnya. (ii) BAM kontinu BAM kontinu akan mentransformasikan input secara lebih halus dan kontinu ke kawasan output dengan nilai yang terletak pada range [,]. Fungsi aktivasi yang digunakan adalah fungsi sigmoid. Contoh 8.7: Misalkan kita memiliki matriks 3x3 yang mewakili bilangan huruf O dan X. Tiap matriks berhubungan dengan kode bipolar seperti terlihat pada Gambar 8.8. Gambar 8.8 Matriks 3x3 untuk BAM. Kita bisa membawa tiap-tiap matriks menjadi satu bentuk vektor dengan elemenelemennya berupa bilangan biner - atau, sebagai berikut: O : ---> - X : - ---> Matriks bobot: * w ) untuk p ( * w ) untuk p ( (-,) (,)

39 87 W = w (untuk p=) + w (untuk p=) W Matriks bobot tersebut menghubungkan antara neuron-neuron di lapisan input ke neuron-neuron yang ada di lapisan output. Sedangkan matriks bobot yang menghubungkan antara neuron-neuron di lapisan output ke neuron-neuron yang ada di lapisan input adalan W T. W T Kita bisa menguji bobot tersebut. Misalkan kita cobakan vektor input pertama yang mewakili Huruf O, maka output yang diperoleh adalah: 8 * * W x _ in y Karena (y_in ()= <, maka y ()=-) dan (y_in ()=8 >, maka y ()=), maka nilai y = [- ], sama dengan target yang diharapkan. Untuk vektor input kedua yang mewakili Huruf X, maka output yang diperoleh adalah: 8 * * W x _ in y Karena (y_in ()= >, maka y ()=) dan (y_in ()=8 >, maka y ()=), maka nilai y = [ ], sama dengan target yang diharapkan.

40 Sekarang apabila dibalik, y digunakan sebagai input untuk mendapatkan x. Misalkan kita cobakan vektor input pertama y = [- ], maka output yang diperoleh adalah: T x _ in y * W [ ] * [ ] [ ] Outputnya sama dengan target, yaitu Huruf O. Untuk vektor input kedua yaitu y = [ ], maka output yang diperoleh adalah: T x _ in y * W [ ] * [ ] [ ] Outputnya sama dengan target, yaitu Huruf X. Algoritma. Inisialisasi bobot (untuk menyimpan sekumpulan P vektor). Inisialisasi semua aktivasi sama dengan.. Untuk tiap-tiap input, kerjakan: a (). Berikan input pola x ke lapisan X (kita set aktivasi lapisan X sebagai pola input) a (). Berikan input pola y ke lapisan Y (salah satu dari vektor input tersebut biasanya diset sebagai vektor nol) b. Kerjakan jika aktivasi-aktivasi tersebut belum konvergen: (i). Perbaiki setiap unit aktivasi di lapisan Y: Hitung: y _ inj wij * xi i Hitung: yj f(y _ inj) Berikan informasi tersebut ke lapisan X. (ii). Perbaiki setiap unit aktivasi di lapisan X: Hitung: x _ ini wij * xj j Hitung: xi f(x _ in i) Berikan informasi tersebut ke lapisan Y. (iii). Tes kekonvergenan. Jika vektor x dan y telah mencapai keadaan stabil, maka iterasi berhenti, jika tidak demikian lanjutkan iterasi. 88

41 G. Learning Vector Quantization (LVQ) Learning Vector Quantization (LVQ) adalah suatu metode untuk melakukan pembelajaran pada lapisan kompetitif yang terawasi. Suatu lapisan kompetitif akan secara otomatis belajar untuk mengklasifikasikan vektor-vektor input. Kelas-kelas yang didapatkan sebagai hasil dari lapisan kompetitif ini hanya tergantung pada jarak antara vektor-vektor input. Jika vektor input mendekati sama, maka lapisan kompetitif akan meletakkan kedua vektor input tersebut ke dalam kelas yang sama. Algoritma. Tetapkan: W, MaxIter, Eps,.. Masukkan: input x(m,n); m = jumlah input, n = jumlah data target(,n). 3. Tetapkan kondisi awal: epoh=; err=. 4. Kerjakan jika: (epoch<maxiter) atau ( > eps) a. epoh = epoh+; b. Kerjakan untuk i= sampai n i. Tentukan J sedemikian hingga x-w j minimum ii. Perbaiki w j dengan ketentuan: c. Kurangi nilai. Jika T = C j maka: Jika T C j maka: w j (baru)=w j (lama)+ (x-w j (lama)) w j (baru)=w j (lama)- (x-w j (lama)) Contoh 8.8: Misalkan diketahui input vektor dalam kelas sebagai berikut:. (,,,,, ). (,,,,, ) 3. (,,,,, ) 4. (,,,,, ) 5. (,,,,, ) 6. (,,,,, ) 7. (,,,,, ) 8. (,,,,, ) 9. (,,,,, ). (,,,,, ) Dua input pertama akan dijadikan sebagai inisialisasi bobot: 89

42 Vektor (w) Kelas. (,,,,, ). (,,,,, ) Sedangkan 4 input sisanya: Vektor (x) Kelas. (,,,,, ). (,,,,, ) 3. (,,,,, ) 4. (,,,,, ) 5. (,,,,, ) 6. (,,,,, ) 7. (,,,,, ) 8. (,,,,, ) akan digunakan sebagai data yang akan dilatih. Arsitektur jaringan syaraf pada contoh 8.8 ini seperti terlihat pada Gambar 8.9. x x x-w y_in F y x 3 x 4 x-w y_in F y x 5 x 6 Gambar 8.9 Arsitektur jaringan untuk contoh 8.8. Sebagai nilai awal dipilih learning rate (=,5), dengan pengurangan sebesar,*; dan maksimum epoh (MaxEpoh=). Epoh ke-: Data ke-: (,,,,, ) Jarak pada: * bobot ke- = = ( ) ( ) ( ) ( ) ( ) ( ) =,. * bobot ke- = = ( ) ( ) ( ) ( ) ( ) ( ) =,. Jarak terkecil pada bobot ke- Target data ke-= Bobot ke- baru: w = w + *(x w ) = +,5*(-) =,95; w = w + *(x w ) = +,5*(-) =,; 9

43 w 3 = w 3 + *(x 3 w 3 ) = +,5*(-) =,5; w 4 = w 4 + *(x 4 w 4 ) = +,5*(-) =,; w 5 = w 5 + *(x 5 w 5 ) = +,5*(-) =,95; w 6 = w 6 + *(x 6 w 6 ) = +,5*(-) =,5; Jadi w = (,95,,5,,95,5) Data ke-: (,,,,, ) Jarak pada: * bobot ke- = = (,95) ( ) (,5) ( ) (,95) (,5) =,3454. * bobot ke- = = ( ) ( ) ( ) ( ) ( ) ( ) =,44. Jarak terkecil pada bobot ke- Target data ke-= Bobot ke- baru: w = w + *(x w ) =,95 +,5*(-,95) =,95; w = w + *(x w ) =, +,5*(-,) =,; w 3 = w 3 + *(x 3 w 3 ) =,5 +,5*(-,5) =,975; w 4 = w 4 + *(x 4 w 4 ) =, +,5*(-,) =,; w 5 = w 5 + *(x 5 w 5 ) =,95 +,5*(-,95) =,955; w 6 = w 6 + *(x 6 w 6 ) =,5 +,5*(-,5) =,475; Jadi w = (,95,,975,,955,475) Data ke-3: (,,,,, ) Jarak pada: * bobot ke- = = (,95) ( ) (,975) ( ) (,955) (,475) =,975 * bobot ke- = = ( ) ( ) ( ) ( ) ( ) ( ) =,. Jarak terkecil pada bobot ke- Target data ke-3= Bobot ke- baru: w = w + *(x 3 w ) =,95 +,5*(-,95) =,8574; w = w + *(x 3 w ) =, +,5*(-,) =,5; w 3 = w 3 + *(x 33 w 3 ) =,975 +,5*(-,975) =,96; w 4 = w 4 + *(x 34 w 4 ) =, +,5*(-,) =,; w 5 = w 5 + *(x 35 w 5 ) =,955 +,5*(-,955) =,949; w 6 = w 6 + *(x 36 w 6 ) =,475 +,5*(-,475) =,95; Jadi: w = (,8574,5,96,,949,95) Data ke-4: (,,,,, ) Jarak pada: 9

44 * bobot ke- = = (,8574) (,5) (,96) ( ) (,949) (,95) =,938 * bobot ke- = = ( ) ( ) ( ) ( ) ( ) ( ) =,. Jarak terkecil pada bobot ke- Target data ke-4= Bobot ke- baru: w = w + *(x 4 w ) =,8574 +,5*(-,8574) =,8645; w = w + *(x 4 w ) =,5 +,5*(-,5) =,475; w 3 = w 3 + *(x 43 w 3 ) =,96 +,5*(-,96) =,38; w 4 = w 4 + *(x 44 w 4 ) =, +,5*(-,) =,; w 5 = w 5 + *(x 45 w 5 ) =,949 +,5*(-,949) =,996; w 6 = w 6 + *(x 46 w 6 ) =,95 +,5*(-,95) =,44; Jadi: w = (,8645,475,38,,996,44) Data ke-5: (,,,,, ) Jarak pada: * bobot ke- = = (,8645) (,475) (,38) ( ) (,996) (,44) =,875 * bobot ke- = = ( ) ( ) ( ) ( ) ( ) ( ) =,44. Jarak terkecil pada bobot ke- Target data ke-5= Bobot ke- baru: w = w + *(x 5 w ) = +,5*(-) =,; w = w + *(x 5 w ) = +,5*(-) =,95; w 3 = w 3 + *(x 53 w 3 ) = +,5*(-) =,; w 4 = w 4 + *(x 54 w 4 ) = +,5*(-) =,; w 5 = w 5 + *(x 55 w 5 ) = +,5*(-) =,95; w 6 = w 6 + *(x 56 w 6 ) = +,5*(-) =,; Jadi: w = (,,95,,,95,) Data ke-6: (,,,,, ) Jarak pada: * bobot ke- = = (,8645) (,475) (,38) ( ) (,996) (,44) =,8764 * bobot ke- = = ( ) (,95) ( ) ( ) (,95) ( ) =,38. Jarak terkecil pada bobot ke- Target data ke-6= Bobot ke- baru: w = w + *(x 6 w ) =, +,5*(-,) =,; 9

BAB VIII JARINGAN SYARAF TIRUAN

BAB VIII JARINGAN SYARAF TIRUAN BAB VIII JARINGAN SYARAF TIRUAN A. OTAK MANUSIA Otak manusia berisi berjuta-juta sel syaraf yang bertugas untuk memproses informasi. Tiaptiap sel bekerja seperti suatu prosesor sederhana. Masing-masing

Lebih terperinci

Jaringan Syaraf Tiruan

Jaringan Syaraf Tiruan Jaringan Syaraf Tiruan Pendahuluan Otak Manusia Sejarah Komponen Jaringan Syaraf Arisitektur Jaringan Fungsi Aktivasi Proses Pembelajaran Pembelajaran Terawasi Jaringan Kohonen Referensi Sri Kusumadewi

Lebih terperinci

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) ERWIEN TJIPTA WIJAYA, ST, M.KOM

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) ERWIEN TJIPTA WIJAYA, ST, M.KOM JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) ERWIEN TJIPTA WIJAYA, ST, M.KOM INTRODUCTION Jaringan Saraf Tiruan atau JST adalah merupakan salah satu representasi tiruan dari otak manusia yang selalu

Lebih terperinci

ARTIFICIAL NEURAL NETWORK TEKNIK PERAMALAN - A

ARTIFICIAL NEURAL NETWORK TEKNIK PERAMALAN - A ARTIFICIAL NEURAL NETWORK CAHYA YUNITA 5213100001 ALVISHA FARRASITA 5213100057 NOVIANTIANDINI 5213100075 TEKNIK PERAMALAN - A MATERI Neural Network Neural Network atau dalam bahasa Indonesia disebut Jaringan

Lebih terperinci

Jaringan syaraf dengan lapisan tunggal

Jaringan syaraf dengan lapisan tunggal Jaringan syaraf adalah merupakan salah satu representasi buatan dari otak manusia yang mencoba untuk mensimulasikan proses pembelajaran pada otak manusia. Syaraf manusia Jaringan syaraf dengan lapisan

Lebih terperinci

Jaringan Syaraf Tiruan. Disusun oleh: Liana Kusuma Ningrum

Jaringan Syaraf Tiruan. Disusun oleh: Liana Kusuma Ningrum Jaringan Syaraf Tiruan Disusun oleh: Liana Kusuma Ningrum Susilo Nugroho Drajad Maknawi M0105047 M0105068 M01040 Jurusan Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Sebelas Maret

Lebih terperinci

Architecture Net, Simple Neural Net

Architecture Net, Simple Neural Net Architecture Net, Simple Neural Net 1 Materi 1. Model Neuron JST 2. Arsitektur JST 3. Jenis Arsitektur JST 4. MsCulloh Pitts 5. Jaringan Hebb 2 Model Neuron JST X1 W1 z n wi xi; i1 y H ( z) Y1 X2 Y2 W2

Lebih terperinci

OPTICAL CHARACTER RECOGNIZATION (OCR)

OPTICAL CHARACTER RECOGNIZATION (OCR) LAPORAN JARINGAN SYARAF TIRUAN OPTICAL CHARACTER RECOGNIZATION (OCR) DISUSUN OLEH: DIJAS SCHWARTZ. S (524) FIRNAS NADIRMAN (481) INDAH HERAWATI (520) NORA SISKA PUTRI (511) OKTI RAHMAWATI (522) EKSTENSI

Lebih terperinci

BAB 2 TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA 7 BAB 2 TINJAUAN PUSTAKA 2.1 Jaringan Syaraf Biologi Otak manusia memiliki struktur yang sangat kompleks dan memiliki kemampuan yang luar biasa. Otak terdiri dari neuron-neuron dan penghubung yang disebut

Lebih terperinci

Jaringan Syaraf Tiruan

Jaringan Syaraf Tiruan 07/06/06 Rumusan: Jaringan Syaraf Tiruan Shinta P. Sari Manusia = tangan + kaki + mulut + mata + hidung + Kepala + telinga Otak Manusia Bertugas untuk memproses informasi Seperti prosesor sederhana Masing-masing

Lebih terperinci

BAB IV JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK)

BAB IV JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) BAB IV JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) Kompetensi : 1. Mahasiswa memahami konsep Jaringan Syaraf Tiruan Sub Kompetensi : 1. Dapat mengetahui sejarah JST 2. Dapat mengetahui macam-macam

Lebih terperinci

BACK PROPAGATION NETWORK (BPN)

BACK PROPAGATION NETWORK (BPN) BACK PROPAGATION NETWORK (BPN) Arsitektur Jaringan Digunakan untuk meminimalkan error pada output yang dihasilkan oleh jaringan. Menggunakan jaringan multilayer. Arsitektur Jaringan Proses belajar & Pengujian

Lebih terperinci

BAB 2 TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA BAB 2 TINJAUAN PUSTAKA Pada bab ini akan diuraikan materi yang mendukung dalam pembahasan evaluasi implementasi sistem informasi akademik berdasarkan pengembangan model fit HOT menggunakan regresi linier

Lebih terperinci

1.1. Jaringan Syaraf Tiruan

1.1. Jaringan Syaraf Tiruan BAB I PENDAHULUAN 1.1. Jaringan Syaraf Tiruan Jaringan Syaraf Tiruan (JST) adalah sistem pemroses informasi yang memiliki karakteristik mirip dengan jaringan syaraf biologi yang digambarkan sebagai berikut

Lebih terperinci

BAB II TINJAUAN PUSTAKA

BAB II TINJAUAN PUSTAKA BAB II TINJAUAN PUSTAKA 2.1 JARINGAN SARAF SECARA BIOLOGIS Jaringan saraf adalah salah satu representasi buatan dari otak manusia yang selalu mencoba untuk mensimulasikan proses pembelajaran pada otak

Lebih terperinci

BAB II TEORI DASAR. Gambar 2.1 Anatomi Jantung

BAB II TEORI DASAR. Gambar 2.1 Anatomi Jantung 4 BAB II TEORI DASAR 2.1. Jantung Jantung merupakan otot tubuh yang bersifat unik karena mempunyai sifat membentuk impuls secara automatis dan berkontraksi ritmis [4], yang berupa dua pompa yang dihubungkan

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI Pada bab ini akan dielaskan mengenai teori-teori yang berhubungan dengan penelitian ini, sehingga dapat diadikan sebagai landasan berpikir dan akan mempermudah dalam hal pembahasan

Lebih terperinci

Architecture Net, Simple Neural Net

Architecture Net, Simple Neural Net Architecture Net, Simple Neural Net 1 Materi 1. Perceptron 2. ADALINE 3. MADALINE 2 Perceptron Perceptron lebih powerful dari Hebb Pembelajaran perceptron mampu menemukan konvergensi terhadap bobot yang

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI 2.1 Jaringan Syaraf Biologi Jaringan Syaraf Tiruan merupakan suatu representasi buatan dari otak manusia yang dibuat agar dapat mensimulasikan apa yang dipejalari melalui proses pembelajaran

Lebih terperinci

BAB 2 LANDASAN TEORI. Universitas Sumatera Utara

BAB 2 LANDASAN TEORI. Universitas Sumatera Utara BAB 2 LANDASAN TEORI 2.1 Ginjal Ginjal adalah organ tubuh yang berfungsi untuk mengeluarkan urine, yang merupakan sisa hasil metabolisme tubuh dalam bentuk cairan. Ginjal terletak pada dinding bagian luar

Lebih terperinci

SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON

SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON Jurnal Informatika Mulawarman Vol. 7 No. 3 Edisi September 2012 105 SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON Anindita Septiarini Program Studi Ilmu Komputer FMIPA,

Lebih terperinci

DAFTAR ISI. Halaman Judul. Lembar Pengesahan Pembimbing. Lembar Pengesahan Penguji. Halaman Persembahan. Halaman Motto. Kata Pengantar.

DAFTAR ISI. Halaman Judul. Lembar Pengesahan Pembimbing. Lembar Pengesahan Penguji. Halaman Persembahan. Halaman Motto. Kata Pengantar. DAFTAR ISI Halaman Judul i Lembar Pengesahan Pembimbing ii Lembar Pengesahan Penguji iii Halaman Persembahan iv Halaman Motto v Kata Pengantar vi Abstraksi viii Daftar Isi ix Daftar Gambar xii Daftar Tabel

Lebih terperinci

FAKULTAS SAINS DAN TEKNOLOGI UIN SUSKA RIAU. IIS AFRIANTY, ST., M.Sc

FAKULTAS SAINS DAN TEKNOLOGI UIN SUSKA RIAU. IIS AFRIANTY, ST., M.Sc IIS AFRIANTY, ST., M.Sc Sistem Penilaian Tugas dan Keaktifan : 15% Quiz : 15% UTS : 35% UAS : 35% Toleransi keterlambatan 15 menit Handphone: Silent Costume : aturan UIN Laki-laki Perempuan Menggunakan

Lebih terperinci

BAB II DASAR TEORI Jaringan Syaraf Tiruan. Universitas Sumatera Utara

BAB II DASAR TEORI Jaringan Syaraf Tiruan. Universitas Sumatera Utara BAB II DASAR TEORI Landasan teori adalah teori-teori yang relevan dan dapat digunakan untuk menjelaskan variabel-variabel penelitian. Landasan teori ini juga berfungsi sebagai dasar untuk memberi jawaban

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI 5 BAB II LANDASAN TEORI 2.1. Citra Digital Citra digital dapat didefenisikan sebagai fungsi f(x,y) yaitu dua dimensi, dimana x dan y merupakan koordinat spasial dan f(x,y) disebut dengan intensitas atau

Lebih terperinci

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MENGETAHUI LOYALITAS KARYAWAN

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MENGETAHUI LOYALITAS KARYAWAN ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MENGETAHUI LOYALITAS KARYAWAN Jasmir, S.Kom, M.Kom Dosen tetap STIKOM Dinamika Bangsa Jambi Abstrak Karyawan atau tenaga kerja adalah bagian

Lebih terperinci

terinspirasi dari sistem biologi saraf makhluk hidup seperti pemrosesan informasi

terinspirasi dari sistem biologi saraf makhluk hidup seperti pemrosesan informasi 25 BAB III JARINGAN SARAF TIRUAN (JST) 3.1 Pengertian JST JST merupakan sebuah model atau pola dalam pemrosesan informasi. Model ini terinspirasi dari sistem biologi saraf makhluk hidup seperti pemrosesan

Lebih terperinci

Penerapan Jaringan Saraf Tiruan Metode Backpropagation Menggunakan VB 6

Penerapan Jaringan Saraf Tiruan Metode Backpropagation Menggunakan VB 6 Penerapan Jaringan Saraf Tiruan Metode Backpropagation Menggunakan VB 6 Sari Indah Anatta Setiawan SofTech, Tangerang, Indonesia cu.softech@gmail.com Diterima 30 November 2011 Disetujui 14 Desember 2011

Lebih terperinci

BACK PROPAGATION NETWORK (BPN)

BACK PROPAGATION NETWORK (BPN) BACK PROPAGATION NETWORK (BPN) Arsitektur Jaringan Salah satu metode pelatihan terawasi pada jaringan syaraf adalah metode Backpropagation, di mana ciri dari metode ini adalah meminimalkan error pada output

Lebih terperinci

BAB 2 TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA 7 BAB 2 TINJAUAN PUSTAKA 21 Anatomi Ayam Pengetahuan tentang anatomi ayam sangat diperlukan dan penting dalam pencegahan dan penanganan penyakit Hal ini karena pengetahuan tersebut dipakai sebagai dasar

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 2.6. Jaringan Syaraf Tiruan Jaringan syaraf tiruan atau neural network merupakan suatu sistem informasi yang mempunyai cara kerja dan karakteristik menyerupai jaringan syaraf pada

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 2.1. Forecasting Forecasting (peramalan) adalah seni dan ilmu untuk memperkirakan kejadian di masa yang akan datang. Hal ini dapat dilakukan dengan melibatkan data historis dan memproyeksikannya

Lebih terperinci

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB 1 PENDAHULUAN. 1.1 Latar Belakang 1 BAB 1 PENDAHULUAN 1.1 Latar Belakang Perangkat keras komputer berkembang dengan pesat setiap tahunnya selalu sudah ditemukan teknologi yang lebih baru. Meskipun demikian masih banyak hal yang belum dapat

Lebih terperinci

BAB II TINJAUAN PUSTAKA

BAB II TINJAUAN PUSTAKA BAB II TINJAUAN PUSTAKA 2.1. Jaringan Saraf Tiruan (JST) Jaringan saraf tiruan pertama kali secara sederhana diperkenalkan oleh McCulloch dan Pitts pada tahun 1943. McCulloch dan Pitts menyimpulkan bahwa

Lebih terperinci

Arsitektur Jaringan Salah satu metode pelatihan terawasi pada jaringan syaraf adalah metode Backpropagation, di mana ciri dari metode ini adalah memin

Arsitektur Jaringan Salah satu metode pelatihan terawasi pada jaringan syaraf adalah metode Backpropagation, di mana ciri dari metode ini adalah memin BACK PROPAGATION Arsitektur Jaringan Salah satu metode pelatihan terawasi pada jaringan syaraf adalah metode Backpropagation, di mana ciri dari metode ini adalah meminimalkan error pada output yang dihasilkan

Lebih terperinci

Sebelumnya... Pembelajaran Mesin/Machine Learning Pembelajaran dengan Decision Tree (ID3) Teori Bayes dalam Pembelajaran

Sebelumnya... Pembelajaran Mesin/Machine Learning Pembelajaran dengan Decision Tree (ID3) Teori Bayes dalam Pembelajaran Sebelumnya... Pembelajaran Mesin/Machine Learning Pembelajaran dengan Decision Tree (ID3) Teori Bayes dalam Pembelajaran Kecerdasan Buatan Pertemuan 11 Jaringan Syaraf Tiruan (Artificial Neural Network)

Lebih terperinci

BAB 2 LANDASAN TEORI. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu

BAB 2 LANDASAN TEORI. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu BAB 2 LANDASAN TEORI 2.1 Pengenalan Suara. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu speech recognition dan speaker recognition. Speech recognition adalah proses yang dilakukan

Lebih terperinci

VIII.PENGANTAR JARINGAN SYARAF TIRUAN (JST)

VIII.PENGANTAR JARINGAN SYARAF TIRUAN (JST) VIII.PENGANTAR JARINGAN SYARAF TIRUAN (JST) 3 JARINGAN SYARAF BIOLOGIS (JSB) Otak manusia berisi sekitar 0 sel syaraf (neuron) yang bertugas untuk memproses informasi yang masuk. Tiap sel syaraf dihubungkan

Lebih terperinci

BAB II. Penelitian dengan jaringan syaraf tiruan propagasi balik. dalam bidang kesehatan sebelumnya pernah dilakukan oleh

BAB II. Penelitian dengan jaringan syaraf tiruan propagasi balik. dalam bidang kesehatan sebelumnya pernah dilakukan oleh BAB II TINJAUAN PUSTAKA DAN DASAR TEORI 2.1. Tinjauan Pustaka Penelitian dengan jaringan syaraf tiruan propagasi balik dalam bidang kesehatan sebelumnya pernah dilakukan oleh Sudharmadi Bayu Jati Wibowo

Lebih terperinci

BAB II MODEL NEURON DAN ARSITEKTUR JARINGAN

BAB II MODEL NEURON DAN ARSITEKTUR JARINGAN BAB II MODEL NEURON DAN ARSITEKTUR JARINGAN Neuron adalah unit pemroses informasi yang menjadi dasar dalam pengoperasian JST. Neuron terdiri dari 3 elemen: Himpunan unit2 yang dihubungkan dengan jalus

Lebih terperinci

Farah Zakiyah Rahmanti

Farah Zakiyah Rahmanti Farah Zakiyah Rahmanti Latar Belakang Struktur Dasar Jaringan Syaraf Manusia Konsep Dasar Permodelan JST Fungsi Aktivasi JST Contoh dan Program Jaringan Sederhana Metode Pelatihan Supervised Learning Unsupervised

Lebih terperinci

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI PRODUKTIVITAS PEGAWAI. Jasmir, S.Kom, M.Kom

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI PRODUKTIVITAS PEGAWAI. Jasmir, S.Kom, M.Kom ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI PRODUKTIVITAS PEGAWAI Jasmir, S.Kom, M.Kom Dosen tetap STIKOM Dinamika Bangsa Jambi Abstrak Pegawai atau karyawan merupakan

Lebih terperinci

MODEL N EURON NEURON DAN

MODEL N EURON NEURON DAN 1 MODEL NEURON DAN ARSITEKTUR JARINGAN 1 1 Model Neuron Mengadopsi esensi dasar dari system syaraf biologi, syaraf tiruan digambarkan sebagai berikut : Menerima input atau masukan (baikdari data yang dimasukkan

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI 2.1. Pengenalan Pola Pengenalan pola adalah suatu ilmu untuk mengklasifikasikan atau menggambarkan sesuatu berdasarkan pengukuran kuantitatif fitur (ciri) atau sifat utama dari suatu

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 2.1 Jaringan Syaraf Tiruan Jaringan saraf tiruan bisa dibayangkan seperti otak buatan di dalam cerita-cerita fiksi ilmiah. Otak buatan ini dapat berpikir seperti manusia, dan juga

Lebih terperinci

BAB III METODE PENELITIAN. menjawab segala permasalahan yang ada dalam penelitian ini.

BAB III METODE PENELITIAN. menjawab segala permasalahan yang ada dalam penelitian ini. BAB III METODE PENELITIAN Pada bab ini akan dijelaskan bahan yang digunakan dalam membantu menyelesaikan permasalahan, dan juga langkah-langkah yang dilakukan dalam menjawab segala permasalahan yang ada

Lebih terperinci

BAB I PENDAHULUAN 1.1 Latar Belakang

BAB I PENDAHULUAN 1.1 Latar Belakang BAB I PENDAHULUAN 1.1 Latar Belakang Kebutuhan akan piranti pengenal/pendeteksi yang handal sangat dibutuhkan. Pengembangan teknologi pengenalan yang berupa kecerdasan buatan (Artificial Intelligence)

Lebih terperinci

BAB 2 KONSEP DASAR PENGENAL OBJEK

BAB 2 KONSEP DASAR PENGENAL OBJEK BAB 2 KONSEP DASAR PENGENAL OBJEK 2.1 KONSEP DASAR Pada penelitian ini, penulis menggunakan beberapa teori yang dijadikan acuan untuk menyelesaikan penelitian. Berikut ini teori yang akan digunakan penulis

Lebih terperinci

BAB 2 LANDASAN TEORI. fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses

BAB 2 LANDASAN TEORI. fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses 8 BAB 2 LANDASAN TEORI 2.1 Teori Neuro Fuzzy Neuro-fuzzy sebenarnya merupakan penggabungan dari dua studi utama yaitu fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses

Lebih terperinci

PENYELESAIAN MASALAH TRAVELING SALESMAN PROBLEM DENGAN JARINGAN SARAF SELF ORGANIZING

PENYELESAIAN MASALAH TRAVELING SALESMAN PROBLEM DENGAN JARINGAN SARAF SELF ORGANIZING Media Informatika, Vol. 6, No. 1, Juni 2008, 39-55 ISSN: 0854-4743 PENYELESAIAN MASALAH TRAVELING SALESMAN PROBLEM DENGAN JARINGAN SARAF SELF ORGANIZING Sukma Puspitorini Program Studi Teknik Informatika

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI 2.1. Barcode Salah satu obyek pengenalan pola yang bisa dipelajari dan akhirnya dapat dikenali yaitu PIN barcode. PIN barcode yang merupakan kode batang yang berfungsi sebagai personal

Lebih terperinci

JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) Pertemuan 11 Diema Hernyka Satyareni, M.Kom

JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) Pertemuan 11 Diema Hernyka Satyareni, M.Kom JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) Pertemuan 11 Diema Hernyka Satyareni, M.Kom Outline Konsep JST Model Struktur JST Arsitektur JST Aplikasi JST Metode Pembelajaran Fungsi Aktivasi McCulloch

Lebih terperinci

JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORKS)

JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORKS) JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORKS) (Artificial Neural Networks) BAB I PENDAHULUAN 1.1 Sejarah JST JST : merupakan cabang dari Kecerdasan Buatan (Artificial Intelligence ) JST : meniru

Lebih terperinci

BAB 2 TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA 79 BAB 2 TINJAUAN PUSTAKA 2.1. Pengenalan Pola Pengenalan pola mengelompokkan data numerik dan simbolik (termasuk citra) secara otomatis oleh komputer. Tujuan pengelompokan ini adalah untuk mengenali suatu

Lebih terperinci

IMPLEMENTASI ALGORITMA PERCEPTRON UNTUK PENGENALAN POLA MASUKAN BINER MAUPUN BIPOLAR MENGGUNAKAN BORLAND DELPHI

IMPLEMENTASI ALGORITMA PERCEPTRON UNTUK PENGENALAN POLA MASUKAN BINER MAUPUN BIPOLAR MENGGUNAKAN BORLAND DELPHI IMPLEMENTASI ALGORITMA PERCEPTRON UNTUK PENGENALAN POLA MASUKAN BINER MAUPUN BIPOLAR MENGGUNAKAN BORLAND DELPHI Andi Harmin Program Studi : Teknik Komputer STMIK Profesional Makassar andiharmin1976@gmail.com

Lebih terperinci

BAB II NEURAL NETWORK (NN)

BAB II NEURAL NETWORK (NN) BAB II NEURAL NETWORK (NN) 2.1 Neural Network (NN) Secara umum Neural Network (NN) adalah jaringan dari sekelompok unit pemroses kecil yang dimodelkan berdasarkan jaringan syaraf manusia. NN ini merupakan

Lebih terperinci

Jaringan Syaraf Tiruan

Jaringan Syaraf Tiruan Jaringan Syaraf Tiruan (Artificial Neural Network) Intelligent Systems Pembahasan Jaringan McCulloch-Pitts Jaringan Hebb Perceptron Jaringan McCulloch-Pitts Model JST Pertama Diperkenalkan oleh McCulloch

Lebih terperinci

PENGENAL HURUF TULISAN TANGAN MENGGUNAKAN JARINGAN SARAF TIRUAN METODE LVQ (LEARNING VECTOR QUANTIZATION) By. Togu Sihombing. Tugas Ujian Sarjana

PENGENAL HURUF TULISAN TANGAN MENGGUNAKAN JARINGAN SARAF TIRUAN METODE LVQ (LEARNING VECTOR QUANTIZATION) By. Togu Sihombing. Tugas Ujian Sarjana PENGENAL HURUF TULISAN TANGAN MENGGUNAKAN JARINGAN SARAF TIRUAN METODE LVQ (LEARNING VECTOR QUANTIZATION) By. Togu Sihombing Tugas Ujian Sarjana. Penjelasan Learning Vector Quantization (LVQ) Learning

Lebih terperinci

BAB VIII PENGANTAR JARINGAN SYARAF TIRUAN (JST)

BAB VIII PENGANTAR JARINGAN SYARAF TIRUAN (JST) BAB VIII PENGANTAR JARINGAN SYARAF TIRUAN (JST) 8.1 Komponen Jaringan Syaraf JARINGAN SYARAF BIOLOGIS (JSB) Otak manusia berisi sekitar 10 11 sel syaraf (neuron) yang bertugas untuk memproses informasi

Lebih terperinci

BAB 2 TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA 5 BAB 2 TINJAUAN PUSTAKA 2.1. Analisis Analisis adalah kemampuan pemecahan masalah subjek kedalam elemen-elemen konstituen, mencari hubungan-hubungan internal dan diantara elemen-elemen, serta mengatur

Lebih terperinci

SATIN Sains dan Teknologi Informasi

SATIN Sains dan Teknologi Informasi SATIN - Sains dan Teknologi Informasi, Vol. 2, No., Juni 206 SATIN Sains dan Teknologi Informasi journal homepage : http://jurnal.stmik-amik-riau.ac.id Penerapan Jaringan Syaraf Tiruan Untuk Estimasi Needs

Lebih terperinci

lalu menghitung sinyal keluarannya menggunakan fungsi aktivasi,

lalu menghitung sinyal keluarannya menggunakan fungsi aktivasi, LAMPIRAN 15 Lampiran 1 Algoritme Jaringan Syaraf Tiruan Propagasi Balik Standar Langkah 0: Inisialisasi bobot (bobot awal dengan nilai random yang paling kecil). Langkah 1: Menentukan maksimum epoch, target

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI 2.1. Citra digital Citra adalah gambar dua dimensi yang dihasilkan dari gambar analog dua dimensi yang kontinu menjadi gambar diskrit melalui proses sampling. Gambar analog dibagi

Lebih terperinci

PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA BARAT

PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA BARAT PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA BARAT Havid Syafwan Program Studi Manajemen Informatika, Amik Royal, Kisaran E-mail: havid_syafwan@yahoo.com ABSTRAK:

Lebih terperinci

PREDIKSI PENDAPATAN ASLI DAERAH KALIMANTAN BARAT MENGGUNAKAN JARINGAN SYARAF TIRUAN BACKPROPAGATION

PREDIKSI PENDAPATAN ASLI DAERAH KALIMANTAN BARAT MENGGUNAKAN JARINGAN SYARAF TIRUAN BACKPROPAGATION PREDIKSI PENDAPATAN ASLI DAERAH KALIMANTAN BARAT MENGGUNAKAN JARINGAN SYARAF TIRUAN BACKPROPAGATION Dwi Marisa Midyanti Sistem Komputer Universitas Tanjungpura Pontianak Jl Prof.Dr.Hadari Nawawi, Pontianak

Lebih terperinci

JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI CURAH HUJAN SUMATERA UTARA DENGAN METODE BACK PROPAGATION (STUDI KASUS : BMKG MEDAN)

JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI CURAH HUJAN SUMATERA UTARA DENGAN METODE BACK PROPAGATION (STUDI KASUS : BMKG MEDAN) JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI CURAH HUJAN SUMATERA UTARA DENGAN METODE BACK PROPAGATION (STUDI KASUS : BMKG MEDAN) Marihot TP. Manalu Mahasiswa Program Studi Teknik Informatika, STMIK Budidarma

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 2.1 Jaringan Saraf Tiruan (JST) Saat ini, komputer modern dengan teknologi canggih merupakan sebuah kekuatan bagi perkembangan zaman. Meskipun demikian banyak hal yang masih tetap

Lebih terperinci

JARINGAN SARAF TIRUAN DENGAN BACKPROPAGATION UNTUK MENDETEKSI PENYALAHGUNAAN NARKOTIKA

JARINGAN SARAF TIRUAN DENGAN BACKPROPAGATION UNTUK MENDETEKSI PENYALAHGUNAAN NARKOTIKA JARINGAN SARAF TIRUAN DENGAN BACKPROPAGATION UNTUK MENDETEKSI PENYALAHGUNAAN NARKOTIKA Dahriani Hakim Tanjung STMIK POTENSI UTAMA Jl.K.L.Yos Sudarso Km 6.5 Tanjung Mulia Medan notashapire@gmail.com Abstrak

Lebih terperinci

SATIN Sains dan Teknologi Informasi

SATIN Sains dan Teknologi Informasi SATIN - Sains dan Teknologi Informasi, Vol. 2, No., Juni 206 SATIN Sains dan Teknologi Informasi journal homepage : http://jurnal.stmik-amik-riau.ac.id Jaringan Syaraf Tiruan Peramalan Inventory Barang

Lebih terperinci

BAB 2 LANDASAN TEORI. suatu perusahaan yang akan memberikan keuntungan dalam bentuk deviden dan capital

BAB 2 LANDASAN TEORI. suatu perusahaan yang akan memberikan keuntungan dalam bentuk deviden dan capital BAB 2 LANDASAN TEORI 2.1 Saham Saham adalah tanda penyertaan atau kepemilikan seseorang atau badan, dalam suatu perusahaan yang akan memberikan keuntungan dalam bentuk deviden dan capital gain. Artinya

Lebih terperinci

BAB VIIB BACKPROPAGATION dan CONTOH

BAB VIIB BACKPROPAGATION dan CONTOH BAB VIIB BACKPROPAGATION dan CONTOH 7B. Standar Backpropagation (BP) Backpropagation (BP) merupakan JST multi-layer. Penemuannya mengatasi kelemahan JST dengan layer tunggal yang mengakibatkan perkembangan

Lebih terperinci

I PENDAHULUAN II LANDASAN TEORI

I PENDAHULUAN II LANDASAN TEORI I PENDAHULUAN 1.1 Latar belakang Hujan merupakan salah satu unsur iklim yang berpengaruh pada suatu daerah aliran sungai (DAS). Pengaruh langsung yang dapat diketahui yaitu potensi sumber daya air. Besar

Lebih terperinci

BAB 2 JARINGAN NEURAL SATU LAPIS

BAB 2 JARINGAN NEURAL SATU LAPIS BAB 2 JARINGAN NEURAL SATU LAPIS Jaringan neural dapat dilatih untuk melakukan klasifikasi pola. Dalam klasifikasi pola setiap vektor masukan diklasifikasi menjadi anggota atau tidak dari suatu kelas tertentu

Lebih terperinci

Gambar 2.1 Neuron biologi manusia (Medsker & Liebowitz, 1994)

Gambar 2.1 Neuron biologi manusia (Medsker & Liebowitz, 1994) BAB 2 LANDASAN TEORI 2.1. Jaringan Saraf Biologi Manusia Otak manusia memiliki struktur yang sangat kompleks, serta memiliki kemampuan yang luar biasa. Otak terdiri dari neuron-neuron dan penghubung yang

Lebih terperinci

APLIKASI JARINGAN SARAF TIRUAN UNTUK INVENTARISASI LUAS SUMBER DAYA ALAM STUDI KASUS PULAU PARI

APLIKASI JARINGAN SARAF TIRUAN UNTUK INVENTARISASI LUAS SUMBER DAYA ALAM STUDI KASUS PULAU PARI APLIKASI JARINGAN SARAF TIRUAN UNTUK INVENTARISASI LUAS SUMBER DAYA ALAM STUDI KASUS PULAU PARI Putri Khatami Rizki 1), Muchlisin Arief 2), Priadhana Edi Kresnha 3) 1), 2), 3) Teknik Informatika Fakultas

Lebih terperinci

BAB II DASAR TEORI. 2.1 Citra Digital

BAB II DASAR TEORI. 2.1 Citra Digital BAB II DASAR TEORI 2.1 Citra Digital Citra digital didefinisikan sebagai fungsi f (x,y) dua dimensi,dimana x dan y adalah koordinat spasial dan f(x,y) adalah disebut dengan intensitas atau tingkat keabuan

Lebih terperinci

APLIKASI JARINGAN SYARAF TIRUAN DALAM PENGHITUNGAN PERSENTASE KEBENARAN KLASIFIKASI PADA KLASIFIKASI JURUSAN SISWA DI SMA N 8 SURAKARTA

APLIKASI JARINGAN SYARAF TIRUAN DALAM PENGHITUNGAN PERSENTASE KEBENARAN KLASIFIKASI PADA KLASIFIKASI JURUSAN SISWA DI SMA N 8 SURAKARTA APLIKASI JARINGAN SYARAF TIRUAN DALAM PENGHITUNGAN PERSENTASE KEBENARAN KLASIFIKASI PADA KLASIFIKASI JURUSAN SISWA DI SMA N 8 SURAKARTA Pembimbing: Desi Fitria Utami M0103025 Drs. Y. S. Palgunadi, M. Sc

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI 2.1 Jaringan saraf tiruan Jaringan Syaraf Tiruan (JST) atau neural network adalah suatu metode komputasi yang meniru sistem jaringan Syaraf biologis pada manusia. Metode ini menggunakan

Lebih terperinci

Jurnal Ilmiah Komputer dan Informatika (KOMPUTA) 1 Edisi.,Volume,. Bulan.. ISSN :

Jurnal Ilmiah Komputer dan Informatika (KOMPUTA) 1 Edisi.,Volume,. Bulan.. ISSN : Jurnal Ilmiah Komputer dan Informatika (KOMPUTA) Edisi.,Volume,. Bulan.. ISSN : 289-933 ANALISIS METODE JARINGAN SYARAF TIRUAN BACKPROPAGATION UNTUK PENGENALAN SEL KANKER OTAK Novita Handayani Teknik Informatika

Lebih terperinci

BAB 3 METODOLOGI PENELITIAN

BAB 3 METODOLOGI PENELITIAN BAB 3 METODOLOGI PENELITIAN 3.1. Data Yang Digunakan Dalam melakukan penelitian ini, penulis membutuhkan data input dalam proses jaringan saraf tiruan backpropagation. Data tersebut akan digunakan sebagai

Lebih terperinci

BAB 2 LANDASAN TEORI. Menurut Sofjan Assauri (1984) Peramalan adalah kegiatan untuk

BAB 2 LANDASAN TEORI. Menurut Sofjan Assauri (1984) Peramalan adalah kegiatan untuk 7 BAB 2 LANDASAN TEORI 2.1 Pengertian peramalan Menurut Sofjan Assauri (1984) Peramalan adalah kegiatan untuk memperkirakan apa yang akan terjadi pada masa yang akan datang. Setiap kebijakan atau pengambilan

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI 2.1. Suara Manusia Menurut Inung Wijayanto (2013), produksi suara manusia memerlukan tiga elemen, yaitu sumber daya, sumber suara dan pemodifikasi suara. Ini adalah dasar dari teori

Lebih terperinci

T 11 Aplikasi Model Backpropagation Neural Network Untuk Perkiraan Produksi Tebu Pada PT. Perkebunan Nusantara IX

T 11 Aplikasi Model Backpropagation Neural Network Untuk Perkiraan Produksi Tebu Pada PT. Perkebunan Nusantara IX T 11 Aplikasi Model Backpropagation Neural Network Untuk Perkiraan Produksi Tebu Pada PT. Perkebunan Nusantara IX Oleh: Intan Widya Kusuma Program Studi Matematika, FMIPA Universitas Negeri yogyakarta

Lebih terperinci

Jurnal Coding, Sistem Komputer Untan Volume 04, No.2 (2016), hal ISSN : x

Jurnal Coding, Sistem Komputer Untan Volume 04, No.2 (2016), hal ISSN : x DETEKSI PENYAKIT PADA TANAMAN JERUK PONTIANAK DENGAN METODE JARINGAN SARAF TIRUAN BACKPROPAGATION [1] Fitrajaya Nugraha, [2] Beni Irawan, [3] Dwi Marisa Midyanti [1] [3] Jurusan Sistem Komputer, Fakultas

Lebih terperinci

Pengenalan Karakter Tulisan Tangan Latin pada Jaringan Saraf Tiruan Metode Backpropagation dengan Input Citra Kamera Digital

Pengenalan Karakter Tulisan Tangan Latin pada Jaringan Saraf Tiruan Metode Backpropagation dengan Input Citra Kamera Digital Pengenalan Karakter Tulisan Tangan Latin pada Jaringan Saraf Tiruan Metode Backpropagation dengan Input Citra Kamera Digital Dompak Petrus Sinambela 1 Sampe Hotlan Sitorus 2 Universitas Mpu Tantular Jakarta.

Lebih terperinci

ANALISIS JARINGAN SARAF TIRUAN BACKPROPAGATION TERHADAP PERAMALAN NILAI TUKAR MATA UANG RUPIAH DAN DOLAR

ANALISIS JARINGAN SARAF TIRUAN BACKPROPAGATION TERHADAP PERAMALAN NILAI TUKAR MATA UANG RUPIAH DAN DOLAR Jurnal Barekeng Vol. 8 No. Hal. 7 3 (04) ANALISIS JARINGAN SARAF TIRUAN BACKPROPAGATION TERHADAP PERAMALAN NILAI TUKAR MATA UANG RUPIAH DAN DOLAR Analysis of Backpropagation Artificial Neural Network to

Lebih terperinci

Jaringan Syaraf Tiruan Bidirectional Associative Memory (BAM) Sebagai Identifikasi Pola Sidik jari Manusia

Jaringan Syaraf Tiruan Bidirectional Associative Memory (BAM) Sebagai Identifikasi Pola Sidik jari Manusia Jurnal Informatika Mulawarman Vol 4 No. 1 Feb 2009 21 Jaringan Syaraf Tiruan Bidirectional Associative Memory (BAM) Sebagai Identifikasi Pola Sidik jari Manusia ZAINAL ARIFIN Program Studi Ilmu Komputer,

Lebih terperinci

BAB 3 ANALISIS DAN PERANCANGAN SISTEM

BAB 3 ANALISIS DAN PERANCANGAN SISTEM BAB 3 ANALISIS DAN PERANCANGAN SISTEM Analisis merupakan proses penguraian konsep ke dalam bagian-bagian yang lebih sederhana, sehingga struktur logisnya menjadi jelas. Metode untuk menguji, menilai, dan

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI Bab ini akan dibahas mengenai teori-teori pendukung pada penelitian ini. Adapun teori tersebut yaitu teori jaringan saraf tiruan dan algoritma backpropragation. 2.1. Jaringan Saraf

Lebih terperinci

ANALISIS PENAMBAHAN MOMENTUM PADA PROSES PREDIKSI CURAH HUJAN KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

ANALISIS PENAMBAHAN MOMENTUM PADA PROSES PREDIKSI CURAH HUJAN KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK Seminar Nasional Informatika 0 ANALISIS PENAMBAHAN MOMENTUM PADA PROSES PREDIKSI CURAH HUJAN KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK Yudhi Andrian, Purwa Hasan Putra Dosen Teknik Informatika,

Lebih terperinci

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PENYAKIT SALURAN PERNAFASAN DENGAN METODE BACKPROPAGATION

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PENYAKIT SALURAN PERNAFASAN DENGAN METODE BACKPROPAGATION APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PENYAKIT SALURAN PERNAFASAN DENGAN METODE BACKPROPAGATION [1] Novi Indah Pradasari, [2] F.Trias Pontia W, [3] Dedi Triyanto [1][3] Jurusan Sistem Komputer,

Lebih terperinci

Presentasi Tugas Akhir

Presentasi Tugas Akhir Presentasi Tugas Akhir Bagian terpenting dari CRM adalah memahami kebutuhan dari pelanggan terhadap suatu produk yang ditawarkan para pelaku bisnis. CRM membutuhkan sistem yang dapat memberikan suatu

Lebih terperinci

RANCANG BANGUN TOOL UNTUK JARINGAN SYARAF TIRUAN (JST) MODEL PERCEPTRON

RANCANG BANGUN TOOL UNTUK JARINGAN SYARAF TIRUAN (JST) MODEL PERCEPTRON RANCANG BANGUN TOOL UNTUK JARINGAN SYARAF TIRUAN (JST) MODEL PERCEPTRON Liza Afriyanti Laboratorium Komputasi dan Sistem Cerdas Jurusan Teknik Informatika, Fakultas Teknologi Industri,Universitas Islam

Lebih terperinci

Proses Pembelajaran dengan BackPropagation pada kasus penyakit asma

Proses Pembelajaran dengan BackPropagation pada kasus penyakit asma Proses Pembelajaran dengan BackPropagation pada kasus penyakit asma Oleh Jasmir, S.Kom, M.Kom Dosen tetap STIKOM Dinamika Bangsa Jambi Abstrak Penyakit asma merupakan penyakit yang menyerang pada saluran

Lebih terperinci

Bab 4 Model Neural Network

Bab 4 Model Neural Network Model Jaringan Neural Buatan (JNB) merupakan suatu sistem yang dibangun berdasarkan cara kerja neural pada makhluk hidup (neural biologis) Neural biologis terdiri atas sel neural yang disebut neuron yang

Lebih terperinci

PREDIKSI CURAH HUJAN DI KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

PREDIKSI CURAH HUJAN DI KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK PREDIKSI CURAH HUJAN DI KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK Yudhi Andrian 1, Erlinda Ningsih 2 1 Dosen Teknik Informatika, STMIK Potensi Utama 2 Mahasiswa Sistem Informasi, STMIK

Lebih terperinci

JARINGAN SYARAF TIRUAN DAN PEMROGRAMANNYA DENGAN MATLAB J.J. Siang 2 Jaringan Syaraf Tiruan dan Pemrogramannya Dengan Matlab Untuk Kevin, yang senyumnya membangkitkan semangat dan harapan Being wise is

Lebih terperinci

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK)

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) Bagian ini membahas jaringan saraf tiruan, pengenalan tulisan tangan, dan algoritma backpropagation. 2. Jaringan Saraf Tiruan Jaringan saraf tiruan (JST)

Lebih terperinci

PENERAPAN JARINGAN SYARAF TIRUAN UNTUK MENGUKUR REGRESI ANTARA KEAKTIFAN MAHASISWA DI ORGANISASI DENGAN PRESTASI AKADEMIK MAHASISWA

PENERAPAN JARINGAN SYARAF TIRUAN UNTUK MENGUKUR REGRESI ANTARA KEAKTIFAN MAHASISWA DI ORGANISASI DENGAN PRESTASI AKADEMIK MAHASISWA LAPORAN TUGAS AKHIR PENERAPAN JARINGAN SYARAF TIRUAN UNTUK MENGUKUR REGRESI ANTARA KEAKTIFAN MAHASISWA DI ORGANISASI DENGAN PRESTASI AKADEMIK MAHASISWA Disusun Oleh: Nama Nim Program Studi : Ayunita Anzani

Lebih terperinci

SATIN Sains dan Teknologi Informasi

SATIN Sains dan Teknologi Informasi SATIN - Sains dan Teknologi Informasi, Vol. 2, No. 1, Juni 2015 SATIN Sains dan Teknologi Informasi journal homepage : http://jurnal.stmik-amik-riau.ac.id Jaringan Syaraf Tiruan untuk Memprediksi Prestasi

Lebih terperinci