1.1. Jaringan Syaraf Tiruan

Ukuran: px
Mulai penontonan dengan halaman:

Download "1.1. Jaringan Syaraf Tiruan"

Transkripsi

1 BAB I PENDAHULUAN 1.1. Jaringan Syaraf Tiruan Jaringan Syaraf Tiruan (JST) adalah sistem pemroses informasi yang memiliki karakteristik mirip dengan jaringan syaraf biologi yang digambarkan sebagai berikut : a. Menerima input atau masukan (baik dari data yang dimasukkan atau dari output sel syaraf pada jaringan syaraf. Setiap input datang melalui suatu koneksi atau hubungan yang mempunyai sebuah bobot (weight). b. Setiap sel syaraf mempunyai sebuah nilai ambang. Jumlah bobot dari input dan dikurangi dengan nilai ambang kemudian akan mendapatkan suatu aktivasi dari sel syaraf (post synaptic potential, PSP, dari sel syaraf). Signal aktivasi kemudian menjadi fungsi aktivasi / fungsi transfer untuk menghasilkan output dari sel syaraf. JST dibentuk sebagai generalisasi model matematika dari jaringan syaraf biologi, dengan asumsi bahwa : a. Pemrosesan informasi terjadi pada banyak elemen sederhana (neuron). b. Sinyal dikirimkan diantara neuron-neuron melalui penghubung-penghubung. c. Penghubung antar neuron memiliki bobot yang akan memperkuat atau memperlemah sinyal. d. Untuk menentukan output, setiap neuron menggunakan fungsi aktivasi (biasanya bukan fungsi linier) yang dikenakan pada jumlahan input yang diterima. Besarnya output ini selanjutnya dibandingkan dengan suatu batas ambang. JST ditentukan oleh 3 hal : a. Pola hubungan antar neuron (disebut arsitektur jaringan) b. Metode untuk menentukan bobot penghubung (metode training / learning / algoritma) c. Fungsi aktivasi 1

2 Sebagai contoh, perhatikan neuron Y pada gambar 1.1 Gambar 1.1 Neuron Y Y menerima input dari nuron x 1, x 2, dan x 3 dengan bobot hubungan masing-masing adalah w 1, w 2, dan w 3. Ketiga impuls neuron yang ada dijumlahkan. Besarnya impuls yang diterima oleh Y mengikuti fungsi aktivasi y = f(net). Apabila nilai fungsi aktivasi cukup kuat, maka sinyal akan diteruskan. Nilai fungsi aktivasi (keluaran model jaringan) juga dapat dipakai sebagai dasar untuk merubah bobot Model Neuron Neuron adalah unit pemroses informasi yang menjadi dasar dalam pengoperasian JST. Neuron terdiri dari 3 elemen: 1) Himpunan unit-unit yang dihubungkan dengan jalus koneksi. Jalur tersebut memiliki bobot yang berbeda-beda. Bobot yang benilai positif akan memperkuat sinyal dan yang bernilai negatif akan memperlemah sinyal yang dibawanya. Jumlah, struktur dan pola hubungan antar unit-unit tersebut akan menentukan ARSISTEKTUR JARINGAN (dan juga model jaringan yang terbentuk). 2) Suatu unit penjumlah yang akan menjumlahkan input-input sinyal yang sudah dikalikan dengan bobot. Misalkan x1, x2,...xm adalah unit2 input dan wji, wj2,... wjm adalah bobot penghubung dari unit2 tsb ke unit keluaran Yj, maka unit penjumlah akan memberikan keluaran sebesar uj = x1wj1+ x2wj2+...+xmwjm 3) Fungsi aktivasi yang akan menentukan apakah sinyal dari input neuron akan diteruskan ke neuron lain ataukah tidak. a. Jika tahapan fungsi aktivasi digunakan (output sel syaraf = 0 jika input <0 dan 1 jika input >= 0) maka tindakan sel syaraf sama dengan sel syaraf biologi yang dijelaskan diatas (pengurangan nilai ambang dari jumlah bobot dan 2

3 membandingkan dengan 0 adalah sama dengan membandingkan jumlah bobot dengan nilai ambang). b. Biasanya tahapan fungsi jarang digunakan dalan Jaringan Syaraf Tiruan. Fungsi aktivasi (f(.)) dapat dilihat pada Gambar berikut. Gambar 1.2 Fungsi Aktivasi Arsitektur Jaringan Syaraf Tiruan Beberapa arsitektur jaringan yang sering dipakai dalam jaringan syaraf tiruan antara lain : a. Jaringan Layar Tunggal (single layer network) Dalam jaringan ini, sekumpulan input neuron dihubungkan langsung dengan sekumpulan outputnya. Beberapa model (misal perceptron), hanya ada sebuah unit neuron output. Gambar 1.3 Single Layer Network Gambar 1.3 menunjukkan arsitektur jaringan dengan n buah unit input (x 1, x 2,...,x n ) dan m buah unit output (Y 1,Y 2,...,Y m ). Perhatikan bahwa jaringan ini, semua unit input dihubungkan dengan semua unit output, meskipun dengan bobot yang berbeda-beda. Tidak ada unit input yang dihubungkan dengan unit input lain. Demikian pula dengan unit ouput. Besaran w ji menyatakan bobot hubungan antara unit ke-i dalam input dengan unit ke-j dalam output. Bobot-bobot ini saling independen. Selama proses pelatihan, bobotbobot tersebut akan dimodifikasi untuk meningkatkan keakuratan hasil. Model 3

4 semacam ini tepat digunakan untuk pengenalan pola karena kesederhanaannya. Model yang masuk kategori ini antara lain : Adaline, Hopfield, Perceptron, LVQ, dll. b. Jaringan Layar Jamak (multi layer network) Jaringan layar jamak merupakan perluasan dari layar tunggal. Dalam jaringan ini, selain unit input dan output, ada unit-unit lain yang disebut dengan layar tersembunyi (hidden layer). Dimungkinkan pula ada beberapa layar tersembunyi. Sama seperti pada unit input dan output, unit-unit dalam satu layar tidak saling berhubungan. Gambar 1.4 Multi Layer Network Gambar 1.4 adalah jaringan dengan n buah unit input (x 1, x 2,...,x n ), sebuah layar tersembunyi yang terdiri dari p buah unit (z 1, z 2,...,z n ) dan m buah unit output (Y 1, Y 2,..., Y n ). Jaringan layar jamak dapat menyelesaikan masalah yang lebih kompleks dibandingkan dengan layar tunggal, meskipun kadangkala proses pelatihan lebih kompleks dan lama. Model yang masuk kategori ini antara lain: Madaline, Backpropagation, Neocognitron, dll. c. Jaringan Recurrent Model jaringan recurrent mirip dengan jaringan layar tunggal ataupun jamak. Hanya saja, ada neuron output yang memberikan sinyal pada unit input (feedback loop). Model yang masuk kategori ini antara lain: BAM (Bidirectional Associative Memory), Boltzman Machine, Hopfield, dll. 4

5 Gambar 1.5 Recurrent Layer Network Fungsi Aktivasi Dalam jaringan syaraf tiruan, fungsi aktivasi dipakai untuk menentukan keluaran suatu neuron. Argumen fungsi aktivasi adalah net masukan (kombinasi linier masukan dan bobotnya). Jika net =, maka fungsi aktivasinya adalah f(net) =. Gambar 1.6 Fungsi Aktivasi 5

6 Kadang dalam jaringan ditambahkan sebuah unit masukan yang nilainya selalu= 1. Unit yang demikian disebut bias. Bias dapat dipandang sebagai sebuah input yang nilainya= 1. Bias berfungsi untuk mengubah nilai threshold menjadi = 0 (bukan =a). Gambar 1.7 Penambahan Nilai Bias Dalam Input Neuron Jika melibatkan bias, maka keluaran unit penjumlah adalah Fungsi aktivasi threshold menjadi: { Contoh: Suatu jaringan layar tunggal seperti gambar di atas terdiri dari 2 input x1 = 0,7 dan x2 = 2,1 dan memiliki bias. Bobot w1 = 0,5 dan w2 = -0,3 dan bobot bias b = 1,2. Tentukan keluaran neuron Y jika fungsi aktivasi adalah threshold bipolar. Penyelesaian: Karena net > 0 maka keluaran dari jaringan y = f(net) = 1 6

7 1.2. Klasifikasi JST Berdasarkan Pelatihan Umum Berdasarkan cara memodifikasi / encoding / decoding JST diklasifikasikan sbb: Gambar 1.8 Klasifikasi JST Berikut penjelasan klasifikasinya: 1. Supervised-Feedforward: JST dibimbing dalam hal penyimpanan pengetahuannnya serta sinyal masuk akan diteruskan tanpa umpan balik 2. Unsupervised-Feedforward: JST tidak dibimbing dalam hal penyimpanan pengetahuannnya serta sinyal masuk akan diteruskan tanpa umpan balik 3. Unsupervised-Feedback: JST tidak dibimbing dalam hal penyimpanan pengetahuannnya serta sinyal masuk akan diteruskan dan memberikan umpan balik 4. Supervised-Feedback: JST dibimbing dalam hal penyimpanan pengetahuannnya serta sinyal masuk akan diteruskan dan memberikan umpan balik Konsep JST yang dibimbing (supervised): JST diberi masukan tertentu dan keluarannya ditentukan oleh pengajarnya. Dalam proses tsb, JST akan menyesuaikan bobot sinapsisnya. Konsep JST tanpa dibimbing (unsupervised): kebalikan dari supervised, JST secara mandiri akan mengatur keluarannya sesuai aturan yang dimiliki. Konsep JST feedforward: hasil outputnya sudah dapat diketahui sebelumnya. Konsep JST feedback: lebih bersifat dinamis, dalam hal ini kondisi jaringan akan selalu berubah sampai diperoleh keseimbangan tertentu. Hingga saat ini terdapat lebih dari 20 model JST. Masing-masing model menggunakan arsitektur, fungsi aktivasi dan algoritma yang berbeda-beda dalam prosesnya. Taksonomi JST didasarkan pada metode pembelajaran, aplikasi dan jenis arsitekturnya Berdasarkan stategi pembelajaran, model JST dibagi menjadi: 1. Pelatihan dengan supervisi. Contoh: model Hebbian, Perceptron, Delta, ADALINE, Backpropagation, Heteroassociative Memory, Biderectional Associative Memory (BAM). 7

8 2. Pelatihan tanpa supervisi. Contoh: model Hebian, Competitive, Kohonen, Learning Vector Quantization (LVQ), Hopfield Contoh-contoh Aplikasi Jaringan Syaraf Tiruan Aplikasi yang sudah ditemukan a. Klasifikasi. Model yang digunakan: ADALINE, LVQ, Backpropagation b. Pengenalaan Pola. Model yang digunakan: Adaptive Resononance Theory (ART), LVQ, Backpropagation c. Peramalan. Model yang digunakan: ADALINE, MADALINE, Backpropagation d. Optimisasi. Model yang digunakan: ADALINE, Hopfield, Backpropagation 1.4. Neuron McCulloch-Pitts Model JST yang digunakan oleh McP merupakan model yang pertama ditemukan. Model neuron McP memiliki karakteristik sbb: a. Fungsi aktivasinya biner. b. Semua garis yang memperkuat sinyal (bobot positif) ke arah suatu neuron memiliki kekuatan (besar bobot) yang sama. Hal yang sama untuk garis yang memperlemah sinyal (bobot negatif) ke arah neuron tertentu. c. Setiap neuron memiliki batas ambang (threshold) yang sama. Apabila total input ke neuron tersebut melebihi threshold, maka neuron akan meneruskan sinyal. Gambar 1.7 Model Neuron McP Neuron Y menerima sinyal dari (n+m) buah neuron x 1 x 2,..x n, x n+1,.x n+m. n buah penghubung dengan dari x 1, x 2,..x n ke Y merupakan garis yang memperkuat sinyal (bobot positif), sedangkan m buah penghubung dari x n+1,.x n+m ke Y merupakan garis yang memperlemah sinyal (bobot negatif). Semua penghubung dari x 1, x 2,..x n ke Y memiliki bobot yang sama. Hal yang sama dengan penghubung dari x n+1,.x n+m ke Y memiliki bobot yang sama. Namun jika ada neuron lain katakan Y 2, maka bobot x 1 ke Y 1 boleh berbeda dengan bobot dari x 2 ke Y 2. Fungsi aktivasi neuron Y adalah 8

9 { Bobot tiap garis tidak ditentukan dengan proses pelatihan, tetapi dengan metode analitik. Beberapa contoh berikut memaparkan bagaiman neuron McP digunakan untuk memodelkan fungsi logika sederhana. Contoh: Fungsi logika AND dengan 2 masukan x 1 dan x 2 akan memiliki keluaran Y =1 jika dan hanya jika kedua masukan bernilai 1. Buatlah model neuron McP untuk menyatakan fungsi logika AND Penyelesaian : Model neuron fungsi AND tampak pada gambar di bawah ini. Bobot tiap garis adalah = 1 dan fungsi aktivasi memiliki nilai threshold = 2. Untuk semua kemungkinan masukan, nilai aktivasi tampak pada tabel berikut: 9

10 Tampak bahwa keluaran jaringan tepat sama dengan tabel logika AND. Berarti jaringan dapat dengan tepat merepresentasika fungsi AND. Besarnya nilai threshold dapat diganti menjadi suatu bias dengan nilai yang sama. Dengan menggunakan nilai bias, batas garis pemisah ditentukan dari persamaan b + x 1 w 1 + x 2 w 2 = 0 atau x 2 = -w 1 x 1 /w 2 b/w 2 Apabila garis pemisalnya diambil dengan persamaan x 1 + x 2 = 2, maka berarti w 1 /w 2 =-1 dan b/w 2 = 2. Ada banyak w 1, w 2 dan b yang memenuhi persamaan tersebut, salah satunya adalah w 1 =w 2 =1 dan b=-2, seperti penyelesaian contoh diatas. Latihan 1) Buatlah model neuron McP untuk menyatakan fungsi logika OR 2) Buatlah model neuron McP untuk menyatakan fungsi logika XOR 3) Buatlah model neuron McP untuk menyatakan fungsi logika x 1 AND NOT x 2 10

11 BAB II ALGORITMA PERCEPTRON Model jaringan perceptron ditemukan Rosenblatt (1962) dan Minsky-Papert (1969). Model tersebut merupakan model yang memiliki aplikasi dan pelatihan yang paling baik pada era tersebut Arsitektur Jaringan Arsitektur jaringan perceptron mirip dengan arsitektur jaringan Hebb. Gambar 2.1 Arsitektur Perceptron Jaringan terdiri dari beberapa unit masukan (ditambah sebuah bias), memiliki sebuah unit keluaran. Hanya saja fungsi aktivasi bukan merupakan fungsi biner (atau bipolar), tetapi memiliki kemungkinan nilai -1, 0 atau 1. Harga threshold yang ditentukan : f(net) = { 11

12 Secara geometris, fungsi aktivasi membentuk 2 garis sekaligus, masing-masing dengan persamaan : w 1 x 1 + w 2 x w n x n + b = dan w 1 x 1 + w 2 x w n x n + b = Pelatihan Perceptron Misalkan: s adalah vektor masukan dan t adalah target keluaran α adalah laju pemahaman (learning rate) yang ditentukan adalah threshold yang ditentukan Algoritma pelatihan perceptron : 1. Inisialisasi semua bobot dan bias (umumnya w i = b = 0). Tentukan laju pemahaman (=α). Untuk penyederhana, biasanya α diberi nilai = 1 2. Selama ada elemen vektor masukan yang respon unit keluarnya tidak sama dengan target, lakukan : a. Set aktivasi unit masukan xi = si (i = 1,...,n) b. Hitung respon unit keluaran : net = y =f(net) = { c. Perbaiki bobot pola yang mengandung kesalahan (y t) menurut persamaan ; w i (baru) = w i (lama) + w (i=1,...,n) dengan w = α t x i b (baru) = b (lama) + b dengan b = α t Ada beberapa hal yang perlu diperhatikan dalam algoritma tersebut : a. Iterasi dilakukan terus hingga semua pola memiliki keluaran jaringan yang sama dengan targetnya (jaringan sudah memahami pola). Iterasi tidak berhenti setelah semua pola dimasukkan seperti yang terjadi pada model Hebb. b. Pada langkah 2(c), perubahan bobot hanya dilakukan pada pola yang mengandung kesalahan (keluaran jaringan target). Perubahan tersebut merupakan hasil kali unit masukan dengan target dan laju pemahaman. Perubahan bobot hanya akan terjadi kalau unit masukan 0. c. Kecepatan iterasi ditentukan pula oleh laju pemahaman (=α dengan 0 α 1). semakin besar harga α, semakin sedikit iterasi yang diperlukan. Akan tetapi jika α 12

13 terlalu besar, maka akan merusak pola yang sudah benar sehingga pemahaman menjadi lambat. Contoh 1: Buatlah perceptron untuk mengenali fungsi logika dan dengan masukan dan keluaran bipolar. Untuk inisialisasi, gunakan bobot dan bias awal = 0, α = 1 dan threshold = = 0 Penyelesaian : Tabel masukan dan target fungsi logika dan dengan masukan dan keluaran bipolar tampak dalam tabel 2.1 Tabel 2.1 Fungsi Logika and Dengan Bipolar Untuk threshold = 0, maka fungsi aktivasi menjadi : { Iterasi untuk seluruh pola yang ada disebut epoch Tabel 3.2 menunjukkan hasil pada epoch pertama. 13

14 Tabel 2.2 Perceptron Epoch Pertama Tabel 2.3 Perceptron Epoch Kedua Pada tabel 3.3 sudah tidak ada perubahan bobot lagi, maka jaringan Perceptron tersebut sudah mengenali pola sehingga iterasi dihentikan Pengenalan Pola Karakter pada perceptron Algoritma untuk mengenali apakah pola masukan yang diberikan menyerupai sebuah karakter tertentu (misal mirip huruf A ) atau tidak, sebagai berikut : 1. Nyatakan tiap pola masukan sebagai vektor bipolar yang elemennya adalah tiap titik dalam pola tersebut. 2. Berikan nilai target = +1 jika pola masukan menyerupai huruf yang diinginkan. Jika sebaliknya, berikan nilai target = Berikan inisialisasi bobot, bias, laju pemahaman dan threshold. 4. Lakukan proses pelatihan perceptron. 14

15 Contoh 2: Diketahui 6 buah pola masukan seperti gambar 3.1 : Gambar 3.1 Pola Karakter Buatlah model perceptron untuk mengenali pola A. Penyelesaian : Untuk menentukan vektor masukan, tiap titik dalam pola diambil sebagai komponen vektor. Jadi tiap vektor masukan memiliki 9*7 = 63 komponen. Titik dalam pola yang bertanda # diberi nilai = +1 dan titik bertanda. Diberi nilai -1. Pembacaan pola dilakukan dari kiri ke kanan, dimulai dari baris paling atas. Vektor masukan pola 1 adalah ( ) Vektor masukan pola 2 adalah ( ) Vektor masukan pola 3 adalah ( ) Vektor masukan pola 4 adalah ( ) Vektor masukan pola 5 adalah 15

16 ( ) Vektor masukan pola 6 adalah ( ) Target bernilai = +1 bila pola masukan menyerupai huruf A. Jika tidak, maka target bernilai = -1. Pola yang menyerupai huruf A adalah pola 1 dan pola 4. Pasangan pola dan targetnya tampak pada tabel 2.4 Tabel 2.4 Pola Masukan Untuk Mengenali Pola A Perceptron yang dipakai untuk mengenali pola huruf A (atau bukan A ) memiliki 63 unit masukan, sebuah bias dan sebuah unit keluaran. Misalnya bobot awal diambil = 0 untuk semua bobot maupun bias, α = 1, Pelatihan dilakukan dengan cara memasukkan 63 unit masukan (sebuah pola huruf). Dihitung. Berikutnya, fungsi aktivasi dihitung menggunakan persamaan { Apabila f(net) target, maka bobot dan bias diubah Proses pelatihan dilakukan terus hingga semua keluaran jaringan sama dengan targetnya. 16

17 Latihan : Buatlah perceptron untuk mengenali pola yang berbentuk pada fungsi logika XOR dengan α = 1 dan a. Tanpa menggunakan bias (jika mungkin) b. Menggunakan bias c. Tunjukkan secara grafik bahwa tanpa bias, perceptron tidak akan mampu mengenali pola secara benar. 17

18 BAB III ALGORITMA ADALINE Model ADALINE (Adaptive Linear Neuron) ditemukan oleh Widrow dan Hoff (1960). Arsitekturnya mirip dengan perceptron. Pelatihan ADALINE Beberapa masukan (dan sebuah bias) dihubungkan langsung dengan sebuah neuron keluaran. Perbedaan dengan perceptron adalah cara modifikasi bobot. Bobot dimodifikasi dengan aturan delta (least mean square). Selama pelatihan, fungsi aktivasi yang dipakai adalah fungsi identitas. Kuadrat selisih antara target (t) dan keluaran jaringan (f(net)) merupakan error yang terjadi. Dalam aturan delta, bobot dimodifikasi sedemikian hingga errornya minimum. E = (t f(net)) 2 = E merupakan fungsi bobot w i. Penurunan E tercepat terjadi pada arah. Maka perubahan bobot adalah : 2 Α merupakan bilangan positif kecil (umumnya diambil 0.1) Algoritma pelatihan ADALINE : 1. Inisialisasi semua bobot dan bias (w i = b = 0). Tentukan α, biasanya α = 0.1, tentukan toleransi kesalahan yang diijinkan 2. Selama max w i > batas toleransi, lakukan : a. Set aktivasi unit masukan x i = s i (i = 1,...,n) b. Hitung respon unit keluaran : Y = f(net) = net c. Perbaiki bobot pola yang mengandung kesalahan (y t) menurut persamaan : 18

19 w i (baru) = w i (lama) +α (t-y)x i b (baru) = b (lama) + α (t-y) Setelah proses pelatihan selesai, ADALINE dapat dipakai untuk pengenalan pola. Umumnya dipakai fungsi bipolar. Caranya sebagai berikut : 1. Inisialisasi semua bobot dan bias dengan bobot dan bias hasilm pelatihan 2. Untuk semua input masukan bipolar x, lakukan : a. Set aktivasi unit masukan x i = s i (i = 1,..., n) b. Hitung net vektor keluaran : c. Kenakan fungsi aktivasi : { Contoh 1: Gunakan model ADALINE untuk mengenali pola fungsi logika dan dengan masukan dan target bipolar : Tabel 3.1 Masukan dan Target Gunakan batas toleransi = 0.05 dan α = 0.1 Penyelesaian: Dengan α = 0.1, maka perubahan bobotnya = w i = 0.1 (t - f(net))x i = 0.1 (t-y) x i. 19

20 Tabel 3.2 Nilai F(Net) pada Epoch Pertama Maksimum w i = 0.07 > toleransi, maka iterasi dilanjutkan untuk epoch kedua Tabel 3.3 Nilai F(Net) pada Epoch Kedua Maksimum w i = < toleransi, maka iterasi dihentikan dan bobot terakhir yang diperoleh (w 1 = 0.29, w 2 = 0.26, dan b = -0.32) merupakan bobot yang digunakan dalam pengenalan pola. Perhatikan bahwa fungsi aktivasi yang dipakai berbeda dengan fungsi aktivasi pada pelatihan. Dalam pengenalan pola, fungsi aktivasinya adalah : { 20

21 Tabel 3.4 Hasil and Tampak bahwa keluaran jaringan tepat sama dengan targetnya. Disimpulkan bahwa pola dapat dikenali dengan sempurna menggunakan bobot hasil pelatihan. Contoh 2: Gunakan contoh sebelumnya dengan ketentuan α = 0.2 Penyelesaian: Dengan iterasi ADALINE α = 0.2 maka hasilnya sesuai dengan table berikut: Tabel 3.5 iterasi pertama Maksimum i = 0.05 artinya toleransi, maka iterasi dihentikan dan bobot terakhir yang diperoleh ( 1 = 0.3, 2 = 0.21, dan b = merupakan bobot yang digunakan dalam pengenalan polanya, Dengan cara tersebut maka dapat di cek bahwa bobot yang diperoleh dapat mengenali semua pola dengan benar. 21

22 BAB IV ALGORITMA MADALINE 4.1. Arsitektur Jaringan Beberapa ADALINE dapat digabungkan untuk membentuk suatu jaringan baru yang di sebuat MADALINE (many ADALINE). Dalam MADALINE terdapat sebuah layar tersembunyi. Gambar 4.1 Arsitektur MADALINE 4.2.Pelatihan MADALINE Algoritma pelatihan MADALINE mula-mula untuk pola masukan dan target bipolar : 1. Inisialisasi semua bobot dan bias dengan bilangan acak kecil. Inisialiasasi α dengan bilangan kecil. 2. Selama perubahan bobot lebih besar dari toleransi (jumlah epoch belum melebihi batas yang ditentukan), lakukan langkah a s/d e a. Set aktivasi unit masukan : x i = s i untuk semua i b. Hitung net input untuk setiap unit tersembunyi ADALINE (z 1, z 2,...) c. Hitung keluaran setiap unit tersembunyi dengan menggunakan fungsi aktivasi bipolar : 22

23 ( ) { d. Tentukan keluaran jaringan { e. Hitung error dan tentukan perubahan bobot Jika y = target, maka tidak dilakukan perubahan bobot Jika y target : Untuk t = 1, ubah bobot ke unit z j yang z in nya terdekat dengan 0 (misal ke unit z p ) : ( ) ( ) Untuk t = -1, ubah semua bobot ke unit z k yang z in nya positif : ( ) ( ) Contoh : Gunakan MADALINE mula-mula mengenali pola fungsi logika XOR dengan 2 masukan x 1 dan x 2. Gunakan α =0.5 dan toleransi = 0.1 Penyelesaian : Tabel 4.1 Data Masukan Inisialisasi dilakukan pada semua bobot ke unit tersembunyi dengan suatu bilangan acak kecil. 23

24 Tabel 4.2 Inisialisasi terhadap Hiden Layer Bobot ke unit keluaran Y adalah : v 1 = v 2 = b = ½ Gambar 4.2 Bobot tiap Unit Disini dilakukan iterasi untuk pola pertama saja. Pelatihan pola-pola selanjutnya dilakukan secara analog dan diserahkan kepada saudara untuk latihan. Pola-1 : Masukan : x 1 = 1, x 2 =1, t=-1 Hitung net untuk unit tersembunyi z 1 dan z 2 : Z in_1 = b 1 + x 1 w 11 + x 2 w 12 = (0.05) + 1 (0.2) = 0.55 Z in_2 = b 2 + x 1 w 21 + x 2 w 22 = (0.1) + 1 (0.2) = 0.45 Hitung keluaran unit tersembunyi z1 dan z2 menggunakan fungsi aktivasi bipolar. z 1 = f (z in_1 ) = 1 dan z 2 = f (z in_2 ) = 1 Tentukan keluaran jaringan Y : Y _in = b 3 + z 1 v 1 + z 2 v 2 = (0.5) + 1 (0.5) = 1.5 Maka y = f (y _in ) = 1 t-y = -1-1 = -2 0 dan t =

25 Semua bobot yang menghasilkan z _in yang positif dimodifikasi. Karena z in_1 > 0 dan z in_2 > 0, maka semua bobotnya dimodifikasi sebagai berikut : perubahan bobot ke unit tersembunyi z 1 : b 1 baru = b 1 lama + α (-1- z in_1 ) = ( ) = w 11 baru = w 11 lama + α (-1- z in_1 ) x 1 = ( ) = w 12 baru = w 12 lama + α (-1- z in_1 ) x 2 = ( ) = perubahan bobot ke unit tersembunyi z 2 : b 2 baru = b 2 lama + α (-1- z in_2 ) = ( ) = w 21 baru = w 21 lama + α (-1- z in_2 ) x 1 = ( ) = w 22 baru = w 22 lama + α (-1- z in_2 ) x 2 = ( ) = Tabel 4.3 Perubahan Bobot ( Karena masih ada (bahkan semua) perubahan bobot > toleransi yang ditetapkan, maka iterasi dilanjutkan untuk pola 2. Iterasi dilakukan untuk semua pola. Apabila ada perubahan bobot yang masih lebih besar dari batas toleransi, maka iterasi dilanjutkan untuk epoch-2 dan seterusnya. 25

26 BAB V ALGORITMA HOPFIELD DISKRIT Dikembangkan oleh John Hopfield (1982). Struktur jaringan terkoneksi secara penuh yaitu setiap unit terhubung dengan setiap unit yang lain. Jaringan memiliki bobot simetris tanpa ada koneksi pada diri sendiri sehingga w ij = w ji dan w ii = Arsitektur Jaringan Gambar 6. 1 Arsitektur Hopfield Diskrit Fungsi ambang : F(t) = 1 jika t >= ambang, 0 jika t < ambang Gambar 6.2 Jaringan Hopfiled dengan 6 Neuron 26

27 Contoh 1: Ada 2 buah pola yg ingin dikenali: pola A (1,0,1,0,1,0) pola B (0,1,0,1,0,1) Bobot-bobotnya sbb: Algoritma : 1. Aktivasi node pertama pola A 2. Aktivasi node kedua pola A 3. Node 3-6 hasilnya 4,-6,4,-6 4. cara yg sama lakukan utk pola B yg hasilnya -6,4,-6,4,-6,4 pengujian : 1. Mengenali pola C (1,0,1,0,0,0) dianggap citra pola A yg mengalami distorsi 2. Aktivasi node 1-6 menghasilkan (2,-4,2,-4, 4,-4), maka output (1,0,1,0,1,0) 3. Mengenali pola D (0,0,0,1,0,1) dianggap citra pola B yg mengalami distorsi 4. Bagaimana dg pola D? Algoritma dengan Asynchronous update 1. Mengenali pola E (1,0,1,1,0,1) 27

28 2. Aktivasi node 1-6 diperoleh (-2,0,-2,-2,0,-2) dg output (0,1,0,0,1,0) -> bukan A atau B 3. solusi dg Asynchronous update 6.2. Algoritma Hopfield 1. Inisialisasi matriks bobot W 2. Masukan vector input (invec), lalu inisialisasi vector output (outvec) yaitu outvec = invec 3. Mulai dg counter i=1 Selama invec outvec lakukan langakh 4-7,jika I sampai maks maka reset mjd 1 4. Hitung nilai ke-i = dotproduct (invec, kolom ke-i dari W) 5. Hitung outvec ke-i = f(nilai ke-i), f adalah fungsi ambang 6. Update invec dg outvec 7. i = i + 1 Aplikasi pada vektor E 6.3. Pengenalan Pola Karakter pada Hopfield Diskrit Contoh : 1. Pengenalan pola = dan x 2. Pola = (1,1,1,-1,-1,-1,1,1,1) 3. Pola x (1,-1,1,-1,1,-1,1,-1,1) 28

29 4. Bobot diset matrik (-3,3) 5. Pola input = nilai aktivasinya (3,3,3,-9,-6,-9,12,6,15), dg output (1,1,1,-1,-1,- 1,1,1,1) 6. Pola x nilai aktivasinya (9,-9,9,-9,6,-9,6,-6,9), dg output (1,-1,1,-1,1,-1,1,-1,1) 7. Berarti jaringan telah sukses memanggil kembali pola-pola tsb Vektor Bobot (-3,3) Spurious stable state Bagaimana jika dimasukan vektor input (-1,-1,-1,1,-1,1,-1,-1,-1)? 29

30 BAB VI ALGORITMA PROPAGASI BALIK (BACK PROPAGATION) 6.1. Arsitektur Jaringan Salah satu metode pelatihan terawasi pada jaringan syaraf adalah metode Backpropagation, di mana ciri dari metode ini adalah meminimalkan error pada output yang dihasilkan oleh jaringan. Dalam metode Backpropagation, biasanya digunakan jaringan multilayer. Pada gambar, unit input dilambangkan dengan X, hidden unit dilambangkan dengan Z, dan unit output dilambangkan dengan Y. Bobot antara X dan Z dilambangkan dengan v sedangkan bobot antara Z dan Y dilambangkan dengan w. 30

31 6.2.Pelatihan Back Propagation Proses belajar & Pengujian Penggunaan Back Propagation terdiri dari 2 tahap: a. Tahap belajar atau pelatihan, di mana pada tahap ini diberikan sejumlah data pelatihan dan target b. Tahap pengujian atau penggunaan, pengujian dan penggunaan dilakukan setelah selesai belajar Tahap Belajar atau Pelatihan Pada intinya, pelatihan dengan metode backpropagation terdiri dari tiga langkah, yaitu: a. Data dimasukkan ke input jaringan (feedforward) b. Perhitungan dan propagasi balik dari error yang bersangkutan c. Pembaharuan (adjustment) bobot dan bias. Saat umpan maju (feedforward), setiap unit input (X i ) akan menerima sinyal input dan akan menyebarkan sinyal tersebut pada tiap hidden unit (Z j ). Setiap hidden unit kemudian akan menghitung aktivasinya dan mengirim sinyal (z j ) ke tiap unit output. Kemudian setiap unit output (Y k ) juga akan menghitung aktivasinya (y k ) untuk menghasilkan respons terhadap input yang diberikan jaringan. Saat proses pelatihan (training), setiap unit output membandingkan aktivasinya (y k ) dengan nilai target (t k ) untuk menentukan besarnya error. Berdasarkan error ini, dihitung faktor k, di mana faktor ini digunakan untuk mendistribusikan error dari output ke layer sebelumnya. Dengan cara yang sama, faktor j juga dihitung pada hidden unit Z j, di mana faktor ini digunakan untuk memperbaharui bobot antara hidden layer dan input layer. Setelah semua faktor ditentukan, bobot untuk semua layer diperbaharui Proses belajar secara detail Step 0 : Inisialisasi bobot dan bias Baik bobot maupun bias dapat diset dengan sembarang angka (acak) dan biasanya angka di sekitar 0 dan 1 atau -1 (bias positif atau negatif) Step 1 : Jika stopping condition masih belum terpenuhi, jalankan step 2-9. Step 2 : Untuk setiap data training, lakukan step 3-8. Umpan maju (feedforward) 31

32 Step 3 : Step 4 : Setiap unit input (X i,i=1,,n) menerima sinyal input x i dan menyebarkan sinyal tersebut pada seluruh unit pada hidden layer. Perlu diketahui bahwa input x i yang dipakai di sini adalah input training data yang sudah diskalakan. Setiap hidden unit (Z j,j=1,,p) akan menjumlahkan sinyal-sinyal input yang sudah berbobot, termasuk biasnya dan memakai fungsi aktivasi yang telah ditentukan untuk menghitung sinyal output dari hidden unit yang bersangkutan, lalu mengirim sinyal output ini ke seluruh unit pada unit output Step 5 : Setiap unit output (Y k,k=1,,m) akan menjumlahkan sinyal-sinyal input yang sudah berbobot, termasuk biasnya, dan memakai fungsi aktivasi yang telah ditentukan untuk menghitung sinyal output dari unit output yang bersangkutan: Step 6 : Propagasi balik error (backpropagation of error) Setiap unit output (Y k,k=1,,m) menerima suatu target (output yang diharapkan) yang akan dibandingkan dengan output yang dihasilkan. Faktor k ini digunakan untuk menghitung koreksi error ( w jk ) yang nantinya akan dipakai untuk memperbaharui w jk, di mana: w jk = k z j Selain itu juga dihitung koreksi bias w 0k yang nantinya akan dipakai untuk memperbaharui w 0k, di mana: Step 7 : w 0k = k Faktor k ini kemudian dikirimkan ke layer di depannya. Setiap hidden unit (Zj,j=1,,p) menjumlah input delta (yang dikirim dari layer pada step 6) yang sudah berbobot. 32

33 Kemudian hasilnya dikalikan dengan turunan dari fungsi aktivasi yang digunakan jaringan untuk menghasilkan faktor koreksi error j, di mana: j= _inj f (z_inj) Faktor j ini digunakan untuk menghitung koreksi error ( v ij ) yang nantinya akan dipakai untuk memperbaharui v ij, di mana: v ij = j x i Selain itu juga dihitung koreksi bias v 0j yang nantinya akan dipakai untuk memperbaharui v 0j, di mana: Step 8 : v 0j = j Pembaharuan bobot dan bias: a. Setiap unit output (Y k,k=1,,m) akan memperbaharui bias dan bobotnya dengan setiap hidden unit. w jk (baru)=w jk (lama) + w jk b. Demikian pula untuk setiap hidden unit akan memperbaharui bias dan bobotnya dengan setiap unit input. v ij (baru)=v ij (lama) + v ij Step 9 : Memeriksa stopping condition Jika stop condition telah terpenuhi, maka pelatihan jaringan dapat dihentikan Stopping Condition Untuk menentukan stopping condition terdapat dua cara yang biasa dipakai, yaitu: a. Membatasi iterasi yang ingin dilakukan. i. Misalnya jaringan akan dilatih sampai iterasi yang ke-500. ii. Yang dimaksud dengan satu iterasi adalah perulangan step 3 sampai step 8 untuk semua training data yang ada. 33

34 b. Membatasi error. i. Misalnya menentukan besar Mean Square Error antara output yang dikehendaki dan output yang dihasilkan oleh jaringan Mean Square Error Jika terdapat sebanyak m training data, maka untuk menghitung Mean Square Error digunakan persamaan berikut: MSE=0,5 x {(t k1 -y k1 ) 2 + (t k2 -y k2 ) (t km -y km ) 2 } Tahap pengujian & Penggunaan Setelah pelatihan selesai, Back Propagation dianggap telah pintar sehingga apabila jaringan diberi input tertentu, jaringan akan menghasilkan output seperti yang diharapkan. Cara mendapatkan output tersebut adalah dengan mengimplementasikan metode backpropagation yang sama seperti proses belajar, tetapi hanya pada bagian umpan majunya saja, yaitu dengan langkah-langkah sebagai berikut: Step 0 : Inisialisasi bobot sesuai dengan bobot yang telah dihasilkan pada proses pelatihan di atas. Step 1 : Untuk setiap input, lakukan step 2-4. Step 2 : Untuk setiap input i=1,,n skalakan bilangan dalam range fungsi aktivasi seperti yang dilakukan pada proses pelatihan di atas. Step 3 : Untuk j=1,,p: Step 4 : Untuk k=1,,m: Variabel y k adalah output yang masih dalam skala menurut range fungsi aktivasi. Untuk mendapatkan nilai output yang sesungguhnya, y k harus dikembalikan seperti semula. 34

35 Contoh : Misalkan, jaringan terdiri dari 2 unit input, 1 hidden unit (dengan 1 hidden layer), dan 1 unit output. Jaringan akan dilatih untuk memecahkan fungsi XOR. Fungsi aktivasi yang digunakan adalah sigmoid biner dengan nilai learning rate ( ) = 0,01 dan nilai =1. Arsitektur jaringan yang akan dilatih adalah sebagai berikut: Training data yang digunakan terdiri dari 4 pasang input-output, yaitu: Sebelum pelatihan, harus ditentukan terlebih dahulu stopping conditionnya. Misalnya dihentikan jika error telah mencapai 0,41. Langkah-langkah pelatihan Step 0: Misalnya inisialisasi bobot dan bias adalah: v 01 =1,

36 v 11 =-1, v 21 =-1, w 01 =-0, w 11 =0, Step 1: Dengan bobot di atas, tentukan error untuk training data secara keseluruhan dengan Mean Square Error: z_in 11 =1, {(0 x -1,263178)+(0 x-1,083092)}=1, z 11 =f(z_in 11 )=0, z_in 12 =1, {(0 x-1,263178)+(1 x -1,083092)}=0, z 12 =f(z_in 12 )=0, z_in 13 =1, {(1 x- 1,263178)+(0 x- 1,083092)}=0, z 13 =f(z_in 13 )=0, z_in 14 =1, {(1 x -1,263178)+(1 x -1,083092)=-0, z 14 =f(z_in 14 )=0, di mana indeks z jn berarti hidden unit ke-j dan training data ke-n. y_in 11 =-0, (0, x 0,543960)=0, y 11 =f(y_in 11 )=0, y_in 12 =-0, (0, x 0,543960)=-0, y 12 =f(y_in 12 )=0, y_in 13 =-0, (0, x 0,543960)=0, y 13 =f(y_in 13 )=0, y_in 14 =-0, (0, x 0,543960)=-0, y 14 =f(y_in 14 )=0, Maka E=0,5 x {(0-0,480034) 2 + (1-0,453750) 2 ) + (1-0,448119) 2 + (0-0,412941) 2 }=0, Step2 : Karena error masih lebih besar dari 0,41 maka step 3-8 dijalankan. Step 3 : x1=0; x2=0 (iterasi pertama, training data pertama) Step 4 : z_in 1 =1, {(0x-1,263126)+(0x-1,083049)}=1, z 1 =f(z_in 1 )=0, Step 5 : y_in 11 =-0, (0,847993x0,543960)=0, y 11 =f(y_in 11 )=0, Step 6 : 36

37 1 =(0-0,480034)f (0,079906)=-0, w 11 =0,01x-0,119817x0,847993=-0, w 01 =0,01x-0,119817=-0, Step 7. _in 1 =-0, x0,543960=-0, =-0, xf (1,718946)=-0, v 11 =0,01x-0, x0=0 v 21 =0,01x-0, x0=0 v 01 =0,01x-0, =-0, Step 8. w 01 (baru)=-0, (-0, )=-0, w 11 (baru)=0, (-0,001016)=0, v 01 (baru)=1, (-0, )=1, v 11 (baru)=-1, =-1, v 21 (baru)=-1, =-1, Saat ini v 11 dan v 12 masih belum berubah karena kedua inputnya =0. Nilai v 01 dan v 02 baru berubah pada iterasi pertama untuk training data yang kedua Setelah step 3-8 untuk training data pertama dijalankan, selanjutnya kembali lagi ke step 3 untuk training data yang kedua (x 1 =0 dan x 2 =1). Langkah yang sama dilakukan sampai pada training data yang keempat. Bobot yang dihasilkan pada iterasi pertama, training data ke-2,3, dan 4 adalah: Training data ke-2: w 01 =-0, w 11 =0, v 01 =1, v 11 =-1, v 21 =-1, Training data ke-3: w 01 =-0, w 11 =0, v 01 =1, v 11 =-1, v 21 =-1,

38 Training data ke-4: w 01 =-0, w 11 =0, v 01 =1, v 11 =-1, v 21 =-1, Setelah sampai pada training data ke-4, maka iterasi pertama selesai. Berikutnya, pelatihan sampai pada step9, yaitu memeriksa stopping condition dan kembali pada step 2. Demikian seterusnya sampai stopping condition yang ditentukan terpenuhi. Setelah pelatihan selesai, bobot yang didapatkan adalah: v 01 =12, v 11 =-6, v 21 =-6, w 01 =-5, w 11 =5, Jika ada input baru, misalnya x 1 =0,2 dan x 2 =0,9 maka outputnya dapat dicari dengan langkah umpan maju sebagai berikut: Step 0. Bobot yang dipakai adalah bobot hasil pelatihan di atas. Step 1. Perhitungan dilakukan pada step 2-4 Step 2. Dalam contoh ini, bilangan telah berada dalam interval 0 sampai dengan 1, jadi tidak perlu diskalakan lagi. Step 3. z_in 1 =12, {(0,2x-6,779127)+(0,9x-6,779127)}=5, z 1 =f(5,262561)=0, Step 4. y_in 1 =-5, (0,994845x5,719889)=0, y 1 =f(0,671944)=0, Jadi jika input x 1 =0,2 dan x 2 =0,9; output yang dihasilkan jaringan adalah 0,

39 DAFTAR PUSTAKA Fausett, L., Fundamental of Neural Network. Architecture, Algorithms, dan Applications, Prentice Hall, Jong Jek Siang, Jaringan Syaraf Tiruan & Pemrogramannya menggunakan MATLAB, Penerbit ANDI, Puspitaningrum, D., Pengantar Jaringan Syaraf Tiruan, Penerbit ANDI, Haykin, S., Neural Networks, a Comprehensive Fundation, Prentice Hall,

MODEL N EURON NEURON DAN

MODEL N EURON NEURON DAN 1 MODEL NEURON DAN ARSITEKTUR JARINGAN 1 1 Model Neuron Mengadopsi esensi dasar dari system syaraf biologi, syaraf tiruan digambarkan sebagai berikut : Menerima input atau masukan (baikdari data yang dimasukkan

Lebih terperinci

BAB II MODEL NEURON DAN ARSITEKTUR JARINGAN

BAB II MODEL NEURON DAN ARSITEKTUR JARINGAN BAB II MODEL NEURON DAN ARSITEKTUR JARINGAN Neuron adalah unit pemroses informasi yang menjadi dasar dalam pengoperasian JST. Neuron terdiri dari 3 elemen: Himpunan unit2 yang dihubungkan dengan jalus

Lebih terperinci

BACK PROPAGATION NETWORK (BPN)

BACK PROPAGATION NETWORK (BPN) BACK PROPAGATION NETWORK (BPN) Arsitektur Jaringan Digunakan untuk meminimalkan error pada output yang dihasilkan oleh jaringan. Menggunakan jaringan multilayer. Arsitektur Jaringan Proses belajar & Pengujian

Lebih terperinci

BACK PROPAGATION NETWORK (BPN)

BACK PROPAGATION NETWORK (BPN) BACK PROPAGATION NETWORK (BPN) Arsitektur Jaringan Salah satu metode pelatihan terawasi pada jaringan syaraf adalah metode Backpropagation, di mana ciri dari metode ini adalah meminimalkan error pada output

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 2.6. Jaringan Syaraf Tiruan Jaringan syaraf tiruan atau neural network merupakan suatu sistem informasi yang mempunyai cara kerja dan karakteristik menyerupai jaringan syaraf pada

Lebih terperinci

Arsitektur Jaringan Salah satu metode pelatihan terawasi pada jaringan syaraf adalah metode Backpropagation, di mana ciri dari metode ini adalah memin

Arsitektur Jaringan Salah satu metode pelatihan terawasi pada jaringan syaraf adalah metode Backpropagation, di mana ciri dari metode ini adalah memin BACK PROPAGATION Arsitektur Jaringan Salah satu metode pelatihan terawasi pada jaringan syaraf adalah metode Backpropagation, di mana ciri dari metode ini adalah meminimalkan error pada output yang dihasilkan

Lebih terperinci

BAB IV JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK)

BAB IV JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) BAB IV JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) Kompetensi : 1. Mahasiswa memahami konsep Jaringan Syaraf Tiruan Sub Kompetensi : 1. Dapat mengetahui sejarah JST 2. Dapat mengetahui macam-macam

Lebih terperinci

Architecture Net, Simple Neural Net

Architecture Net, Simple Neural Net Architecture Net, Simple Neural Net 1 Materi 1. Model Neuron JST 2. Arsitektur JST 3. Jenis Arsitektur JST 4. MsCulloh Pitts 5. Jaringan Hebb 2 Model Neuron JST X1 W1 z n wi xi; i1 y H ( z) Y1 X2 Y2 W2

Lebih terperinci

Jaringan Syaraf Tiruan

Jaringan Syaraf Tiruan Jaringan Syaraf Tiruan (Artificial Neural Network) Intelligent Systems Pembahasan Jaringan McCulloch-Pitts Jaringan Hebb Perceptron Jaringan McCulloch-Pitts Model JST Pertama Diperkenalkan oleh McCulloch

Lebih terperinci

Architecture Net, Simple Neural Net

Architecture Net, Simple Neural Net Architecture Net, Simple Neural Net 1 Materi 1. Perceptron 2. ADALINE 3. MADALINE 2 Perceptron Perceptron lebih powerful dari Hebb Pembelajaran perceptron mampu menemukan konvergensi terhadap bobot yang

Lebih terperinci

Jaringan Syaraf Tiruan. Disusun oleh: Liana Kusuma Ningrum

Jaringan Syaraf Tiruan. Disusun oleh: Liana Kusuma Ningrum Jaringan Syaraf Tiruan Disusun oleh: Liana Kusuma Ningrum Susilo Nugroho Drajad Maknawi M0105047 M0105068 M01040 Jurusan Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Sebelas Maret

Lebih terperinci

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN JARINGAN SYARAF TIRUAN 8 Jaringan syaraf adalah merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba untuk mensimulasikan proses pembelajaran pada otak manusia tersebut. Istilah

Lebih terperinci

PEMANFAATAN NEURAL NETWORK PERCEPTRON PADA PENGENALAN POLA KARAKTER

PEMANFAATAN NEURAL NETWORK PERCEPTRON PADA PENGENALAN POLA KARAKTER PEMANFAATAN NEURAL NETWORK PERCEPTRON PADA PENGENALAN POLA KARAKTER Fakultas Teknologi Informasi Universitas Merdeka Malang Abstract: Various methods on artificial neural network has been applied to identify

Lebih terperinci

BAB 2 TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA 7 BAB 2 TINJAUAN PUSTAKA 2.1 Jaringan Syaraf Biologi Otak manusia memiliki struktur yang sangat kompleks dan memiliki kemampuan yang luar biasa. Otak terdiri dari neuron-neuron dan penghubung yang disebut

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI Pada bab ini akan dielaskan mengenai teori-teori yang berhubungan dengan penelitian ini, sehingga dapat diadikan sebagai landasan berpikir dan akan mempermudah dalam hal pembahasan

Lebih terperinci

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) ERWIEN TJIPTA WIJAYA, ST, M.KOM

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) ERWIEN TJIPTA WIJAYA, ST, M.KOM JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) ERWIEN TJIPTA WIJAYA, ST, M.KOM INTRODUCTION Jaringan Saraf Tiruan atau JST adalah merupakan salah satu representasi tiruan dari otak manusia yang selalu

Lebih terperinci

BAB 2 TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA BAB 2 TINJAUAN PUSTAKA Pada bab ini akan diuraikan materi yang mendukung dalam pembahasan evaluasi implementasi sistem informasi akademik berdasarkan pengembangan model fit HOT menggunakan regresi linier

Lebih terperinci

Penerapan Jaringan Saraf Tiruan Metode Backpropagation Menggunakan VB 6

Penerapan Jaringan Saraf Tiruan Metode Backpropagation Menggunakan VB 6 Penerapan Jaringan Saraf Tiruan Metode Backpropagation Menggunakan VB 6 Sari Indah Anatta Setiawan SofTech, Tangerang, Indonesia cu.softech@gmail.com Diterima 30 November 2011 Disetujui 14 Desember 2011

Lebih terperinci

I PENDAHULUAN II LANDASAN TEORI

I PENDAHULUAN II LANDASAN TEORI I PENDAHULUAN 1.1 Latar belakang Hujan merupakan salah satu unsur iklim yang berpengaruh pada suatu daerah aliran sungai (DAS). Pengaruh langsung yang dapat diketahui yaitu potensi sumber daya air. Besar

Lebih terperinci

BAB II TINJAUAN PUSTAKA

BAB II TINJAUAN PUSTAKA BAB II TINJAUAN PUSTAKA 2.1 JARINGAN SARAF SECARA BIOLOGIS Jaringan saraf adalah salah satu representasi buatan dari otak manusia yang selalu mencoba untuk mensimulasikan proses pembelajaran pada otak

Lebih terperinci

BAB VIII JARINGAN SYARAF TIRUAN

BAB VIII JARINGAN SYARAF TIRUAN BAB VIII JARINGAN SYARAF TIRUAN A. OTAK MANUSIA Otak manusia berisi berjuta-juta sel syaraf yang bertugas untuk memproses informasi. Tiaptiap sel bekerja seperti suatu prosesor sederhana. Masing-masing

Lebih terperinci

Jaringan syaraf dengan lapisan tunggal

Jaringan syaraf dengan lapisan tunggal Jaringan syaraf adalah merupakan salah satu representasi buatan dari otak manusia yang mencoba untuk mensimulasikan proses pembelajaran pada otak manusia. Syaraf manusia Jaringan syaraf dengan lapisan

Lebih terperinci

ANALISIS JARINGAN SARAF TIRUAN BACKPROPAGATION TERHADAP PERAMALAN NILAI TUKAR MATA UANG RUPIAH DAN DOLAR

ANALISIS JARINGAN SARAF TIRUAN BACKPROPAGATION TERHADAP PERAMALAN NILAI TUKAR MATA UANG RUPIAH DAN DOLAR Jurnal Barekeng Vol. 8 No. Hal. 7 3 (04) ANALISIS JARINGAN SARAF TIRUAN BACKPROPAGATION TERHADAP PERAMALAN NILAI TUKAR MATA UANG RUPIAH DAN DOLAR Analysis of Backpropagation Artificial Neural Network to

Lebih terperinci

BAB 2 KONSEP DASAR PENGENAL OBJEK

BAB 2 KONSEP DASAR PENGENAL OBJEK BAB 2 KONSEP DASAR PENGENAL OBJEK 2.1 KONSEP DASAR Pada penelitian ini, penulis menggunakan beberapa teori yang dijadikan acuan untuk menyelesaikan penelitian. Berikut ini teori yang akan digunakan penulis

Lebih terperinci

BAB IV B METODE BELAJAR HEBBIAN SUPERVISED & CONTOH

BAB IV B METODE BELAJAR HEBBIAN SUPERVISED & CONTOH BAB IV B METODE BELAJAR HEBBIAN SUPERVISED & CONTOH 4B. Jaringan Hebbian Kelemahan model McCulloch-Pitts : penentuan bobot garis dan bias secara analitik. Untuk masalah yang kompleks, hal ini akan sangat

Lebih terperinci

terinspirasi dari sistem biologi saraf makhluk hidup seperti pemrosesan informasi

terinspirasi dari sistem biologi saraf makhluk hidup seperti pemrosesan informasi 25 BAB III JARINGAN SARAF TIRUAN (JST) 3.1 Pengertian JST JST merupakan sebuah model atau pola dalam pemrosesan informasi. Model ini terinspirasi dari sistem biologi saraf makhluk hidup seperti pemrosesan

Lebih terperinci

PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA BARAT

PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA BARAT PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA BARAT Havid Syafwan Program Studi Manajemen Informatika, Amik Royal, Kisaran E-mail: havid_syafwan@yahoo.com ABSTRAK:

Lebih terperinci

APLIKASI JARINGAN SYARAF TIRUAN DALAM PENGHITUNGAN PERSENTASE KEBENARAN KLASIFIKASI PADA KLASIFIKASI JURUSAN SISWA DI SMA N 8 SURAKARTA

APLIKASI JARINGAN SYARAF TIRUAN DALAM PENGHITUNGAN PERSENTASE KEBENARAN KLASIFIKASI PADA KLASIFIKASI JURUSAN SISWA DI SMA N 8 SURAKARTA APLIKASI JARINGAN SYARAF TIRUAN DALAM PENGHITUNGAN PERSENTASE KEBENARAN KLASIFIKASI PADA KLASIFIKASI JURUSAN SISWA DI SMA N 8 SURAKARTA Pembimbing: Desi Fitria Utami M0103025 Drs. Y. S. Palgunadi, M. Sc

Lebih terperinci

METODE BELAJAR HEBBIAN SUPERVISED & CONTOH

METODE BELAJAR HEBBIAN SUPERVISED & CONTOH METODE BELAJAR HEBBIAN SUPERVISED & CONTOH 1. Jaringan Hebbian Kelemahan model McCulloch-Pitts : penentuan bobot garis dan bias secara analitik. Untuk masalah yang kompleks, hal ini akan sangat sulit dilakukan.

Lebih terperinci

BAB VIIB BACKPROPAGATION dan CONTOH

BAB VIIB BACKPROPAGATION dan CONTOH BAB VIIB BACKPROPAGATION dan CONTOH 7B. Standar Backpropagation (BP) Backpropagation (BP) merupakan JST multi-layer. Penemuannya mengatasi kelemahan JST dengan layer tunggal yang mengakibatkan perkembangan

Lebih terperinci

Jaringan Syaraf Tiruan

Jaringan Syaraf Tiruan 07/06/06 Rumusan: Jaringan Syaraf Tiruan Shinta P. Sari Manusia = tangan + kaki + mulut + mata + hidung + Kepala + telinga Otak Manusia Bertugas untuk memproses informasi Seperti prosesor sederhana Masing-masing

Lebih terperinci

BAB II TINJAUAN PUSTAKA

BAB II TINJAUAN PUSTAKA BAB II TINJAUAN PUSTAKA 2.1. Jaringan Saraf Tiruan (JST) Jaringan saraf tiruan pertama kali secara sederhana diperkenalkan oleh McCulloch dan Pitts pada tahun 1943. McCulloch dan Pitts menyimpulkan bahwa

Lebih terperinci

PENGENALAN HURUF DAN ANGKA PADA CITRA BITMAP DENGAN JARINGAN SARAF TIRUAN METODE PROPAGASI BALIK

PENGENALAN HURUF DAN ANGKA PADA CITRA BITMAP DENGAN JARINGAN SARAF TIRUAN METODE PROPAGASI BALIK PENGENALAN HURUF DAN ANGKA PADA CITRA BITMAP DENGAN JARINGAN SARAF TIRUAN METODE PROPAGASI BALIK Naskah Publikasi disusun oleh Zul Chaedir 05.11.0999 Kepada SEKOLAH TINGGI MANAJEMEN INFORMATIKA DAN KOMPUTER

Lebih terperinci

JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORKS)

JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORKS) JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORKS) (Artificial Neural Networks) BAB I PENDAHULUAN 1.1 Sejarah JST JST : merupakan cabang dari Kecerdasan Buatan (Artificial Intelligence ) JST : meniru

Lebih terperinci

Jaringan Syaraf Tiruan

Jaringan Syaraf Tiruan Jaringan Syaraf Tiruan Pendahuluan Otak Manusia Sejarah Komponen Jaringan Syaraf Arisitektur Jaringan Fungsi Aktivasi Proses Pembelajaran Pembelajaran Terawasi Jaringan Kohonen Referensi Sri Kusumadewi

Lebih terperinci

JARINGAN SYARAF TIRUAN DAN PEMROGRAMANNYA DENGAN MATLAB J.J. Siang 2 Jaringan Syaraf Tiruan dan Pemrogramannya Dengan Matlab Untuk Kevin, yang senyumnya membangkitkan semangat dan harapan Being wise is

Lebih terperinci

ARTIFICIAL NEURAL NETWORK TEKNIK PERAMALAN - A

ARTIFICIAL NEURAL NETWORK TEKNIK PERAMALAN - A ARTIFICIAL NEURAL NETWORK CAHYA YUNITA 5213100001 ALVISHA FARRASITA 5213100057 NOVIANTIANDINI 5213100075 TEKNIK PERAMALAN - A MATERI Neural Network Neural Network atau dalam bahasa Indonesia disebut Jaringan

Lebih terperinci

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MENGETAHUI LOYALITAS KARYAWAN

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MENGETAHUI LOYALITAS KARYAWAN ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MENGETAHUI LOYALITAS KARYAWAN Jasmir, S.Kom, M.Kom Dosen tetap STIKOM Dinamika Bangsa Jambi Abstrak Karyawan atau tenaga kerja adalah bagian

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI 2.1 Jaringan Syaraf Biologi Jaringan Syaraf Tiruan merupakan suatu representasi buatan dari otak manusia yang dibuat agar dapat mensimulasikan apa yang dipejalari melalui proses pembelajaran

Lebih terperinci

SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON

SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON Jurnal Informatika Mulawarman Vol. 7 No. 3 Edisi September 2012 105 SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON Anindita Septiarini Program Studi Ilmu Komputer FMIPA,

Lebih terperinci

Analisis Jaringan Saraf Tiruan Model Perceptron Pada Pengenalan Pola Pulau di Indonesia

Analisis Jaringan Saraf Tiruan Model Perceptron Pada Pengenalan Pola Pulau di Indonesia Jurnal Ilmiah Teknologi dan Informasi ASIA (JITIKA) Vol.11, No.1, Februari 2017 ISSN: 0852-730X Analisis Jaringan Saraf Tiruan Model Perceptron Pada Pengenalan Pola Pulau di Indonesia Muhammad Ulinnuha

Lebih terperinci

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK)

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) Bagian ini membahas jaringan saraf tiruan, pengenalan tulisan tangan, dan algoritma backpropagation. 2. Jaringan Saraf Tiruan Jaringan saraf tiruan (JST)

Lebih terperinci

JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) Pertemuan 11 Diema Hernyka Satyareni, M.Kom

JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) Pertemuan 11 Diema Hernyka Satyareni, M.Kom JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) Pertemuan 11 Diema Hernyka Satyareni, M.Kom Outline Konsep JST Model Struktur JST Arsitektur JST Aplikasi JST Metode Pembelajaran Fungsi Aktivasi McCulloch

Lebih terperinci

BAB 3 METODOLOGI PENELITIAN

BAB 3 METODOLOGI PENELITIAN BAB 3 METODOLOGI PENELITIAN 3.1. Data Yang Digunakan Dalam melakukan penelitian ini, penulis membutuhkan data input dalam proses jaringan saraf tiruan backpropagation. Data tersebut akan digunakan sebagai

Lebih terperinci

BAB 2 TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA 7 BAB 2 TINJAUAN PUSTAKA 21 Anatomi Ayam Pengetahuan tentang anatomi ayam sangat diperlukan dan penting dalam pencegahan dan penanganan penyakit Hal ini karena pengetahuan tersebut dipakai sebagai dasar

Lebih terperinci

BAB II DASAR TEORI Jaringan Syaraf Tiruan. Universitas Sumatera Utara

BAB II DASAR TEORI Jaringan Syaraf Tiruan. Universitas Sumatera Utara BAB II DASAR TEORI Landasan teori adalah teori-teori yang relevan dan dapat digunakan untuk menjelaskan variabel-variabel penelitian. Landasan teori ini juga berfungsi sebagai dasar untuk memberi jawaban

Lebih terperinci

FAKULTAS SAINS DAN TEKNOLOGI UIN SUSKA RIAU. IIS AFRIANTY, ST., M.Sc

FAKULTAS SAINS DAN TEKNOLOGI UIN SUSKA RIAU. IIS AFRIANTY, ST., M.Sc IIS AFRIANTY, ST., M.Sc Sistem Penilaian Tugas dan Keaktifan : 15% Quiz : 15% UTS : 35% UAS : 35% Toleransi keterlambatan 15 menit Handphone: Silent Costume : aturan UIN Laki-laki Perempuan Menggunakan

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 2.1. Forecasting Forecasting (peramalan) adalah seni dan ilmu untuk memperkirakan kejadian di masa yang akan datang. Hal ini dapat dilakukan dengan melibatkan data historis dan memproyeksikannya

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI 2.1. Barcode Salah satu obyek pengenalan pola yang bisa dipelajari dan akhirnya dapat dikenali yaitu PIN barcode. PIN barcode yang merupakan kode batang yang berfungsi sebagai personal

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 2.1 Teori-teori Dasar / Umum 2.1.1 Genetic Algorithm Genetic algorithm adalah suatu algoritma yang biasanya digunakan untuk mencari solusi-solusi yang optimal untuk berbagai masalah

Lebih terperinci

IMPLEMENTASI JARINGAN SYARAF TIRUAN MULTI LAYER FEEDFORWARD DENGAN ALGORITMA BACKPROPAGATION SEBAGAI ESTIMASI NILAI KURS JUAL SGD-IDR

IMPLEMENTASI JARINGAN SYARAF TIRUAN MULTI LAYER FEEDFORWARD DENGAN ALGORITMA BACKPROPAGATION SEBAGAI ESTIMASI NILAI KURS JUAL SGD-IDR Seminar Nasional Teknologi Informasi dan Multimedia 205 STMIK AMIKOM Yogyakarta, 6-8 Februari 205 IMPLEMENTASI JARINGAN SYARAF TIRUAN MULTI LAYER FEEDFORWARD DENGAN ALGORITMA BACKPROPAGATION SEBAGAI ESTIMASI

Lebih terperinci

BAB 2 LANDASAN TEORI. Universitas Sumatera Utara

BAB 2 LANDASAN TEORI. Universitas Sumatera Utara BAB 2 LANDASAN TEORI 2.1 Ginjal Ginjal adalah organ tubuh yang berfungsi untuk mengeluarkan urine, yang merupakan sisa hasil metabolisme tubuh dalam bentuk cairan. Ginjal terletak pada dinding bagian luar

Lebih terperinci

BAB 2 LANDASAN TEORI. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu

BAB 2 LANDASAN TEORI. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu BAB 2 LANDASAN TEORI 2.1 Pengenalan Suara. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu speech recognition dan speaker recognition. Speech recognition adalah proses yang dilakukan

Lebih terperinci

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI PRODUKTIVITAS PEGAWAI. Jasmir, S.Kom, M.Kom

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI PRODUKTIVITAS PEGAWAI. Jasmir, S.Kom, M.Kom ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI PRODUKTIVITAS PEGAWAI Jasmir, S.Kom, M.Kom Dosen tetap STIKOM Dinamika Bangsa Jambi Abstrak Pegawai atau karyawan merupakan

Lebih terperinci

Jurnal Informatika Mulawarman Vol 5 No. 1 Februari

Jurnal Informatika Mulawarman Vol 5 No. 1 Februari Jurnal Informatika Mulawarman Vol 5 No. 1 Februari 2010 50 Penerapan Jaringan Syaraf Tiruan Untuk Memprediksi Jumlah Pengangguran di Provinsi Kalimantan Timur Dengan Menggunakan Algoritma Pembelajaran

Lebih terperinci

Perbaikan Metode Prakiraan Cuaca Bandara Abdulrahman Saleh dengan Algoritma Neural Network Backpropagation

Perbaikan Metode Prakiraan Cuaca Bandara Abdulrahman Saleh dengan Algoritma Neural Network Backpropagation 65 Perbaikan Metode Prakiraan Cuaca Bandara Abdulrahman Saleh dengan Algoritma Neural Network Backpropagation Risty Jayanti Yuniar, Didik Rahadi S. dan Onny Setyawati Abstrak - Kecepatan angin dan curah

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI Bab ini akan dibahas mengenai teori-teori pendukung pada penelitian ini. Adapun teori tersebut yaitu teori jaringan saraf tiruan dan algoritma backpropragation. 2.1. Jaringan Saraf

Lebih terperinci

APLIKASI JARINGAN SYARAF TIRUAN MULTI LAYER PERCEPTRON PADA APLIKASI PRAKIRAAN CUACA

APLIKASI JARINGAN SYARAF TIRUAN MULTI LAYER PERCEPTRON PADA APLIKASI PRAKIRAAN CUACA Aplikasi Jaringan Syaraf Tiruan Multilayer Perceptron (Joni Riadi dan Nurmahaludin) APLIKASI JARINGAN SYARAF TIRUAN MULTI LAYER PERCEPTRON PADA APLIKASI PRAKIRAAN CUACA Joni Riadi (1) dan Nurmahaludin

Lebih terperinci

ANALISIS JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI JUMLAH RESERVASI KAMAR HOTEL DENGAN METODE BACKPROPAGATION (Studi Kasus Hotel Grand Zuri Padang)

ANALISIS JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI JUMLAH RESERVASI KAMAR HOTEL DENGAN METODE BACKPROPAGATION (Studi Kasus Hotel Grand Zuri Padang) ANALISIS JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI JUMLAH RESERVASI KAMAR HOTEL DENGAN METODE BACKPROPAGATION (Studi Kasus Hotel Grand Zuri Padang) 1 Musli Yanto, 2 Sarjon Defit, 3 Gunadi Widi Nurcahyo

Lebih terperinci

RANCANG BANGUN TOOL UNTUK JARINGAN SYARAF TIRUAN (JST) MODEL PERCEPTRON

RANCANG BANGUN TOOL UNTUK JARINGAN SYARAF TIRUAN (JST) MODEL PERCEPTRON RANCANG BANGUN TOOL UNTUK JARINGAN SYARAF TIRUAN (JST) MODEL PERCEPTRON Liza Afriyanti Laboratorium Komputasi dan Sistem Cerdas Jurusan Teknik Informatika, Fakultas Teknologi Industri,Universitas Islam

Lebih terperinci

PENGGUNAAN JARINGAN SYARAF TIRUAN BACKPROPAGATION UNTUK SELEKSI PENERIMAAN MAHASISWA BARU PADA JURUSAN TEKNIK KOMPUTER DI POLITEKNIK NEGERI SRIWIJAYA

PENGGUNAAN JARINGAN SYARAF TIRUAN BACKPROPAGATION UNTUK SELEKSI PENERIMAAN MAHASISWA BARU PADA JURUSAN TEKNIK KOMPUTER DI POLITEKNIK NEGERI SRIWIJAYA PENGGUNAAN JARINGAN SYARAF TIRUAN BACKPROPAGATION UNTUK SELEKSI PENERIMAAN MAHASISWA BARU PADA JURUSAN TEKNIK KOMPUTER DI POLITEKNIK NEGERI SRIWIJAYA Tesis untuk memenuhi sebagian persyaratan mencapai

Lebih terperinci

BAB 2 LANDASAN TEORI. fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses

BAB 2 LANDASAN TEORI. fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses 8 BAB 2 LANDASAN TEORI 2.1 Teori Neuro Fuzzy Neuro-fuzzy sebenarnya merupakan penggabungan dari dua studi utama yaitu fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI 2.1. Pengenalan Pola Pengenalan pola adalah suatu ilmu untuk mengklasifikasikan atau menggambarkan sesuatu berdasarkan pengukuran kuantitatif fitur (ciri) atau sifat utama dari suatu

Lebih terperinci

KLASIFIKASI ARITMIA EKG MENGGUNAKAN JARINGAN SYARAF TIRUAN DENGAN FUNGSI AKTIVASI ADAPTIF

KLASIFIKASI ARITMIA EKG MENGGUNAKAN JARINGAN SYARAF TIRUAN DENGAN FUNGSI AKTIVASI ADAPTIF KLASIFIKASI ARITMIA EKG MENGGUNAKAN JARINGAN SYARAF TIRUAN DENGAN FUNGSI AKTIVASI ADAPTIF Asti Rahma Julian 1, Nanik Suciati 2, Darlis Herumurti 3 Teknik Informatika, Fakultas Teknologi Informasi, ITS

Lebih terperinci

Gambar 2.1 Neuron biologi manusia (Medsker & Liebowitz, 1994)

Gambar 2.1 Neuron biologi manusia (Medsker & Liebowitz, 1994) BAB 2 LANDASAN TEORI 2.1. Jaringan Saraf Biologi Manusia Otak manusia memiliki struktur yang sangat kompleks, serta memiliki kemampuan yang luar biasa. Otak terdiri dari neuron-neuron dan penghubung yang

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI 5 BAB II LANDASAN TEORI 2.1. Citra Digital Citra digital dapat didefenisikan sebagai fungsi f(x,y) yaitu dua dimensi, dimana x dan y merupakan koordinat spasial dan f(x,y) disebut dengan intensitas atau

Lebih terperinci

BAB 2 TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA 79 BAB 2 TINJAUAN PUSTAKA 2.1. Pengenalan Pola Pengenalan pola mengelompokkan data numerik dan simbolik (termasuk citra) secara otomatis oleh komputer. Tujuan pengelompokan ini adalah untuk mengenali suatu

Lebih terperinci

Muhammad Fahrizal. Mahasiswa Teknik Informatika STMIK Budi Darma Jl. Sisingamangaraja No. 338 Simpanglimun Medan

Muhammad Fahrizal. Mahasiswa Teknik Informatika STMIK Budi Darma Jl. Sisingamangaraja No. 338 Simpanglimun Medan IMPLEMENTASI JARINGAN SARAF TIRUAN DALAM MEMPREDIKSI SERVICE KENDARAAN RODA 4 DENGAN METODE BACKPROPAGATION (STUDI KASUS PT. AUTORENT LANCAR SEJAHTERA) Muhammad Fahrizal Mahasiswa Teknik Informatika STMIK

Lebih terperinci

JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI CURAH HUJAN SUMATERA UTARA DENGAN METODE BACK PROPAGATION (STUDI KASUS : BMKG MEDAN)

JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI CURAH HUJAN SUMATERA UTARA DENGAN METODE BACK PROPAGATION (STUDI KASUS : BMKG MEDAN) JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI CURAH HUJAN SUMATERA UTARA DENGAN METODE BACK PROPAGATION (STUDI KASUS : BMKG MEDAN) Marihot TP. Manalu Mahasiswa Program Studi Teknik Informatika, STMIK Budidarma

Lebih terperinci

Perbandingan Arsitektur Multilayer Feedforward Network dengan memakai Topologi Multiprosesor Ring Array Dan Linear Array

Perbandingan Arsitektur Multilayer Feedforward Network dengan memakai Topologi Multiprosesor Ring Array Dan Linear Array Nico Saputro Perbandingan Arsitektur Multilayer Feedforard Netork dengan memakai Topologi Multiprosesor Ring Array Dan Linear Array Abstrak Jaringan Syaraf Tiruan dapat diimplementasikan secara perangkat

Lebih terperinci

METODOLOGI PENELITIAN

METODOLOGI PENELITIAN III. METODOLOGI PENELITIAN A. Kerangka Pemikiran Perusahaan dalam era globalisasi pada saat ini, banyak tumbuh dan berkembang, baik dalam bidang perdagangan, jasa maupun industri manufaktur. Perusahaan

Lebih terperinci

PENGENALAN KARAKTER ALFANUMERIK MENGGUNAKAN METODE BACKPROPAGARATION

PENGENALAN KARAKTER ALFANUMERIK MENGGUNAKAN METODE BACKPROPAGARATION PENGENALAN KARAKTER ALFANUMERIK MENGGUNAKAN METODE BACKPROPAGARATION Amriana 1 Program Studi D1 Teknik Informatika Jurusan Teknik Elektro Fakultas Teknik UNTAD ABSTRAK Jaringan saraf tiruan untuk aplikasi

Lebih terperinci

SATIN Sains dan Teknologi Informasi

SATIN Sains dan Teknologi Informasi SATIN - Sains dan Teknologi Informasi, Vol. 2, No. 1, Juni 2015 SATIN Sains dan Teknologi Informasi journal homepage : http://jurnal.stmik-amik-riau.ac.id Jaringan Syaraf Tiruan untuk Memprediksi Prestasi

Lebih terperinci

IMPLEMENTASI ALGORITMA PERCEPTRON UNTUK PENGENALAN POLA MASUKAN BINER MAUPUN BIPOLAR MENGGUNAKAN BORLAND DELPHI

IMPLEMENTASI ALGORITMA PERCEPTRON UNTUK PENGENALAN POLA MASUKAN BINER MAUPUN BIPOLAR MENGGUNAKAN BORLAND DELPHI IMPLEMENTASI ALGORITMA PERCEPTRON UNTUK PENGENALAN POLA MASUKAN BINER MAUPUN BIPOLAR MENGGUNAKAN BORLAND DELPHI Andi Harmin Program Studi : Teknik Komputer STMIK Profesional Makassar andiharmin1976@gmail.com

Lebih terperinci

PERAMALAN PRODUKSI CABAI RAWIT DENGAN NEURAL NETWORK Muhammad Fajar

PERAMALAN PRODUKSI CABAI RAWIT DENGAN NEURAL NETWORK Muhammad Fajar PERAMALAN PRODUKSI CABAI RAWIT DENGAN NEURAL NETWORK Muhammad Fajar Abstrak Tujuan penelitian ini untuk melakukan peramalan produksi cabai rawit dengan menggunakan neural network. Data yang digunakan dalam

Lebih terperinci

BACKPROPAGATION NEURAL NETWORK AS A METHOD OF FORECASTING ON CALCULATION INFLATION RATE IN JAKARTA AND SURABAYA

BACKPROPAGATION NEURAL NETWORK AS A METHOD OF FORECASTING ON CALCULATION INFLATION RATE IN JAKARTA AND SURABAYA BACKPROPAGATION NEURAL NETWORK AS A METHOD OF FORECASTING ON CALCULATION INFLATION RATE IN JAKARTA AND SURABAYA Anggi Purnama Undergraduate Program, Computer Science, 2007 Gunadarma Universiy http://www.gunadarma.ac.id

Lebih terperinci

VOL. 01 NO. 02 [JURNAL ILMIAH BINARY] ISSN :

VOL. 01 NO. 02 [JURNAL ILMIAH BINARY] ISSN : PENERAPAN JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI JUMLAH PRODUKSI AIR MINUM MENGGUNAKAN ALGORITMA BACKPROPAGATION (STUDI KASUS : PDAM TIRTA BUKIT SULAP KOTA LUBUKLINGGAU) Robi Yanto STMIK Bina Nusantara

Lebih terperinci

Jaringan Syaraf Tiruan Menggunakan Algoritma Backpropagation Untuk Memprediksi Jumlah Pengangguran (Studi Kasus DiKota Padang)

Jaringan Syaraf Tiruan Menggunakan Algoritma Backpropagation Untuk Memprediksi Jumlah Pengangguran (Studi Kasus DiKota Padang) Jaringan Syaraf Tiruan Menggunakan Algoritma Backpropagation Untuk Memprediksi Jumlah Pengangguran (Studi Kasus DiKota Padang) Hadi Syahputra Universitas Putra Indonesia YPTK Padang E-mail: hadisyahputra@upiyptk.ac.id

Lebih terperinci

BAB II. Penelitian dengan jaringan syaraf tiruan propagasi balik. dalam bidang kesehatan sebelumnya pernah dilakukan oleh

BAB II. Penelitian dengan jaringan syaraf tiruan propagasi balik. dalam bidang kesehatan sebelumnya pernah dilakukan oleh BAB II TINJAUAN PUSTAKA DAN DASAR TEORI 2.1. Tinjauan Pustaka Penelitian dengan jaringan syaraf tiruan propagasi balik dalam bidang kesehatan sebelumnya pernah dilakukan oleh Sudharmadi Bayu Jati Wibowo

Lebih terperinci

Implementasi Jaringan Syaraf Tiruan Backpropagation dan Steepest Descent untuk Prediksi Data Time Series

Implementasi Jaringan Syaraf Tiruan Backpropagation dan Steepest Descent untuk Prediksi Data Time Series Implementasi Jaringan Syaraf Tiruan Backpropagation dan Steepest Descent untuk Prediksi Data Time Series Oleh: ABD. ROHIM (1206 100 058) Dosen Pembimbing: Prof. Dr. M. Isa Irawan, MT Jurusan Matematika

Lebih terperinci

Sebelumnya... Pembelajaran Mesin/Machine Learning Pembelajaran dengan Decision Tree (ID3) Teori Bayes dalam Pembelajaran

Sebelumnya... Pembelajaran Mesin/Machine Learning Pembelajaran dengan Decision Tree (ID3) Teori Bayes dalam Pembelajaran Sebelumnya... Pembelajaran Mesin/Machine Learning Pembelajaran dengan Decision Tree (ID3) Teori Bayes dalam Pembelajaran Kecerdasan Buatan Pertemuan 11 Jaringan Syaraf Tiruan (Artificial Neural Network)

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 2.1. Jaringan Syaraf Tiruan Artificial Neural Network atau Jaringan Syaraf Tiruan (JST) adalah salah satu cabang dari Artificial Intelligence. JST merupakan suatu sistem pemrosesan

Lebih terperinci

lalu menghitung sinyal keluarannya menggunakan fungsi aktivasi,

lalu menghitung sinyal keluarannya menggunakan fungsi aktivasi, LAMPIRAN 15 Lampiran 1 Algoritme Jaringan Syaraf Tiruan Propagasi Balik Standar Langkah 0: Inisialisasi bobot (bobot awal dengan nilai random yang paling kecil). Langkah 1: Menentukan maksimum epoch, target

Lebih terperinci

Research of Science and Informatic BROILER CHICKENS WEIGHT PREDICTION BASE ON FEED OUT USING BACKPROPAGATION

Research of Science and Informatic   BROILER CHICKENS WEIGHT PREDICTION BASE ON FEED OUT USING BACKPROPAGATION Sains dan Informatika Vol.2 (N0.2) (2016): 1-9 1 Andre Mariza Putra, Chickens Weight Prediction Using Backpropagation JURNAL SAINS DAN INFORMATIKA Research of Science and Informatic e-mail: jit.kopertis10@gmail.com

Lebih terperinci

APLIKASI JARINGAN SYARAF TIRUAN PADA PENGENALAN POLA TULISAN DENGAN METODE BACKPROPAGATION

APLIKASI JARINGAN SYARAF TIRUAN PADA PENGENALAN POLA TULISAN DENGAN METODE BACKPROPAGATION APLIKASI JARINGAN SYARAF TIRUAN PADA PENGENALAN POLA TULISAN DENGAN METODE BACKPROPAGATION Alvama Pattiserlihun, Andreas Setiawan, Suryasatriya Trihandaru Program Studi Fisika, Fakultas Sains dan Matematika,

Lebih terperinci

Jurnal Ilmiah Komputer dan Informatika (KOMPUTA) IMPLEMENTASI JARINGAN SYARAF TIRUAN BACKPROPAGATION UNTUK MENGENALI MOTIF BATIK

Jurnal Ilmiah Komputer dan Informatika (KOMPUTA) IMPLEMENTASI JARINGAN SYARAF TIRUAN BACKPROPAGATION UNTUK MENGENALI MOTIF BATIK IMPLEMENTASI JARINGAN SYARAF TIRUAN BACKPROPAGATION UNTUK MENGENALI MOTIF BATIK Fany Hermawan Teknik Informatika Universitas Komputer Indonesia Jl. Dipatiukur 112-114 Bandung E-mail : evan.hawan@gmail.com

Lebih terperinci

PERBANDINGAN ALGORITMA PARTICLE SWARM OPTIMIZATION DAN REGRESI PADA PERAMALAN WAKTU BEBAN PUNCAK

PERBANDINGAN ALGORITMA PARTICLE SWARM OPTIMIZATION DAN REGRESI PADA PERAMALAN WAKTU BEBAN PUNCAK Jurnal POROS TEKNIK, Volume 6, No. 2, Desember 2014 : 55-10 PERBANDINGAN ALGORITMA PARTICLE SWARM OPTIMIZATION DAN REGRESI PADA PERAMALAN WAKTU BEBAN PUNCAK Nurmahaludin (1) (1) Staff Pengajar Jurusan

Lebih terperinci

MODEL PEMBELAJARAN JARINGAN SYARAF TIRUAN UNTUK OTOMATISASI PENGEMUDIAN KENDARAAN BERODA TIGA

MODEL PEMBELAJARAN JARINGAN SYARAF TIRUAN UNTUK OTOMATISASI PENGEMUDIAN KENDARAAN BERODA TIGA MODEL PEMBELAJARAN JARINGAN SYARAF TIRUAN UNTUK OTOMATISASI PENGEMUDIAN KENDARAAN BERODA TIGA Ramli e-mail:ramli.brt@gmail.com Dosen Tetap Amik Harapan Medan ABSTRAK Jaringan Syaraf Tiruan adalah pemrosesan

Lebih terperinci

Presentasi Tugas Akhir

Presentasi Tugas Akhir Presentasi Tugas Akhir Bagian terpenting dari CRM adalah memahami kebutuhan dari pelanggan terhadap suatu produk yang ditawarkan para pelaku bisnis. CRM membutuhkan sistem yang dapat memberikan suatu

Lebih terperinci

PERANCANGAN PROGRAM PENGENALAN BENTUK MOBIL DENGAN METODE BACKPROPAGATION DAN ARTIFICIAL NEURAL NETWORK SKRIPSI

PERANCANGAN PROGRAM PENGENALAN BENTUK MOBIL DENGAN METODE BACKPROPAGATION DAN ARTIFICIAL NEURAL NETWORK SKRIPSI PERANCANGAN PROGRAM PENGENALAN BENTUK MOBIL DENGAN METODE BACKPROPAGATION DAN ARTIFICIAL NEURAL NETWORK SKRIPSI Oleh Nama : Januar Wiguna Nim : 0700717655 PROGRAM GANDA TEKNIK INFORMATIKA DAN MATEMATIKA

Lebih terperinci

Neural Network (NN) Keuntungan penggunaan Neural Network : , terdapat tiga jenis neural network Proses Pembelajaran pada Neural Network

Neural Network (NN) Keuntungan penggunaan Neural Network : , terdapat tiga jenis neural network Proses Pembelajaran pada Neural Network Neural Network (NN) adalah suatu prosesor yang melakukan pendistribusian secara besar-besaran, yang memiliki kecenderungan alami untuk menyimpan suatu pengenalan yang pernah dialaminya, dengan kata lain

Lebih terperinci

BAB II NEURAL NETWORK (NN)

BAB II NEURAL NETWORK (NN) BAB II NEURAL NETWORK (NN) 2.1 Neural Network (NN) Secara umum Neural Network (NN) adalah jaringan dari sekelompok unit pemroses kecil yang dimodelkan berdasarkan jaringan syaraf manusia. NN ini merupakan

Lebih terperinci

BAB 1 PENDAHULUAN Latar Belakang

BAB 1 PENDAHULUAN Latar Belakang BAB 1 PENDAHULUAN 1.1. Latar Belakang Semua negara mempunyai mata uang sebagai alat tukar. Pertukaran uang dengan barang yang terjadi disetiap negara tidak akan menimbulkan masalah mengingat nilai uang

Lebih terperinci

Prediksi Jumlah Penjualan Air Mineral Pada Perusahaan XYZ Dengan Jaringan Saraf Tiruan

Prediksi Jumlah Penjualan Air Mineral Pada Perusahaan XYZ Dengan Jaringan Saraf Tiruan Prediksi Jumlah Penjualan Air Mineral Pada Perusahaan XYZ Dengan Jaringan Saraf Tiruan Kusuma Dewangga, S.Kom. Jurusan Ilmu Komputer Universitas Gadjah Mada Jl. Bulaksumur, Yogyakarta kusumadewangga@gmail.com

Lebih terperinci

ANALISIS PENAMBAHAN NILAI MOMENTUM PADA PREDIKSI PRODUKTIVITAS KELAPA SAWIT MENGGUNAKAN BACKPROPAGATION

ANALISIS PENAMBAHAN NILAI MOMENTUM PADA PREDIKSI PRODUKTIVITAS KELAPA SAWIT MENGGUNAKAN BACKPROPAGATION ANALISIS PENAMBAHAN NILAI MOMENTUM PADA PREDIKSI PRODUKTIVITAS KELAPA SAWIT MENGGUNAKAN BACKPROPAGATION Eka Irawan1, M. Zarlis2, Erna Budhiarti Nababan3 Magister Teknik Informatika, Universitas Sumatera

Lebih terperinci

Pengembangan Aplikasi Prediksi Pertumbuhan Ekonomi Indonesia dengan Jaringan Syaraf Tiruan Backpropagation

Pengembangan Aplikasi Prediksi Pertumbuhan Ekonomi Indonesia dengan Jaringan Syaraf Tiruan Backpropagation Erlangga, Sukmawati Nur Endah dan Eko Adi Sarwoko Pengembangan Aplikasi Prediksi Pertumbuhan Ekonomi Indonesia dengan Jaringan Syaraf Tiruan Backpropagation Erlangga, Sukmawati Nur Endah dan Eko Adi Sarwoko

Lebih terperinci

JARINGAN SARAF TIRUAN DENGAN BACKPROPAGATION UNTUK MENDETEKSI PENYALAHGUNAAN NARKOTIKA

JARINGAN SARAF TIRUAN DENGAN BACKPROPAGATION UNTUK MENDETEKSI PENYALAHGUNAAN NARKOTIKA JARINGAN SARAF TIRUAN DENGAN BACKPROPAGATION UNTUK MENDETEKSI PENYALAHGUNAAN NARKOTIKA Dahriani Hakim Tanjung STMIK POTENSI UTAMA Jl.K.L.Yos Sudarso Km 6.5 Tanjung Mulia Medan notashapire@gmail.com Abstrak

Lebih terperinci

BAB 2 TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA BAB 2 TINJAUAN PUSTAKA 2. Jaringan Saraf Tiruan Jaringan saraf tiruan (JST) pertama kali diperkenankan oleh McCulloch dan Walter Pitts pada tahun 943. Jaringan saraf tiruan merupakan suatu sistem pemrosesan

Lebih terperinci

OPTICAL CHARACTER RECOGNIZATION (OCR)

OPTICAL CHARACTER RECOGNIZATION (OCR) LAPORAN JARINGAN SYARAF TIRUAN OPTICAL CHARACTER RECOGNIZATION (OCR) DISUSUN OLEH: DIJAS SCHWARTZ. S (524) FIRNAS NADIRMAN (481) INDAH HERAWATI (520) NORA SISKA PUTRI (511) OKTI RAHMAWATI (522) EKSTENSI

Lebih terperinci

BAB III PERANCANGAN SISTEM

BAB III PERANCANGAN SISTEM BAB III PERANCANGAN SISTEM Dalam pengerjaan perancangan dan pembuatan aplikasi pengenalan karakter alfanumerik JST algoritma Hopfield ini menggunakan software Borland Delphi 7.0. 3.1 Alur Proses Sistem

Lebih terperinci