BAB 3. JARINGAN MEMORI ASOSIATIF

dokumen-dokumen yang mirip
BAB 2 JARINGAN NEURAL SATU LAPIS

ARTIFICIAL NEURAL NETWORK TEKNIK PERAMALAN - A

Architecture Net, Simple Neural Net

Jaringan Syaraf Tiruan

JARINGAN SYARAF TIRUAN

Kode/SKS : TEL 212/2 Prasyarat : -

terinspirasi dari sistem biologi saraf makhluk hidup seperti pemrosesan informasi

BAB VIII JARINGAN SYARAF TIRUAN

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) ERWIEN TJIPTA WIJAYA, ST, M.KOM

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

Architecture Net, Simple Neural Net

BAB 4. JARINGAN BERBASIS KOMPETISI

BAB 2 TINJAUAN PUSTAKA

Jaringan Syaraf Tiruan

SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON

BAB VIIB BACKPROPAGATION dan CONTOH

BAB II LANDASAN TEORI

BAB 2 LANDASAN TEORI. fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses

BAB 2 TINJAUAN PUSTAKA

BAB II MODEL NEURON DAN ARSITEKTUR JARINGAN

BAB 2 KONSEP DASAR PENGENAL OBJEK

Jaringan Syaraf Tiruan Bidirectional Associative Memory (BAM) Sebagai Identifikasi Pola Sidik jari Manusia

BAB IV JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK)

BAB II. Penelitian dengan jaringan syaraf tiruan propagasi balik. dalam bidang kesehatan sebelumnya pernah dilakukan oleh

PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA BARAT

BAB 2 TINJAUAN PUSTAKA DAN DASAR TEORI. dengan kasus atau metode yang akn diteliti. Pemanfaatan metode multilayer

BAB II LANDASAN TEORI

I PENDAHULUAN II LANDASAN TEORI

BAB II TINJAUAN PUSTAKA

DAFTAR ISI. Halaman Judul. Lembar Pengesahan Pembimbing. Lembar Pengesahan Penguji. Halaman Persembahan. Halaman Motto. Kata Pengantar.

Jaringan Syaraf Tiruan

1.1. Jaringan Syaraf Tiruan

BAB IV B METODE BELAJAR HEBBIAN SUPERVISED & CONTOH

PENGENALAN KARAKTER ALFANUMERIK MENGGUNAKAN METODE BACKPROPAGARATION

JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORKS)

BAB 2 LANDASAN TEORI

Jaringan syaraf dengan lapisan tunggal

BAB III METODE PENELITIAN. menjawab segala permasalahan yang ada dalam penelitian ini.

BAB 2 TINJAUAN PUSTAKA. menggunakan teknik statistik, matematika, kecerdasan buatan, tiruan dan machinelearning

RANCANG BANGUN TOOL UNTUK JARINGAN SYARAF TIRUAN (JST) MODEL PERCEPTRON

MODEL N EURON NEURON DAN

BAB I PENDAHULUAN. Universitas Sumatera Utara

METODE BELAJAR HEBBIAN SUPERVISED & CONTOH

BAB 1 PENDAHULUAN Latar Belakang

PEMANFAATAN NEURAL NETWORK PERCEPTRON PADA PENGENALAN POLA KARAKTER

OPTICAL CHARACTER RECOGNIZATION (OCR)

BAB III LANDASAN TEORI. Definisi Peramalan adalah memperkiraan atau memproyeksikan sesuatu


ek SIPIL MESIN ARSITEKTUR ELEKTRO

PENGENALAN HURUF DAN ANGKA PADA CITRA BITMAP DENGAN JARINGAN SARAF TIRUAN METODE PROPAGASI BALIK

BAB II TINJAUAN PUSTAKA

Jaringan Syaraf Tiruan. Disusun oleh: Liana Kusuma Ningrum

Algoritma MAC Berbasis Jaringan Syaraf Tiruan

BAB 2 TINJAUAN PUSTAKA

SATIN Sains dan Teknologi Informasi

BAB 3 PERANCANGAN SISTEM. Bab ini menguraikan analisa penelitian terhadap metode Backpropagation yang

g(x, y) = F 1 { f (u, v) F (u, v) k} dimana F 1 (F (u, v)) diselesaikan dengan: f (x, y) = 1 MN M + vy )} M 1 N 1

FAKULTAS SAINS DAN TEKNOLOGI UIN SUSKA RIAU. IIS AFRIANTY, ST., M.Sc

RENCANA PEMBELAJARAN SEMESTER

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MENGETAHUI LOYALITAS KARYAWAN

BAB 2 LANDASAN TEORI

Analisis Jaringan Saraf Tiruan Pengenalan Pola Huruf Hiragana dengan Model Jaringan Perceptron

KLASIFIKASI CITRA BERDASARKAN TEKSTUR MENGGUNAKAN JARINGAN SARAF TIRUAN PERAMBATAN BALIK

MENGENALI FUNGSI LOGIKA AND MELALUI PEMROGRAMAN PERCEPTRON DENGAN MATLAB

IMPLEMENTASI ALGORITMA PERCEPTRON UNTUK PENGENALAN POLA MASUKAN BINER MAUPUN BIPOLAR MENGGUNAKAN BORLAND DELPHI

Bab 4 Model Neural Network

Analisis Jaringan Saraf Tiruan Model Perceptron Pada Pengenalan Pola Pulau di Indonesia

Gambar 2.1 Neuron biologi manusia (Medsker & Liebowitz, 1994)

BAB VIII PENGANTAR JARINGAN SYARAF TIRUAN (JST)

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI PRODUKTIVITAS PEGAWAI. Jasmir, S.Kom, M.Kom

TOLERANSI UNJUK PENGENALAN JARINGAN SYARAF TIRUAN PADA PENAMBAHAN DERAU DAN SUDUT PUTARAN TERHADAP POLA KARAKTER TULISAN TANGAN JENIS ANGKA

LOGIKA SAMAR (FUZZY LOGIC)

PENGGUNAAN METODE JARINGAN NEURAL PERCEPTRON UNTUK MENGENAL POLA KARAKTER KAPITAL

lalu menghitung sinyal keluarannya menggunakan fungsi aktivasi,

BAB 2 HEMISPHERIC STRUCTURE OF HIDDEN LAYER NEURAL NETWORK, PCA, DAN JENIS NOISE Hemispheric structure of hidden layer neural network

BAB 2 TINJAUAN PUSTAKA

METODOLOGI PENELITIAN

BAB 2 LANDASAN TEORI

BAB II KAJIAN PUSTAKA. operasi matriks, determinan dan invers matriks), aljabar max-plus, matriks atas

EVALUASI PENGARUH FUNGSI AKTIFASI DAN PARAMETER KEMIRINGANNYA TERHADAP UNJUKKERJA PENGENALAN JARINGAN SYARAF TIRUAN

PERAMALAN JUMLAH KENDARAAN DI DKI JAKARTA DENGAN JARINGAN BACKPROPAGATION

BAB 2 LANDASAN TEORI

ANALISIS JARINGAN SARAF TIRUAN BACKPROPAGATION TERHADAP PERAMALAN NILAI TUKAR MATA UANG RUPIAH DAN DOLAR

JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI CURAH HUJAN SUMATERA UTARA DENGAN METODE BACK PROPAGATION (STUDI KASUS : BMKG MEDAN)

UNIVERSITAS BINA NUSANTARA. Jurusan Teknik Informatika Fakultas Ilmu Komputer Skripsi Sarjana Komputer Semester Ganjil tahun 2006/2007

TOLERANSI UNJUK PENGENALAN JARINGAN SYARAF TIRUAN PADA PENAMBAHAN DERAU DAN SUDUT PUTARAN TERHADAP POLA KARAKTER TULISAN TANGAN JENIS ANGKA

Sebelumnya... Pembelajaran Mesin/Machine Learning Pembelajaran dengan Decision Tree (ID3) Teori Bayes dalam Pembelajaran

Perbandingan Arsitektur Multilayer Feedforward Network dengan memakai Topologi Multiprosesor Ring Array Dan Linear Array

BAB II LANDASAN TEORI

BAB 2 LANDASAN TEORI. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu

Team project 2017 Dony Pratidana S. Hum Bima Agus Setyawan S. IIP

BAB III METODE EGARCH, JARINGAN SYARAF TIRUAN DAN NEURO-EGARCH

APLIKASI JARINGAN SYARAF TIRUAN UNTUK PENGENALAN POLA PEMBUKAAN PERMAINAN CATUR

BAB II LANDASAN TEORI. titiktitik penyusun citra itu sendiri. Titik-titik tersebut disebut dengan pixel. Banyaknya

Jaringan Syaraf Tiruan (JST) merupakan cabang ilmu multidisiplin yang relatif masih

PENGENALAN BANGUN DATAR UNTUK PEMBELAJARAN TAMAN KANAK KANAK MENGGUNAKAN JARINGAN SYARAF TIRUAN

ANALISIS HUBUNGAN TINGKAT PENGENALAN POLA DENGAN TINGKAT VARIASI POLA : STUDI KASUS PENGENALAN POLA KARAKTER HURUF DENGAN JARINGAN SYARAF TIRUAN)

Ruang Vektor Euclid R 2 dan R 3

BAB II DASAR TEORI. luar dan daging iga sangat umum digunakan di Eropa dan di Amerika Serikat

Transkripsi:

BAB 3. JARINGAN MEMORI ASOSIATIF Jaringan memori asosiatif adalah jaringan satu lapis dengan bobot ditentukan sedemikian rupa sehingga jaringan dapat menyimpan himpunan asosiasi pola. Setiap asosiasi adalah pasangan vektor masukan-keluaran s: t. Bila s = t, jaringan disebut memori autoasosiatif, sedangkan bila s t, jaringan disebut memori heteroasosiatif 3.1 ALGORITMA PELATIHAN UNTUK ASOSIASI POLA Terdapat dua jenis algoritma pelatihan, yaitu: a) Aturan Hebb b) Aturan delta 3.1.1 Aturan Hebb untuk Asosiasi Pola Aturan Hebb dapat digunakan untuk pola yang disajikan sebagal vector biner atau bipolar. Berikut diberikan prosedur umum untuk mencari bobot dengan outer product. Algoritma Langkah 0. Inisialialisasi semua bobot (i = 1,. n; j = 1. m): wij =0, Langkah 1. Untuk setiap pasangan vector masukan pelatihan-keluaran target s : t, lakukan langkah 2-4. Langkah 2. Tetapakan aktivasi unit masukan dengan rnasukan pelatihan (i=1,, n): xi = si Langkah 3. Tetapkan aktivasi unit keluaran dengan keluaran target (j = 1,, m): yj = tj Langkah 4. Atur bobot (j = 1,, n : j = 1,, m), wij (baru) = wij (lama)+xi yj. Outer pruduct untuk dua vector berikut: s=[s1... si..sn] dan t= [tl tj,tm ] Universitas Gadjah Mada 1

Untuk menyimpan asosiasi s(p) : t (p) dengan p = 1,., P Dengan s(p) = [ s1 (p)... si(p)... sn(p)] dan t(p) = [ti (p).. tj(p).., tm(p) ] matriks bobot W untuk bobot awal = 0 diberikan oleh W P p 1 s T (p)t(p) Crosstalk Bila vektor-vektor masukan tidak terkorelasi atau vektor saling orthogonal maka Hebb akan menghasilkan bobot yang benar. Tanggapan jaringan yang diuji vektor pelatihan merupakan ingatan dari target yang terasosiasi dengan vector yang diskalakan dengan kuadrat norm dan vector masukan yang dicari. Bila vektor-vektor masukan tidak orthogonal, maka tanggapan akan berisi bagian nilai target yang disebut crosstalk (cakap-silang). Dua vector s(k) dan s(p), k p adalah orthogonal bila produk titik (dot product) nya sama dengan nol. s(k) s T (p)=o atau si(k) si(p) = 0 i Tanggapan jaringan terhadap pemberian pola ke k dari vector masukan s(k) adalah (dengan fungsi aktivasi identitas ) adalah: Bila s(k) orthogonal terhadap s(p) untuk p k, maka tidak ada kontribusi ke tanggapan dari setiap suku penjumlahan. Tanggapannya adalah vector target t(k) yang kalakan oleh kuadrat norm vector masukan, yaitu s(k) s T (k). Universitas Gadjah Mada 2

Tetapi bila s(k) tidak orthogonal terhadap vector s yang lain, maka akan ada kontribusi ke tanggapan yang terlibat dengan nilai target untuk setiap vector yang mana s(k) tidak orthogonal. 3.1.2 Aturan Delta (Widrow-Hoff) Aturan ini dapat digunakan untuk pola masukan yang independen linear, tetapi tidak Ihogorial. Pemetaan untuk vector masukan yang independen linear dapat diselesaikan dengan jaringan satu lapis. Aturan delta diperlukan untuk menghindarkan cakap silang pacta aturan Hebb. Lagi pula aturan delta äkan menghasilkan solusi least squares bila pola masukan tidak independen linear. Dalam bentuk asli aturan delta yang diasumsikan mempunyai fungsi aktivsi identitas untuk unit keluaran. Perluasan sederhana memungkinkan penggunaan fungsi aktivasi terdiferensialkan (aturan delta yang diperluas). Atuan Delta Asli Aturan delta asli mempunyai fungsi aktivasi identitas. Perbaruan bobotnya dapat ditulis sebagai berikut: wij(baru)=wij(lama)+α (tj yj)xi ; (i=1,n;j = 1, m) Dinyatakan dalam perubahan bobot: Δ wij = α (tj yj ) xi Aturan Delta yang Diperluas Aturan delta yang diperluas mempunyai fungsi aktivasi yang terdiferensialkan. Δ wij = α (tj yj ) xi f ( inj ) Universitas Gadjah Mada 3

3.2 Jaringan Neural Memori Heteroasosiatif Bobot jaringan ini dapat diperoleh dengan aturan Hebb atau aturan delta. Untuk jaringan dengan aturan Hebb, jaringan akan memperoleh vektor keluaran y yang sesuai dengan vector masukan x, yang merupakan salah satu dan pola tersimpan s(p) atau polabaru. Arsitektur Arsitektur jaringan neural memori heteroasosiatif terlihat pada Gambar 3.1 Gambar 3.1 Jaringan memori heteroasosiatif Masukan neto untuk neuron Yj adalah: untuk target bipolar Vektor kelurn y memberikan pola yang tersosiasi dengan vector masukan x. Memori heteroasosiatif ini tidak iterative. Bila tanggapan jaringan biner, maka fungsi aktivasi yang sesuai adalah: Bentuk umum fungsi aktivasi yang mengandung ambang θ yang digunakan pada pada asosiatif bidireksional (Bidirectional Assosiative Memory, BAM) adalah sebagai t (jaringan iterative): Universitas Gadjah Mada 4

Pemilihan tanggapan yang diinginkan untuk neuron, bila masukan netonya tepat sama dengan ambang adalah sembarang. Untuk jaringan heteroasosiatifumpan maju, diperlukan definisi awal aktivasi untuk semua unit, misalnya ditetapkan sama dengan nol Juga dimungkinkan menggunakan fiingsi aktivasi Perceptron yang memerlukan masukan neto lebih besar dari pada θj agar keluaran sama dengan 1 dan masukan neto kurang dan θj agar keluaran sama dengan -1. Bila aturan delta digunakan untuk pengaturan bobot, maka fungsi aktivasi yang lain seperti sigmoid juga dapat digunakan. 3.3 Jaringan Autoasosiatif Jaringan autoasosiatif merupakan kasus khusus jaringan heteroasosiatif. Vektor masukan pelatihan keluaran target adalah identik. Proses pelatihan disebut penyimpanan vector yang dapat biner atau bipolar. Vektor yang tersimpan dapat diperoleh kembali meskipun masukan yang dibenikan cacat. Kinerja jaringan ditinjau oleh kemampuannya mereproduksi pola tersimpan dan masukan yang berderau. Kinerjanya umumnya lebih baik untuk vector bipolar dan pada vector biner. Untuk jaringan autoasosiatif kadang-kadang bobot diagonal (yang menghubungkan komponen pola masukan ke komponen pola keluaran yang sesuai) ditetapkan menjadi nol. Penetapan bobot menjadi nol ini memperbaiki kemampuan jaringan untuk perampatan (generalisasi). Khususnya bila lebih dari satu vector disimpan di dalamnya. Hal ini juga perlu untuk kasus iterative, atau bila digunakan aturan delta untuk mencegab pelatihan menghasilkan matriks bobot identitas. Arsitektur. Arsitektur jaringan autoasosiatif terlihat pada Gambar 3.2 dengan aktivasi setiap unit masukan xi = si dan setiap unit keluaran j = sj. Cacah unit masukan sama dengan unit keluaran. Universitas Gadjah Mada 5

Gambar 3.2 Jaringan autoasosiatil dengan xi = si dan y sj serta cacah unit masukan sama dengan unit keluaran Algoritma Untuk jaringan yang saling orthogonal dapat digunakan aturan Hebb untuk menetapkan bobot, karena vector masukan dan vector keluaran terkorelasi sempuma komponen per komponen. Langkah 0. Inisialisasi semua bobot, i = 1,. n ; j = 1,., m. wij=0. Langkah 1. Untuk setiap vector yang tersimpan, kerjakan Langkah 2 4 Langkah 2. Tetapkan aktivasi setiap unit masukan xi=si; i=1,., n Langkah 3. Tetapkan aktivasi setiap unit keluaran. yj=sj; j=1,...,m. Langkah 4. Atur bobot wij (baru) = wij (lama) + xi yj i=1,n;j=1,...,m. Dalam praktek bobot ditetapkan dengan formula: W P p 1 T s ( p) s( p) Universitas Gadjah Mada 6