ARTIFICIAL NEURAL NETWORK (JARINGAN SYARAF TIRUAN) Teny Handhayani

dokumen-dokumen yang mirip
Sebelumnya... Pembelajaran Mesin/Machine Learning Pembelajaran dengan Decision Tree (ID3) Teori Bayes dalam Pembelajaran

OFVSBM!OFUXPSL. Latar Belakang

Architecture Net, Simple Neural Net

Neural Network (NN) Keuntungan penggunaan Neural Network : , terdapat tiga jenis neural network Proses Pembelajaran pada Neural Network

ABSTRAK. Kata Kunci : Artificial Neural Network(ANN), Backpropagation(BP), Levenberg Marquardt (LM), harga emas, Mean Squared Error(MSE), prediksi.

Abstract. Keywords: Artificial Neural Network

ABSTRAK. v Universitas Kristen Maranatha. Kata kunci: backpropagation, Multilayer Perceptron (MLP), masalah klasifikasi

BAB 2 LANDASAN TEORI. fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses

ADLN - Perpustakaan Universitas Airlangga ABSTRAK. viii

BAB 1 PENDAHULUAN. datang berdasarkan keadaan masa lalu dan sekarang yang diperlukan untuk

Penerapan Jaringan Saraf Tiruan Metode Backpropagation Menggunakan VB 6

Simple ANN (Multilayer Perceptron) dengan Keras. Alfan F. Wicaksono Fakultas Ilmu Komputer Universitas Indonesia

BAB 2 KONSEP DASAR PENGENAL OBJEK

BAB 2 LANDASAN TEORI

ANALISIS PENAMBAHAN NILAI MOMENTUM PADA PREDIKSI PRODUKTIVITAS KELAPA SAWIT MENGGUNAKAN BACKPROPAGATION

BAB 1 PENDAHULUAN. 1 Universitas Kristen Maranatha. Gambar 1.1 : Ilustrasi jaringan syaraf manusia yang diadaptasi untuk ANN (Kriesel, 2011)

Farah Zakiyah Rahmanti

ANALISIS DAN PERACANGAN APLIKASI SISTEM PENDETEKSI GANGGUAN JARINGAN KOMPUTER MENGGUNAKAN MULTILAYER DENGAN PELATIHAN FEEDFORWARD SKRIPSI

BAB 2 LANDASAN TEORI

Architecture Net, Simple Neural Net

Neural Networks. Machine Learning

Neural Network. Latar Belakang. Dipercaya bahwa kekuatan komputasi otak terletak pada: Hubungan antra selsel

SATIN Sains dan Teknologi Informasi

Jaringan syaraf dengan lapisan tunggal

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) ERWIEN TJIPTA WIJAYA, ST, M.KOM

PEMANFAATAN TRANSFORMASI WAVELET SEBAGAI EKSTRAKSI CIRI PADA KLASIFIKASI BERTINGKAT SINYAL EKG

NEURAL NETWORK BAB II

Bab 5 Penerapan Neural Network Dalam Klasifikasi Citra Penginderaan Jauh

VOL. 01 NO. 02 [JURNAL ILMIAH BINARY] ISSN :

PERKIRAAN PENJUALAN BEBAN LISTRIK MENGGUNAKAN JARINGAN SYARAF TIRUAN RESILENT BACKPROPAGATION (RPROP)

Artificial Neural Network

BAB 2 LANDASAN TEORI

1. Pendahuluan 1.1 Latar belakang masalah

Jaringan Saraf Tiruan dengan Backpropagation untuk Memprediksi Penyakit Asma

Program Pilihan Ganda Sederhana dengan Java

BAB 3 METODOLOGI PENELITIAN

Implementasi Jaringan Syaraf Tiruan Backpropagation dan Steepest Descent untuk Prediksi Data Time Series

PERAMALAN PRODUKSI CABAI RAWIT DENGAN NEURAL NETWORK Muhammad Fajar

oleh WAHYUNI PUTRANTO NIM. M SKRIPSI ditulis dan diajukan untuk memenuhi sebagian persyaratan memperoleh gelar Sarjana Sains Matematika

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MENGENALI TULISAN TANGAN HURUF A, B, C, DAN D PADA JAWABAN SOAL PILIHAN GANDA

Jaringan Syaraf Tiruan

BAB III LANDASAN TEORI. Definisi Peramalan adalah memperkiraan atau memproyeksikan sesuatu

ARTIFICIAL NEURAL NETWORK TEKNIK PERAMALAN - A

BAB II TINJAUAN PUSTAKA

BAB II NEURAL NETWORK (NN)

SLOPE CORRECTION PADA TULISAN TANGAN MENGGUNAKAN JARINGAN SARAF TIRUAN ABSTRAK

PERANCANGAN PROGRAM PENGENALAN BENTUK MOBIL DENGAN METODE BACKPROPAGATION DAN ARTIFICIAL NEURAL NETWORK SKRIPSI

PERBANDINGAN BEBERAPA MODEL UNTUK KINERJA ALGORITMA BACKPROPAGATION COMPARISON OF SOME MODEL FOR PEFORMANCE IMPROVEMENT IN BACKPROPAGATION ALGORITHM

BAB II DASAR TEORI Jaringan Syaraf Tiruan. Universitas Sumatera Utara

BAB IV JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK)

Research of Science and Informatic BROILER CHICKENS WEIGHT PREDICTION BASE ON FEED OUT USING BACKPROPAGATION

BAB I PENDAHULUAN. Machine learning (ML), bagian dari kecerdasan buatan (artificial

ANALISIS VARIASI PARAMETER LEARNING VECTOR QUANTIZATION ARTIFICIAL NEURAL NETWORK TERHADAP PENGENALAN POLA DATA ODOR

BAB 2 TINJAUAN PUSTAKA

APLIKASI JARINGAN SYARAF TIRUAN MULTI LAYER PERCEPTRON PADA APLIKASI PRAKIRAAN CUACA

RULE MINING UNTUK KLASIFIKASI DATA MENGGUNAKAN SEARCH TREE

BACK PROPAGATION NETWORK (BPN)

BAB 2 TINJAUAN PUSTAKA

Penyelesaian Masalah Syarat Batas dalam Persamaan Diferensial Biasa Orde Dua dengan Menggunakan Algoritma Shooting Neural Networks

BACK PROPAGATION NETWORK (BPN)

ANALISIS PERBANDINGAN METODE JARINGAN SYARAF TIRUAN DAN REGRESI LINEAR BERGANDA PADA PRAKIRAAN CUACA

Pemodelan Jaringan Syaraf Tiruan dengan Algoritma One Step Secant Backpropagation dalam Return Kurs Rupiah Terhadap Dolar Amerika Serikat

BAB 2 LANDASAN TEORI

Aplikasi Jaringan Saraf Tiruan Sebagai Penterjemah Karakter Braille Ke Bentuk Abjad

ANALISIS LEARNING RATES PADA ALGORITMA BACKPROPAGATION UNTUK KLASIFIKASI PENYAKIT DIABETES

BAB III LANDASAN TEORI

Gambar 2.1 Neuron biologi manusia (Medsker & Liebowitz, 1994)

BAB 2 TINJAUAN PUSTAKA

PREDIKSI DATA RUNTUN WAKTU MENGGUNAKAN JARINGAN SYARAF TIRUAN

LEARNING ARTIFICIAL INTELLIGENT

PENENTUAN MODEL RETURN HARGA SAHAM DENGAN MULTI LAYER FEED FORWARD NEURAL NETWORK MENGGUNAKAN ALGORITMA RESILENT BACKPROPAGATION SKRIPSI

BAB 2 LANDASAN TEORI. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu

BAB 3 METODOLOGI PENELITIAN

NOISE REMOVAL PADA TULISAN TANGAN MENGGUNAKAN JARINGAN SARAF TIRUAN

PERAMALAN INDEKS HARGA SAHAM GABUNGAN (IHSG) MENGGUNAKAN JARINGAN SARAF TIRUAN ELMAN DENGAN ALGORITME GRADIENT DESCENT ADAPTIVE LEARNING RATE

BAB 2 TINJAUAN PUSTAKA

PEMANFAATAN NEURAL NETWORK PERCEPTRON PADA PENGENALAN POLA KARAKTER

Realisasi Pengenalan Tulisan Tangan Menggunakan Jaringan Syaraf Tiruan dengan Metode Kohonen

METODOLOGI PENELITIAN

ANALISIS JARINGAN SARAF TIRUAN BACKPROPAGATION TERHADAP PERAMALAN NILAI TUKAR MATA UANG RUPIAH DAN DOLAR

Kata kunci : Slant correction, jaringan saraf tiruan, multilayer perceptron, backpropagation.

JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORKS)

PERAMALAN DENGAN MENGGUNAKAN ARTIFICIAL NEURAL NETWORK DAN SUPPORT VECTOR REGRESSION

IMPLEMENTASI JARINGAN SYARAF TIRUAN MULTI LAYER FEEDFORWARD DENGAN ALGORITMA BACKPROPAGATION SEBAGAI ESTIMASI NILAI KURS JUAL SGD-IDR

BAB 2 LANDASAN TEORI

PENGENALAN HURUF DAN ANGKA PADA CITRA BITMAP DENGAN JARINGAN SARAF TIRUAN METODE PROPAGASI BALIK

BAB II DASAR TEORI. 2.1 Citra Digital

Jaringan Syaraf Tiruan

Kata Kunci: jaringan transmisi, identifikasi, gangguan hubung singkat, jaringan syaraf tiruan.

ANALISIS PENAMBAHAN MOMENTUM PADA PROSES PREDIKSI CURAH HUJAN KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

PREDIKSI KUALITAS AIR BERSIH PDAM KOTA PALU MENGGUNAKAN METODE BACKPROPAGATION

Oleh : Agus Sumarno Dosen Pembimbing : Drs. Daryono Budi Utomo, M.Si

1.1. Jaringan Syaraf Tiruan

PREDIKSI INDEKS PASAR SAHAM S&P500, DOW JONES DAN NASDAQ COMPOSITE DENGAN MENGGUNAKAN JARINGAN SYARAF TIRUAN METODE BACKPROPAGATION

Peningkatan Kemampuan Pengenalan Pola dari Jaringan Saraf Tiruan dengan Menggunakan Diskritisasi Chi2

BAB II TINJAUAN PUSTAKA

BAB II TINJAUAN PUSTAKA

Jaringan Syaraf Tiruan. Disusun oleh: Liana Kusuma Ningrum

ARSITEKTUR JARINGAN SYARAF TIRUAN UNTUK PEMODELAN PROSES EKSTRAKSI ATURAN DENGAN SEARCH TREE

Implementasi Extreme Learning Machine untuk Pengenalan Objek Citra Digital

Transkripsi:

ARTIFICIAL NEURAL NETWORK (JARINGAN SYARAF TIRUAN) Teny Handhayani

LATAR BELAKANG Jaringan syaraf pada sistem Biologi

DARI NEURON BIOLOGI KE NEURON BUATAN Dendrite Cell Body Axon

DARI NEURON BIOLOGI KE NEURON BUATAN

ARTIFICIAL NEURAL NETWORK A network of artificial neurons Characteristics Nonlinear I/O mapping Adaptivity Generalization ability Fault-tolerance (graceful degradation) Biological analogy <Multilayer Perceptron Network>

TIPE-TIPE ARTIFICIAL NEURAL NETWORKS Single Layer Perceptron Multilayer Perceptrons (MLPs) Radial-Basis Function Networks (RBFs) Hopfield Network Boltzmann Machine Self-Organization Map (SOM) Modular Networks (Committee Machines)

ARSITEKTUR JARINGAN <Multilayer Perceptron Network> <Hopfield Network>

FITUR DARI ARTIFICIAL NEURAL NETWORKS Records (examples) need to be represented as a (possibly large) set of tuples of <attribute, value> Nilai output direpresentasikan sebagai nilai diskrit, real, atau vektor Memiliki toleransi terhadap noise data input Time factor Membutuhkan waktu yang lama untuk pelatihan Sekali melalui pelatihan, ANN mampu memrpoduksi output dengan cepat Sulit untuk menginterpretasikan proses prediksi ANN

CONTOH APLIKASI NETtalk [Sejnowski] Inputs: English text Output: Spoken phonemes Phoneme recognition [Waibel] Inputs: wave form features Outputs: b, c, d, Robot control [Pomerleau] Inputs: perceived features Outputs: steering control

APLIKASI: AUTONOMOUS LAND VEHICLE (ALV) NN learns to steer an autonomous vehicle. 960 input units, 4 hidden units, 30 output units Driving at speeds up to 70 miles per hour ALVINN System Image of a forward - mounted camera Weight values for one of the hidden units

APLIKASI: ERROR CORRECTION BY A HOPFIELD NETWORK original target data Corrected data after 10 iterations corrupted input data Corrected data after 20 iterations Fully corrected data after 35 iterations

PERCEPTRON AND GRADIENT DESCENT ALGORITHM

ARSITEKTUR DARI SEBUAH PERSEPTRON Input: a vector of real values Output: 1 or -1 (binary) Activation function: threshold function NOTE: Perceptron is also called as a TLU (Threshold Logic Unit)

HYPOTHESIS SPACE OF PERCEPTRONS Free parameters: weights (and thresholds) Learning: choosing values for the weights Hypotheses space of perceptron learning H { w w ( n 1) n: dimension of the input vector Linear function } f (x) w 0 w x 1 1 w n x n

PERCEPTRON AND DECISION HYPERPLANE Perceptron merepresentasikan sebuah hyperplane pada n- dimensional space dari instance (misalnya titik) Output perceptron 1 untuk instance yang terletak pada satu sisi hyperplane dan output -1 untuk instance yang terletak di sisi lainnya Equation for the decision hyperplane: wx = 0. Data positif dan negatif tidak dapat dipisahkan dengan sembarang hyperplane Sebuah perceptron tidak dapat melatih permasalahan pada data linearly nonseparable

LINEARLY SEPARABLE V.S. LINEARLY NONSEPARABLE (a) Decision surface for a linearly separable set of examples (correctly classified by a straight line) (b) A set of training examples that is not linearly separable.

REPRESENTATIONAL POWER OF PERCEPTRONS Perceptron tunggal dapat digunakan untuk merepresentasikan banyak fungsi boolean AND function: w 0 = -0.8, w 1 = w 2 = 0.5 OR function: w 0 = -0.3, w 1 = w 2 = 0.5 Perceptron dapat merepresentasikan semua fungsi boolean primitif : AND, OR, NAND dan NOR Catatan: Beberapa fungsi tidak dapat direpresentasikan dengan perceptron tunggal contohnya XOR Setiap fungsi boolean dapat direpresentasikan dengan beberapa jaringan perceptron hanya dengan dua level kedalaman One way merepresentasikan fungsi boolean pada bentuk DNF (OR of ANDs)

PERCEPTRON TRAINING RULE Note: output value o is +1 or -1 (not a real) Perceptron rule: a learning rule for a threshold unit. Conditions for convergence Training examples are linearly separable. Learning rate is sufficiently small.

CONTOH Jika diketahui xi = 0.8, = 0.1, t = 1 dan o = -1 maka wi = (t - o) xi = 0.1 * ( 1 (-1)) * 0.8 = 0.1 * 2 * 0.8 = 0.16

LEAST MEAN SQUARE (LMS) ERROR Note: output value o is a real value (not binary) Delta rule: learning rule for an unthresholded perceptron (i.e. linear unit). Delta rule is a gradient-descent rule. Also known as the Widrow-Hoff rule

GRADIENT DESCENT METHOD

DELTA RULE FOR ERROR MINIMIZATION w i w i w i, w i E w i w ( t o ) x i d D d d id

GRADIENT DESCENT ALGORITHM FOR PERCEPTRON LEARNING

PROPERTIES OF GRADIENT DESCENT Because the error surface contains only a single global minimum, the gradient descent algorithm will converge to a weight vector with minimum error, regardless of whether the training examples are linearly separable. Condition: a sufficiently small learning rate If the learning rate is too large, the gradient descent search may overstep the minimum in the error surface. A solution: gradually reduce the learning rate value.

CONDITIONS FOR GRADIENT DESCENT Gradient descent adalah strategi umum yang penting untuk mencari hipotesis space yang besar atau infinite Kondisi untuk gradient descent search Hypothesis space terdiri atas parameter hipotesis yang kontinue, contohnya bobot pada unit linear Error dapat dibedakan w.r.t parameter hipotesis

DIFFICULTIES WITH GRADIENT DESCENT Konvergensi ke local minimum bersifat lambat Jika terdapat banyak local minima pada error surfae, maka tidak ada jaminan bahwa prosedur akan menemukan global minimum

PERCEPTRON RULE V.S. DELTA RULE Perceptron rule Thresholded output Konvergen setelah melalui sejumlah iterasi terbatas terhadap hipotesis yang dapat mengklasifikasi data latih dengan benar,data latih linear separable. Hanya dapat digunakan pada data linearly separable Delta rule Unthresholded output.konvergen hanya secara asymtitic menuju error minimum, mungkin membutuhkan waktu yang tak terbatas, tetapi tidak terpaku pada data linearly separable Dapat digunakan untuk data linearly nonseparable

MULTILAYER PERCEPTRON

MULTILAYER NETWORK AND ITS DECISION BOUNDARIES Wilayah keputusan dari jaringan multilayer feedforward Jaringan dilatih untuk mengenali 1 dari 10 suara vokal yang terjadi pada konteks h_d Input jaringan terdiri atas dua parameter F1 dan F2, diperoleh dari analisis spektral suara. Sepuluh jaringan output berhubungan dengan 10 kemungkinan suara vokal

DIFFERENTIABLE THRESHOLD UNIT Sigmoid function: nonlinear, differentiable

BACKPROPAGATION (BP) ALGORITHM BP mempelajari bobot untuk jaringan multilayer, diberikan sebuah jaringan dengan sekumpulan unit tetap dan interkoneksi BP memperkerjakan gradien descent untuk mencoba meminimalkan error kuadrat antara jaringan output dan nilai target Dua tahapan pembelajaran: Forwad stage: menghitung output yang diberikan oleh pola x. Backward stage: mengupdate bobot dengan menghitung delta

FUNGSI ERROR UNTUK BP E( w ) 1 2 d D k outputs ( t kd o kd 2 ) E defined as a sum of the squared errors over all the output units k for all the training examples d. Error surface can have multiple local minima Guarantee toward some local minimum No guarantee to the global minimum

BACKPROPAGATION ALGORITHM FOR MLP

Program 1

Program 2 PROBLEM DESCRIPTION: Create and view custom neural networks

Program 3 Classification of linearly separable data with a perceptron

TUGAS Ketikkan kode program berikut kemudian cari keluaran program, misalnya: 1. Data input 2. Neural Network Training 3. Feed-forward Neural Network 4. Output 5. Dsb

Tugas 1 Classification of a 4-class problem with a perceptron

%PROBLEM DESCRIPTION: Perceptron network with 2-inputs and 2-outputs is trained %to classify input vectors into 4 categories

Tugas 2 ADALINE time series prediction

Tugas 3 : Solving XOR problem with a multilayer perceptron

Tugas 4 Classification of a 4-class problem with a multilayer perceptron