BAB 2 TINJAUAN PUSTAKA

dokumen-dokumen yang mirip
BAB IV JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK)

BAB VIII JARINGAN SYARAF TIRUAN

BAB 2 TINJAUAN PUSTAKA

Jaringan syaraf dengan lapisan tunggal

BAB 2 TINJAUAN PUSTAKA

BAB 2 LANDASAN TEORI

PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA BARAT

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MENGETAHUI LOYALITAS KARYAWAN

BAB II LANDASAN TEORI

BAB II DASAR TEORI Jaringan Syaraf Tiruan. Universitas Sumatera Utara

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI PRODUKTIVITAS PEGAWAI. Jasmir, S.Kom, M.Kom

Jaringan Syaraf Tiruan. Disusun oleh: Liana Kusuma Ningrum

JARINGAN SYARAF TIRUAN

BAB 2 LANDASAN TEORI

PENGENAL HURUF TULISAN TANGAN MENGGUNAKAN JARINGAN SARAF TIRUAN METODE LVQ (LEARNING VECTOR QUANTIZATION) By. Togu Sihombing. Tugas Ujian Sarjana

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) ERWIEN TJIPTA WIJAYA, ST, M.KOM

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB II LANDASAN TEORI

BAB II TINJAUAN PUSTAKA

Jaringan Syaraf Tiruan

BAB 2 TINJAUAN PUSTAKA

Gambar 2.1 Neuron biologi manusia (Medsker & Liebowitz, 1994)

BAB 2 LANDASAN TEORI. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu

BAB 2 LANDASAN TEORI

FAKULTAS SAINS DAN TEKNOLOGI UIN SUSKA RIAU. IIS AFRIANTY, ST., M.Sc

Architecture Net, Simple Neural Net

Penerapan Jaringan Saraf Tiruan Metode Backpropagation Menggunakan VB 6

Architecture Net, Simple Neural Net

1.1. Jaringan Syaraf Tiruan

PENGENALAN HURUF DAN ANGKA PADA CITRA BITMAP DENGAN JARINGAN SARAF TIRUAN METODE PROPAGASI BALIK

PENGENALAN AKSARA JAWAMENGGUNAKAN LEARNING VECTOR QUANTIZATION (LVQ)

BAB 2 LANDASAN TEORI. Universitas Sumatera Utara

PREDIKSI PENDAPATAN ASLI DAERAH KALIMANTAN BARAT MENGGUNAKAN JARINGAN SYARAF TIRUAN BACKPROPAGATION

Studi Modifikasi standard Backpropagasi

MODEL PEMBELAJARAN JARINGAN SYARAF TIRUAN UNTUK OTOMATISASI PENGEMUDIAN KENDARAAN BERODA TIGA

ARTIFICIAL NEURAL NETWORK TEKNIK PERAMALAN - A

SATIN Sains dan Teknologi Informasi

JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI CURAH HUJAN SUMATERA UTARA DENGAN METODE BACK PROPAGATION (STUDI KASUS : BMKG MEDAN)

Farah Zakiyah Rahmanti

BAB 2 KONSEP DASAR PENGENAL OBJEK

BAB II. Penelitian dengan jaringan syaraf tiruan propagasi balik. dalam bidang kesehatan sebelumnya pernah dilakukan oleh

BAB II LANDASAN TEORI

BAB 2 LANDASAN TEORI

PENGENALAN POLA HIV DAN AIDS MENGGUNAKAN ALGORITMA KOHONEN PADA JARINGAN SYARAF TIRUAN BACKPROPAGATION

BACKPROPAGATION NEURAL NETWORK AS A METHOD OF FORECASTING ON CALCULATION INFLATION RATE IN JAKARTA AND SURABAYA

ANALISIS JARINGAN SARAF TIRUAN BACKPROPAGATION TERHADAP PERAMALAN NILAI TUKAR MATA UANG RUPIAH DAN DOLAR

BAB II LANDASAN TEORI

MODEL N EURON NEURON DAN

PENGGUNAAN JARINGAN SYARAF TIRUAN BACKPROPAGATION UNTUK SELEKSI PENERIMAAN MAHASISWA BARU PADA JURUSAN TEKNIK KOMPUTER DI POLITEKNIK NEGERI SRIWIJAYA

BAB VIIB BACKPROPAGATION dan CONTOH

Jaringan Syaraf Tiruan

BAB II TINJAUAN PUSTAKA

Bab 4 Model Neural Network

BAB 4 DISAIN MODEL. Pengguna. Citra. Ekstraksi Ciri x. Antar muka (Interface) Data Hasil Ekstraksi Ciri. Testing dan Identifikasi.

BAB 2 LANDASAN TEORI

JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) Pertemuan 11 Diema Hernyka Satyareni, M.Kom

BAB II TEORI DASAR. Gambar 2.1 Anatomi Jantung

BAB 2 LANDASAN TEORI

BAB II MODEL NEURON DAN ARSITEKTUR JARINGAN

Muhammad Fahrizal. Mahasiswa Teknik Informatika STMIK Budi Darma Jl. Sisingamangaraja No. 338 Simpanglimun Medan

SATIN Sains dan Teknologi Informasi

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK)

Jurnal Coding, Sistem Komputer Untan Volume 04, No.2 (2016), hal ISSN : x

I PENDAHULUAN II LANDASAN TEORI

Jurnal Informatika Mulawarman Vol 5 No. 1 Februari

Prediksi Jumlah Penjualan Air Mineral Pada Perusahaan XYZ Dengan Jaringan Saraf Tiruan

Jaringan Syaraf Tiruan

VOL. 01 NO. 02 [JURNAL ILMIAH BINARY] ISSN :

OPTICAL CHARACTER RECOGNIZATION (OCR)

BAB 2 LANDASAN TEORI

SATIN Sains dan Teknologi Informasi

BAB 2 LANDASAN TEORI. fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses

BAB 3 METODOLOGI PENELITIAN

BAB II NEURAL NETWORK (NN)

Research of Science and Informatic BROILER CHICKENS WEIGHT PREDICTION BASE ON FEED OUT USING BACKPROPAGATION

Bab 5 Penerapan Neural Network Dalam Klasifikasi Citra Penginderaan Jauh

METODOLOGI PENELITIAN

z_in ( ) dan mengaplikasikan fungsi aktivasi untuk menghitung sinyal output ( ) Propagasi balik:

Pengembangan Aplikasi Prediksi Pertumbuhan Ekonomi Indonesia dengan Jaringan Syaraf Tiruan Backpropagation

VIII.PENGANTAR JARINGAN SYARAF TIRUAN (JST)

BAB II LANDASAN TEORI

BACK PROPAGATION NETWORK (BPN)

PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA UTARA MENGGUNAKAN METODE BACKPROPAGATION

IMPLEMENTASI JARINGAN SYARAF TIRUAN MULTI LAYER FEEDFORWARD DENGAN ALGORITMA BACKPROPAGATION SEBAGAI ESTIMASI NILAI KURS JUAL SGD-IDR

SIMULASI DAN PREDIKSI JUMLAH PENJUALAN AIR MENGGUNAKAN JARINGAN SYARAF TIRUAN BACKPROPAGATION (Study Kasus: PDAM TIRTA KEPRI) Ilham Aryudha Perdana

BAB VIII PENGANTAR JARINGAN SYARAF TIRUAN (JST)

BAB II LANDASAN TEORI

JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORKS)

Jaringan Syaraf Tiruan Menggunakan Algoritma Backpropagation Untuk Memprediksi Jumlah Pengangguran (Studi Kasus DiKota Padang)

ANALISIS PENGGUNAAN ALGORITMA KOHONEN PADA JARINGAN SYARAF TIRUAN BACKPROPAGATION DALAM PENGENALAN POLA PENYAKIT PARU

terinspirasi dari sistem biologi saraf makhluk hidup seperti pemrosesan informasi

Perbaikan Metode Prakiraan Cuaca Bandara Abdulrahman Saleh dengan Algoritma Neural Network Backpropagation

BAB II DASAR TEORI. 2.1 Citra Digital

BAB II LANDASAN TEORI

RANCANG BANGUN TOOL UNTUK JARINGAN SYARAF TIRUAN (JST) MODEL PERCEPTRON

BAB 3 PERANCANGAN SISTEM. Bab ini menguraikan analisa penelitian terhadap metode Backpropagation yang

JARINGAN SARAF TIRUAN DENGAN BACKPROPAGATION UNTUK MENDETEKSI PENYALAHGUNAAN NARKOTIKA

APLIKASI JARINGAN SYARAF TIRUAN DALAM PENGHITUNGAN PERSENTASE KEBENARAN KLASIFIKASI PADA KLASIFIKASI JURUSAN SISWA DI SMA N 8 SURAKARTA

T 11 Aplikasi Model Backpropagation Neural Network Untuk Perkiraan Produksi Tebu Pada PT. Perkebunan Nusantara IX

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PENJUALAN OBAT Pada PT. METRO ARTHA PRAKARSA MENERAPKAN METODE BACKPROPAGATION

Transkripsi:

7 BAB 2 TINJAUAN PUSTAKA 2.1 Jaringan Syaraf Biologi Otak manusia memiliki struktur yang sangat kompleks dan memiliki kemampuan yang luar biasa. Otak terdiri dari neuron-neuron dan penghubung yang disebut sinapsis [2]. Sel saraf mempunyai cabang struktur input (dendrities) sebuah inti sel sebuah percabangan struktur output atau axon. Axon dari sebuah sel terhubung dengan dendrities yang lain melalui sebuah synapse. Ketika sebuah sel syaraf aktif kemudian menimbulkan suatu signal electrochemical pada axon. Signal ini melewati synapses menuju ke sel saraf yang lain. Sebuah sel saraf lain akan mendapatkan signal jika memenuhi batasan tertentu yang sering disebut nilai ambang atau threshold. Gambar 2.1 Susunan Syaraf Manusia [9] 7

8 2.2 Jaringan Saraf Tiruan Jaringan syaraf tiruan didefinisikan sebagai suatu sistem pemrosesan informasi yang mempunyai karateristik menyerupai jaringan syaraf manusia. Jaringan syaraf tiruan tercipta sebagai generalisasi model matematis (human cognition) yang didasarkan atas asumsi sebagai berikut : 1. Pemrosesan informasi terjadi pada elemen sederhana yang disebut neuron. 2. Isyarat mengalir diantara sel saraf/neuron melalui suatu sambungan penghubung. 3. Setiap sambungan penghubung memiliki bobot yang bersesuaian. Bobot ini akan digunakan untuk menggandakan/mengenali isyarat yang dikirim melaluinya. 4. Setiap sel syaraf akan menerapkan fungsi aktivasi terhadap isyarat hasil penjumlahan berbobot yang akan masuk kepadanya untuk menentukan isyarat keluarnya [5]. JST mempunyai kemampuan untuk mendapatkan informasi dari data yang rumit atau tidak tepat, mampu menyelesaikan permasalahan yang tidak terstruktur dan sulit didefinisikan, dapat belajar dari pengalaman, mampu mengakuisisi pengetahuan walaupun tidak ada kepastian, mampu melakukan generalisasi dan ekstraksi dari suatu pola data tertentu, dapat menciptakan suatu pola pengetahuan melalui pengaturan diri atau kemampuan belajar (self organizing), mampu memilih suatu input data kedalam kategori tertentu yang sudah ditetapkan (klasifikasi), mampu menggambarkan suatu objek secara keseluruhan walaupun hanya diberikan sebagian data dari objek, mempunyai kemampuan mengolah data-data input tanpa harus mempunyai target (Self organizing), dan mampu menemukan jawaban terbaik sehingga mampu meminimalisasi fungsi biaya (optimasi) [9]. JST juga merupakan suatu teknik pemrosesan informasi yang menggunakan model kuantitatif. JST terdiri dari sejumlah neuron melalui pendekatan melalui sifat-sifat komputasi biologis (biological computation). 8

9 x 1 w 1 w 2 bias x 2 Input x i... w i Fungsi Penjumlahan net k f (.) Fungsi Aktivasi output Gambar 2.2 Model Neuron [3] Keterangan : X i = sinyal masukan ke-i. Dalam skripsi penulis dimana X 1 adalah Penilaian Kerja Pegawai yang baik, X 2 adalah Masa Kerja minimal empat tahun, X 3 adalah ujian psikotes. W i = nilai bobot hubungan ke-i. Dalam skripsi penulis nilai bobot adalah 1.00 [5]. = nilai bias atau toleransi error. Dalam skripsi penulis misalnya adalah 0.5 [5] f(.) = fungsi aktifasi atau elemen pemroses. Dalam skripsi penulis fungsi aktivasi yang digunakan adalah sigmoid biner y = sinyal keluaran. Dalam skripsi penulis sinyal keluarannya berupa layak atau tidak layak mendapatkan kenaikan golongan. Dari Gambar 2.2 dapat dilihat bahwa neuron tersusun dari komponen sebagai berikut: 1. Sekumpulan penghubung atau synapses dengan nilai bobot yang telah disesuaikan, yang berfungsi menghubungkan masukan dan fungsi penjumlahan. 9

10 2. Sebuah fungsi penjumlah (Summing) yang berfungsi untuk menjumlahkan semua sinyal masukan. 3. Fungsi aktivasi yaitu fungsi yang mentransformasikan nilai keluarannya melalui pemetaan sinyal masukan ke dalam sebuah nilai yang sesuai dengan neuron lainnya. Fungsi aktivasi diharapkan menghasilkan nilai yang dapat mendekati nilai-nilai maksimum dan minimum target[3]. Dari model sebuah neuron dapat dituliskan persamaan: y = f ( w i * x i ). (2-1) Keterangan : f = Fungsi aktivasi W i = nilai bobot hubungan ke-i = nilai bias atau toleransi error [3]. Dalam proses pembelajarannya keluaran dari JST ditentukan oleh pola hubungan antar neuron atau arsitektur JST, metode untuk menentukan bobot penghubung berupa metode pembelajaran serta algoritma dan fungsi aktivasi dari JST itu sendiri. Suatu algoritma belajar dari JST tergantung dari arsitektur atau struktur dari jaringan saraf tersebut [3]. 2.2.1 Arsitektur Jaringan Baik tidaknya suatu model JST salah satunya ditentukan oleh hubungan antar neuron atau disebut dengan arsitektur jaringan. Neuron-neuron tersebut terkumpul dalam lapisan-lapisan yang disebut neuron layer. Lapisan-lapisan penyusun JST dibagi tiga yaitu : 1. Lapisan input Node-node didalam lapisan input disebut unit-unit input. Unit-unit input menerima input dari dunia luar. Input yang dimasukkan merupakan penggambaran dari suatu masalah. 2. Lapisan tersembunyi Node-node di dalam lapisan tersembunyi disebut unit-unit tersembunyi. Output dari lapisan ini tidak secara langsung diamati. 10

11 3. Lapisan output Node-node pada lapisan output disebut unit-unit output. Keluaran atau output dari lapisan ini merupakan output jaringan saraf tiruan terhadap permasalahan [16]. Beberapa arsitektur jaringan yang sering digunakan dalam jaringan saraf tiruan antara lain : 1. Jaringan Lapisan Tunggal (Single Layer Neural Network) Jaringan dengan lapisan tunggal terdiri dari 1 lapisan input dan 1 lapisaan output. Setiap unit dalam lapisan input selalu terhubung dengan setiap unit yang terdapat pada lapisan output. Jaringan ini menerima input kemudian mengilahnya menjadi output tanpa melewati lapisan tersembunyi. Contoh JST yang menggunakan jaringan lapisan tunggal adalah Adaline, Hopfield, Perceptron. Nilai input X 1 X 2 X 3 Lapisan input W 21 W 22 W 11 W 12 W 31 W 32 Y 1 Y 2 Lapisan output Nilai output Gambar 2.3 Jaringan Saraf Tiruan dengan Lapisan Tunggal (Single Layer) [16] Pada Gambar 2.3 lapisan input memiliki 3 unit neuron yaitu X 1, X 2, dan X 3 yang terhubung dengan lapisan output yang memiliki dua unit neuron, yaitu Y 1 dan Y 2. 11

12 Hubungan neuron-neuron pada lapisan tersebut ditentukan oleh bobot yang bersesuaian misalnya W 11, W 12, W 21, W 22, W 31, dan W 32. 2. Jaringan Lapisan Banyak (Multilayer Neural Network) Jaringan lapisan banyak mempunyai 3 jenis lapisan yaitu lapisan input, lapisan tersembunyi, dan lapisan output. Jaringan ini dapat menyelesaikan permasalahan yang lebih kompleks dibandingkan dengan jaringan lapisan tunggal. Contoh JST yang menggunakan jaringan lapisan banyak adalah Madaline, Backpropagation, dan Neocognitron. Nilai Input X 1 X 2 X 3 Lapisan Input V 12 V 22 V 21 V 32 Lapisan bobot pertama V 31 Z 1 Z 2 W 1 W 2 Z 1 Lapisan tersembunyi Lapisan bobot tersembunyi Lapisan output Nilai Output Gambar 2.4 Jaringan Saraf dengan Lapis Banyak (Multilayer)[16] Pada Gambar 2.4 Lapisan input memiliki 3 unit neuron yaitu X 1, X 2, dan X 3 yang terhubung langsung dengan lapisan tersembunyi yang memiliki 2 unit neuron tersembunyi, yaitu Z 1 dan Z 2. Hubungan neuron-neuron pada lapisan input dan lapisan output tertentu ditentukan oleh bobot V 11, V 12, V 21, V 22, V 31, dan V 32. 12

13 Kemudian dua unit neuron tersembunyi Z 1 dan Z 2 terhubung langsung dengan lapisan output yang memiliki satu unit neuron Y yang besarnya ditentukan oleh bobot W 1 dan W 2. 3. Jaringan dengan Lapisan Kompetitif/Competitive layer Neural Network Jaringan ini memiliki bobot yang telah ditentukan dan tidak memiliki proses pelatihan (Gambar 2.5). Jaringan ini digunakan untuk mengetahui neuron pemenang dari sejumlah neuron yang ada. Akibatnya pada jaringan ini sekumpulan neuron bersaing untuk mendapatkan hak manjadi aktif. Nilai bobot setiap neuron untuk dirinya sendiri adalah 1, sedangkan untuk neuron lainnya bernilai random negative. Contoh JST yang menggunakan jaringan dengan lapisan kompetitif adalah Learning Vector Quantization dan Kohonen [15]. Gambar 2.5 Jaringan Saraf dengan Competitive layer yang memiliki bobot n [16] Pada Gambar 2.5 Lapisan input memiliki empat unit neuron,yaitu A 1, A m, A i, A j dimana nilai bobotnya telah ditentukan misalnya n atau e sedangkan nilai bobot untuk dirinya sendiri bernilai 1. 2.3 Learning Vector Quantization (LVQ) LVQ merupakan suatu metode untuk melakukan pelatihan terhadap lapisan-lapisan kompetitif yang terawasi yang memiliki target. Lapisan kompetitif belajar mengenali dan mengklasifikasikan vektor-vektor masukan. Jika ada dua vektor yang hampir 13

14 sama maka lapisan kompetitif akan menempatkan keduanya pada kelas yang sama, dengan kata lain, jaringan LVQ belajar mengklasifikasikan vektor masukan ke kelas target yang ditentukan oleh user. Arsitektur jaringan LVQ dengan enam neuron pada lapisan masukan dan dua neuron pada lapisan keluaran, proses yang terjadi pada setiap neuron adalah mencari jarak vektor masukan ke bobot yang bersangkutan (W 1 dan W 2 ). W 1 adalah vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron pertama pada lapisan keluaran, sedangkan W 2 adalah vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron kedua pada lapisan keluaran. Fungsi aktifasi F 1 akan memetakan y_in 1 ke y 1 =1 apabila x- W 1 > x- W 2 dan y 1 =0 jika sebaliknya. Demikian juga pada Fungsi aktifasi F 2 akan memetakan y_in 2 ke y 2 =1 apabila x- W 2 > x- W 1 dan y 2 = 0 Jika sebaliknya. Jaringan LVQ terdiri atas dua lapisan, yaitu lapis kompetitif dan lapis linier. Lapis kompetitif disebut juga Self Organizing Map (SOM), disebut lapis kompetitif karena neuron-neuron berkompetisi dengan algoritma kompetisi yang akan menghasilkan neuron pemenang. Blok indist menerima vector masukan p dan matrk bobot masukan IW 1,1 menghasilkan vektor dengan elemen berjumlah S 1. Elemen-elemen tersebut merupakan jarak nilai terkecil antara vektor masukan dan vektor IW 1,1 dan baris matrik bobot masukan. Masukan n 1 dari lapis kompetitif diperoleh dengan menghitung jarak terkecil vektor p dan vektor bobot lalu ditambah dengan bias b. Jika semua nilai bias nol masukan jaringan maksimum pada sebuah neuron adalah nol, terjadi jika vektor p sama dengan vektor bobot neuron. Fungsi alih kompetitif menerima vektor masukan dan menghasilkan keluaran nol kecuali untuk neuron pemenang, yaitu neuron yang memiliki nilai negatif paling kecil menghasilkan keluaran satu. Jika semua bias bernilai nol maka neuron yang vektor bobotnya paling mendekati vektor masukan mempunyai nilai negatif yang paling kecil dan akan memenangkan kompetisi untuk menghasilkan keluaran satu. 14

15 Input Competitive Layer Linear Layer R P R x 1 n1 a 1 lw 1,1 s 2 x 1 C S 2 x 1 lw 2,1 S 1 x R n 2 s 2 x 1 S 1 s 2 x s 1 S 2 a 2 s 2 x 1 a 1 =compet (n 1 ) a 2 = W 2 a 1 Gambar 2.6 Arsitektur jaringan LVQ [6] Keterangan : W 1 = Vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron pertama pada lapisan keluaran. W 2 = Vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke Neuron kedua pada lapisan kedua. P = Vektor masukan p menuju competitive layer. S 1 = Vektor yang dihasilkan dari vektor masukan p dan bobot masukan W 1, 1. S 2 = Vektor yang dihasilkan dari vektor masukan a 1 dan bobot masukan W 2, 1. a 1 = Hasil dari vektor masukan competitive layer ke linear layer. a 2 = Vektor yang dihasilkan dari linear layer. R = Vektor masukan C = Kelas yang diwakili oleh oleh neuron ke-j. T = Vektor target output T =(t 1, t 2,, t k ) α = Learning rate epoh = Siklus perubahan bobot dari jumlah inputannya 2.3.1 Algoritma Pelatihan LVQ Algoritma ini akan mengubah bobot I neuron yang paling dekat dengan vektor masukan, misalnya vektor masukan X=(x 1,x 2,x 3 ). Vektor bobot keluaran neuron ke-j 15

16 adalah W j = (W 1,W 2,..,W n ), C j adalah kelas yang diwakili oleh Neuron ke-j. T adalah kelas target untuk masukan X sedangkan J adalah jarak antara vektor masukan dan vektor bobot. Blok indist menerima vektor masukan p dan matrik bobot masukan IW 1,1 menghasilkan vektor dengan elemen berjumlah S 1 Perubahan bobot-bobot neuron dilakukan dengan langkah-langkah berikut : 1. Tetapkan : a. Bobot awal variabel input ke-j menuju ke kelas (cluster) ke-i : W ij, dengan i=1,2,..,m. b. Maksimum epoh : MaxEpoh c. Parameter learning rate α d. Pengurangan learning rate Decα e. Minimal learning rate yang diberbolehkan : Minα 2. Masukkan : a. Data input : X ij ; dengan i=1,2,..,m. b. Target berupa kelas: T k ; dengan k=1,2,..,n. 3. Tetapkan kondisi awal : epoh = 0; 4. Kerjakan jika : (epoh MaxEpoh) dan ( α Minα) a. epoh = epoh + 1;.. (2-2) b. Kerjakan untuk i=1 sampai n i. Tentukan J sedemikian hingga X i -W j minimum.. (2-3) dengan j=1,2,..k. ii. Perbaiki Wj dengan ketentuan : o Jika T = C j maka W j = W j + α(x i -W j ).. (2-4) o Jika T C j maka W j = W j - α(x i -W j )... (2-5) c. Kurangi nilai α, 16

17 (pengurangan α bisa dilakukan dengan: α= α-decα; atau dengan cara: α= α*dec α). (2-6) Setelah dilakukan pelatihan, akan diperoleh bobot-bobot akhir(w). Bobotbobot ini nantinya akan digunakan untuk melakukan simulasi atau pengujian np buah data. 2.3.2 Algoritma Simulasi (Pengujian) 1. Masukkan data yang akan diuji, misal: X ij dengan i=1,2,..np dan j=1,2,..m. 2. Kerjakan untuk i=1 sampai np a. Tentukan J sedemikian hingga X i -W j minimum.. (2-7) dengan j=1,2,..k. b. J adalah kelas untuk X i [4]. 2.4 Backpropagation Backpropagation merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron yang ada pada lapisan tersembunyinya. Algoritma backpropagation menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur (backward), untuk mendapatkan error digunakan tahap perambatan maju (forward propogation) harus dikerjakan terlebih dahulu. Arsitektur jaringan ini terdiri dari input layer, hidden layer, dan output layer. 17

18 Y 1 Y k Y m w 01 w 11 w j1 w p1 w 0k w 1k w jk w pk w 0m w 1m w jm w pm 1 Z 1 Z j Z p v 01 v 11 v i1 v n1 v 0j v 1j v ij v nj v 0p v 1p v ip v np 1 X 1 X i X n Gambar 2.7 Arsitektur jaringan Backpropagation [15] Keterangan : X = Vektor input pembelajaran X = (X 1, X 2,, X n ) V = Bobot lapisan tersembunyi/hidden Layer V oj = Bias pada Hidden neuron ke j W = Bobot lapisan keluaran n = Jumlah unit pengolah lapisan tersembunyi Z = Lapisan tersembunyi/hidden Z i = Hidden neuron ke-j. Nilai input Z i ditunjukkan dengan δ k = Bagian koreksi error penyesuaian bobot W jk berpedoman pada error Output neuron Y k. δ j = Bagian koreksi error penyesuaian bobot V ij berpedoman pada error Output neuron Z j. W ok = Bias pada output neuron ke-j Y k = Output neuron ke-k. Nilai input Y k ditunjukkan dengan : Backpropagation y _ memiliki ink = wok beberapa + z jw jk unit yang ada dalam satu atau lebih layer j tersembunyi. Gambar 2.7 adalah arsitektur backpropagation dengan n buah masukan 18

19 (ditambah sebuah bias), sebuah layar tersembunyi yang terdiri dari p unit (ditambah sebuah bias), serta m buah unit keluaran. V ji merupakan bobot garis dari unit masukan X i ke unit layar tersembunyi Z j (V jo merupakan bobot garis yang menghubungkan bias di unit masukan ke unit layar tersembunyi Z j ). W kj merupakan bobot dari unit layar tersembunyi Z j ke unit keluaran Y k (W k0 merupakan bobot dari bias di layar tersembunyi ke unit keluaran Z k )[8]. 2.4.1 Algoritma Backpropagation 1. Inisialisasi bobot (ambil bobot awal dengan nilai random yang cukup kecil). 2. Tetapkan : maksimum epoh, Target Error, dan Learning rate 3. Inisialisasi : Epoh = 0, MSE = 1 4. Kerjakan langkah-langkah berikut selama (Epoh < Maksimum Epoh) dan (MSE > Target Error) : Epoh = Epoh + 1 Untuk tiap-tiap pasangan elemen yang akan dilakukan pembelajaran, maka kerjakan : Feedforward a. Tiap-tiap unit input (X i, i =1,2,3,..,n) menerima sinyal x i dan meneruskan sinyal tersebut ke semua unit pada lapisan yang ada diatasnya (lapisan tersembunyi). b. Tiap-tiap unit pada suatu lapisan tersembunyi (Z j, j =1,2,3,..,p ) menjumlahkan sinyal-sinyal input terbobot : z _ in = b1 j +...(2-8) Gunakan fungsi aktivasi untuk menghitung sinyal outputnya : Z j = f(z_in j )...(2-9) Dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unit-unit output). c. Tiap-tiap unit output (Yk, k = 1,2,3,..,m) menjumlahkan sinyal-sinyal input terbobot. y _ ink = wok + z jw j i j x v i ij jk... (2-10) 19

20 Gunakan fungsi aktivasi untuk menghitung sinyal outputnya : Y k = f(y_in k )... (2-11) Dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unit-unit output). Catatan : Langkah (b) dilakukan sebanyak jumlah lapisan terembunyi Backpropagation d. Tiap-tiap unit output (Y k, K = 1,2,3,..,m) menerima target pola yang berhubungan dengan pola input pembelajaran, hitung informasi errornya : δ... (2-12) k = ( tk yk ) f ' ( y _ ink ) Kemudian hitung koreksi bobot (yang nantinya digunakan untuk memperbaiki nilai W jk ) : w jk = α δ z k j... (2-13) Hitung juga koreksi bias (yang nantinya akan digunak untuk memperbaiki nilai b2 k ) : b2 = α δ 2 k k... (2-14) Langkah (d) ini juga dilakukan sebanyak jumlah lapisan tersembunyi, yaitu menghitung informasi error dari suatu lapisan tersembunyi ke lapisan tersembunyi sebelumnya. e. Tiap-tiap unit tersembunyi (Z j, j = 1,2,3,..,p) menjumlahkan delta inputnya (dari unit-unit yang berada pada lapisan atasnya) : m δ _ in j = δ w k= 1 k jk... (2-15) Kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk memperbaiki nilai V ij ) : V = α δ1 ij ij... (2-16) Hitung juga koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai b1 j ) : b1 = α δ1 j j... (2-17) f. Tiap-tiap unit output (Yk, k = 1,2,3,...,m) memperbaiki bias dan bobotnya (j = 0,1,2,..,p) : w jk (baru) = w jk (lama) + Δw jk...(2-18) 20

21 b2 k (baru) = b2 k (lama) + Δb2 k... (2-19) Tiap-tiap unit tersembunyi (Zj, j = 1,2,3,...,p) memperbaiki bias dan bobotnya (i = 0,1,2,..,n) : v ij (baru) = v ij (lama) + Δv ij... (2-20) b1 j (baru) = b1 j (lama) + Δb1 j... (2-21) Hitung MSE 2.4.2 Inisialisasi Bobot Awal Pemilihan bobot awal sangat mempengaruhi jaringan saraf dalam mencapai minimum global terhadap nilai error, serta cepat tidaknya proses pelatihan menuju kekonvergenan. Apabila nilai bobot awal terlalu besar, maka input ke setiap lapisan sembunyi atau lapisan output akan jatuh pada daerah dimana turunan fungsi sigmoidnya sangat kecil dan apabila nilai bobot awal terlalu kecil maka input ke setiap lapisan tersembunyi atau lapisan output akan sangat kecil yang akan menyebabkan proses pelatihan akan berjalan sangat lambat. Inisialisasi bobot awal terdiri dari 2 yaitu : 1. Inisialisasi Bobot Awal Secara Random Inisialisasi bobot awal secara random biasanya bobot awal diinisialisasi secara random dengan nilai antara -0.5 sampai 0.5 (atau -1 sampai 1, atau imterval lainnya). 2. Inisialisasi Bobot Awal Dengan Metode Nguyen-Widrow Metode Nguyen-Widrow akan menginisalisasi bobot-bobot lapisan dengan nilai antara -0.5 sampai 0.5. Sedangkan bobot-bobot dari lapisan input ke lapisan tersembunyi dirancang sedemikian rupa sehingga dapat meningkatkan kemampuan lapisan tersembunyi dalam melakukan proses pembelajaran [2] 21

22 2.4.3 Fungsi Aktifasi Fungsi aktivasi merupakan fungsi pengolah jumlahan data masukan menjadi data keluaran. Karakteristik pada fungsi aktivasi dari backpropagation adalah continue, dapat diturunkan, dan tidak menurun secara monoton. Fungsi aktivasi untuk algoritma backpropagation adalah sebagai berikut: 1. Linier atau Purelin Fungsi linier menggunakan konsep superposisi. Fungsi linier akan membawa masukkan ke keluaran yang sebanding. Fungsi ini didefinisikan: f(x) = α x... (2-22) keterangan: α = kemiringan (slope) jika slope α = 1, maka fungsi aktivasi linier dinamakan fungsi identitas. Ilustrasi fungsi linier digambarkan: f(x) 1 0 x -1 Gambar 2.8 Fungsi Aktivasi Linier[3] 2. Sigmoid Biner atau Logsig Fungsi ini memiliki sifat nonlinier sehingga sangat baik diterapkan dalam penyelesaian masalah yang kompleks. Keluaran dari fungsi sigmoid biner berupa bilangan biner (0 atau 1) atau nilai yang berada di antara 0 sampai 1. sigmoid biner memiliki range dari (0,1) dan didefinisikan: 22

23 1 f ( x) = 1+ exp( x)... (2-23) dan fungsi turunannya adalah: f '( x) = f1( x)[1 f1( x)]... (2-24) Ilustrasi fungsi sigmoid biner digambarkan: f(x) 1 0 x -1 Gambar 2.9 Sigmoid Biner [3] 3. Sigmoid Bipolar atau Tansig Keluaran dari fungsi sigmoid bipolar berupa nilai yang berada di antara -1 sampai 1 dan didefinisikan: 2 f ( x) = 1 1+ exp( x) dan turunan fungsi adalah: 1 f ( x) = 2 [ 1+ f ( x) ][ 1 f ( )] ' 2 2 x... (2-25)... (2-26) 23

24 Ilustrasi fungsi di atas digambarkan: f(x) 1 x -1 Gambar 2.10 Sigmoid Bipolar [3] 2.5 Kenaikan Golongan Pada Pegawai Perusahaan Daerah Air Minum (PDAM) Tirtanadi merupakan Badan Usaha Milik Daerah Provinsi Sumatera Utara yang mengelola air sungai menjadi air bersih. PDAM Tirtanadi Propinsi Sumatera Utara didirikan berdasarkan penandatanganan akte notaris pada tanggal 8 September 1905 di Amsterdam Netherlands yang diberi nama Waterleiding Maatschappij. Golongan adalah kedudukan yang menunjukkan tingkat seorang Pemda (Pegawai daerah) berdasarkan golongan dalam rangkaian susunan kepegawaian dan digunakan sebagai dasar penggajian. Kenaikan golongan adalah penghargaan yang diberikan kepada Pemda atas dasar prestasi kerja dan pengabdian terhadap perusahaan.berdasarkan Keputusan Direksi Perusahaan Daerah Air Minum Tirtanadi Provinsi Sumatera Utara Nomor 44/KPTS/2012 tentang Persyaratan Kenaikan Gaji Berkala atau Golongan. Maka Kriteria persyaratan untuk naik golongan adalah Penilaian Kerja Pegawai yang baik, Masa Kerja minimal empat tahun, dan mengikuti ujian psikotes. Data tersebut yang akan menjadi pertimbangan seorang pegawai layak atau tidak layak untuk mendapatkan kenaikan golongan. 24