KLASIFIKASI ARITMIA EKG MENGGUNAKAN JARINGAN SYARAF TIRUAN DENGAN FUNGSI AKTIVASI ADAPTIF

dokumen-dokumen yang mirip
Architecture Net, Simple Neural Net

BAB 2 LANDASAN TEORI

BAB II LANDASAN TEORI

Penerapan Jaringan Saraf Tiruan Metode Backpropagation Menggunakan VB 6

BAB 3 METODOLOGI PENELITIAN

BAB II DASAR TEORI Jaringan Syaraf Tiruan. Universitas Sumatera Utara

BAB II TINJAUAN PUSTAKA

Perbaikan Metode Prakiraan Cuaca Bandara Abdulrahman Saleh dengan Algoritma Neural Network Backpropagation

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI. fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses

Presentasi Tugas Akhir

BAB 2 LANDASAN TEORI. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu

ANALISIS PENAMBAHAN NILAI MOMENTUM PADA PREDIKSI PRODUKTIVITAS KELAPA SAWIT MENGGUNAKAN BACKPROPAGATION

BAB 2 KONSEP DASAR PENGENAL OBJEK

BAB IV JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK)

MODEL PEMBELAJARAN JARINGAN SYARAF TIRUAN UNTUK OTOMATISASI PENGEMUDIAN KENDARAAN BERODA TIGA

BAB II LANDASAN TEORI

JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI CURAH HUJAN SUMATERA UTARA DENGAN METODE BACK PROPAGATION (STUDI KASUS : BMKG MEDAN)

ANALISIS ALGORITMA INISIALISASI NGUYEN-WIDROW PADA PROSES PREDIKSI CURAH HUJAN KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

BAB 2 LANDASAN TEORI

PREDIKSI CURAH HUJAN DI KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

VOL. 01 NO. 02 [JURNAL ILMIAH BINARY] ISSN :

BACK PROPAGATION NETWORK (BPN)

Jaringan Syaraf Tiruan. Disusun oleh: Liana Kusuma Ningrum

Neural Networks. Machine Learning

BAB II TEORI DASAR. Gambar 2.1 Anatomi Jantung

BAB II NEURAL NETWORK (NN)

IMPLEMENTASI JARINGAN SYARAF TIRUAN MULTI LAYER FEEDFORWARD DENGAN ALGORITMA BACKPROPAGATION SEBAGAI ESTIMASI NILAI KURS JUAL SGD-IDR

PREDIKSI PENDAPATAN ASLI DAERAH KALIMANTAN BARAT MENGGUNAKAN JARINGAN SYARAF TIRUAN BACKPROPAGATION

1 BAB I PENDAHULUAN 1.1 Latar Belakang dan Permasalahan

1.1. Jaringan Syaraf Tiruan

JARINGAN SARAF TIRUAN (ARTIFICIAL NEURAL NETWORK) ERWIEN TJIPTA WIJAYA, ST, M.KOM

Aplikasi yang dibuat adalah aplikasi untuk menghitung. prediksi jumlah dalam hal ini diambil studi kasus data balita

ANALISIS JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI JUMLAH RESERVASI KAMAR HOTEL DENGAN METODE BACKPROPAGATION (Studi Kasus Hotel Grand Zuri Padang)

BACK PROPAGATION NETWORK (BPN)

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI VOLUME PEMAKAIAN AIR BERSIH DI KOTA PONTIANAK

BAB IV HASIL DAN PEMBAHASAN

Klasifikasi Pola Huruf Vokal dengan Menggunakan Jaringan Saraf Tiruan

BAB 2 TINJAUAN PUSTAKA

BAB 3 ANALISIS DAN PERANCANGAN SISTEM

lalu menghitung sinyal keluarannya menggunakan fungsi aktivasi,

BAB 2 TINJAUAN PUSTAKA

BAB 3 PERANCANGAN SISTEM. Bab ini menguraikan analisa penelitian terhadap metode Backpropagation yang

SATIN Sains dan Teknologi Informasi

DIAGNOSA GANGGUAN SALURAN PERNAFASAN MENGGUNAKAN JARINGAN SYARAF TIRUAN BACKPROPAGATION

Neural Network (NN) Keuntungan penggunaan Neural Network : , terdapat tiga jenis neural network Proses Pembelajaran pada Neural Network

BAB III METODE PENELITIAN

Jurnal Ilmiah Komputer dan Informatika (KOMPUTA) IMPLEMENTASI JARINGAN SYARAF TIRUAN BACKPROPAGATION UNTUK MENGENALI MOTIF BATIK

BAB III METODOLOGI PENELITIAN

T 11 Aplikasi Model Backpropagation Neural Network Untuk Perkiraan Produksi Tebu Pada PT. Perkebunan Nusantara IX

PERKIRAAN PENJUALAN BEBAN LISTRIK MENGGUNAKAN JARINGAN SYARAF TIRUAN RESILENT BACKPROPAGATION (RPROP)

Jaringan Syaraf Tiruan

Implementasi Jaringan Syaraf Tiruan Backpropagation dan Steepest Descent untuk Prediksi Data Time Series

PREDIKSI DATA RUNTUN WAKTU MENGGUNAKAN JARINGAN SYARAF TIRUAN

Architecture Net, Simple Neural Net

Prediksi Curah Hujan Di Kota Pontianak Menggunakan Parameter Cuaca Sebagai Prediktor Pada Skala Bulanan, Dasarian Dan Harian Asri Rachmawati 1)*

PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA BARAT

PEMILIHAN WARNA LIPSTIK BERDASARKAN INFORMASI USIA DAN WARNA KULIT DENGAN MENGGUNAKAN METODA ARTIFICIAL NEURAL NETWORK

Jaringan syaraf dengan lapisan tunggal

PREDIKSI PERHITUNGAN DOSIS RADIASI PADA PEMERIKSAAN MAMMOGRAFI MENGGUNAKAN ALGORITMA JARINGAN SYARAF TIRUAN PROPAGASI BALIK

BAB II LANDASAN TEORI

I PENDAHULUAN II LANDASAN TEORI

IMPLEMENTASI JARINGAN SYARAF TIRUAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI HARGA SAHAM

PERANCANGAN PROGRAM PENGENALAN BENTUK MOBIL DENGAN METODE BACKPROPAGATION DAN ARTIFICIAL NEURAL NETWORK SKRIPSI

BAB II TINJAUAN PUSTAKA

ABSTRAK. Pemodelan Kecerdasan Buatan Untuk Pengenalan Citra Elektrokardiografi (EKG) Oleh: Imam Tazi, M.Si

BAB I PENDAHULUAN 1.1 Latar Belakang

Studi Modifikasi standard Backpropagasi

BAB 2 TINJAUAN PUSTAKA

PREDIKSI DISTRIBUSI AIR PDAM MENGGUNAKAN METODE JARINGAN SYARAF TIRUAN BACKPROPAGATION DI PDAM KOTA MALANG

Farah Zakiyah Rahmanti

PERAMALAN PRODUKSI CABAI RAWIT DENGAN NEURAL NETWORK Muhammad Fajar

BAB VIIB BACKPROPAGATION dan CONTOH

APLIKASI JARINGAN SYARAF TIRUAN DALAM PENGHITUNGAN PERSENTASE KEBENARAN KLASIFIKASI PADA KLASIFIKASI JURUSAN SISWA DI SMA N 8 SURAKARTA

BAB VIII PENGANTAR JARINGAN SYARAF TIRUAN (JST)

BAB 1 PENDAHULUAN. 1.1 Latar Belakang Masalah

BAB I PENDAHULUAN. universitas swasta yang memiliki 7 Fakultas dengan 21 Program Studi yang

SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON

APLIKASI JARINGAN SYARAF TIRUAN MULTI LAYER PERCEPTRON PADA APLIKASI PRAKIRAAN CUACA

JARINGAN SARAF TIRUAN DENGAN BACKPROPAGATION UNTUK MENDETEKSI PENYALAHGUNAAN NARKOTIKA

BAB 4 DISAIN MODEL. Pengguna. Citra. Ekstraksi Ciri x. Antar muka (Interface) Data Hasil Ekstraksi Ciri. Testing dan Identifikasi.

Pengembangan Aplikasi Prediksi Pertumbuhan Ekonomi Indonesia dengan Jaringan Syaraf Tiruan Backpropagation

NEURAL NETWORK BAB II

BAB IV PERANCANGAN & IMPLEMENTASI SISTEM

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PENJUALAN OBAT Pada PT. METRO ARTHA PRAKARSA MENERAPKAN METODE BACKPROPAGATION

PENGENALAN PLAT NOMOR KENDARAAN DALAM SEBUAH CITRA MENGUNAKAN JARINGAN SARAF TIRUAN ABSTRAK

PERAMALAN HARGA SAHAM PERUSAHAAN MENGGUNAKAN ARTIFICIAL NEURAL NETWORK DAN AKAIKE INFORMATION CRITERION

Penyelesaian Masalah Syarat Batas dalam Persamaan Diferensial Biasa Orde Dua dengan Menggunakan Algoritma Shooting Neural Networks

BAB II DASAR TEORI. 2.1 Citra Digital

Arsitektur Jaringan Salah satu metode pelatihan terawasi pada jaringan syaraf adalah metode Backpropagation, di mana ciri dari metode ini adalah memin

1 PENDAHULUAN 1.1 Latar Belakang

BAB VIII JARINGAN SYARAF TIRUAN

BAB II LANDASAN TEORI

METODOLOGI PENELITIAN

SATIN Sains dan Teknologi Informasi

ABSTRAK. Universitas Kristen Maranatha

PENENTUAN MODEL RETURN HARGA SAHAM DENGAN MULTI LAYER FEED FORWARD NEURAL NETWORK MENGGUNAKAN ALGORITMA RESILENT BACKPROPAGATION

ARTIFICIAL NEURAL NETWORK TEKNIK PERAMALAN - A

LEARNING ARTIFICIAL INTELLIGENT

Analisis Prediksi Indeks Harga Konsumen Berdasarkan Kelompok Kesehatan Dengan Menggunakan Metode Backpropagation

Transkripsi:

KLASIFIKASI ARITMIA EKG MENGGUNAKAN JARINGAN SYARAF TIRUAN DENGAN FUNGSI AKTIVASI ADAPTIF Asti Rahma Julian 1, Nanik Suciati 2, Darlis Herumurti 3 Teknik Informatika, Fakultas Teknologi Informasi, ITS email : astee.rahma@gmail.com 1, nanik@its-sby.edu 2, darlis@its-sby.edu 3 ABSTRAKSI Angka kematian akibat penyakit jantung tergolong sangat tinggi. Oleh karena itu, deteksi dan penanganan dini penyakit jantung dapat mencegah kerusakan permanen pada jaringan jantung. Salah satu cara pendeteksian dini penyakit jantung adalah dengan klasifikasi aritmia EKG menggunakan Jaringan Syaraf Tiruan (JST). Tugas akhir ini mengimplementasikan klasifikasi aritmia EKG menggunakan JST dengan fungsi aktivasi adaptif. Tahap pertama adalah tahap training menggunakan algoritma backpropagation dengan melakukan perbaikan pada parameter jaringan serta parameter bebas yang terdapat pada fungsi aktivasi. Tahap kedua adalah tahap testing setelah mendapatkan arsitektur jaringan yang optimum pada tahap training. Kedua tahap tersebut dilakukan kepada dua model JST dengan fungsi aktivasi berbeda, yang masing-masing memiliki parameter bebas. Lalu kedua model tersebut dibandingkan dengan JST klasik. Uji coba dilakukan dengan mengklasifikasikan aritmia EKG menjadi 8 jenis berdasarkan data yang didapat dari database aritmia EKG milik MIT-BIH[4]. Berdasarkan uji coba, JST klasik dan dua model JST dengan fungsi aktifasi adaptif mempunyai akurasi sebesar 97.92%, 99.59% dan 99.54%. Kata kunci : JST, aritmia EKG, fungsi aktivasi adaptif, klasifikasi. 1 PENDAHULUAN Elektrokardiograf merupakan alat yang efektif, sederhana, dan murah untuk mengenali penyakit cardiovascular. Oleh karena itu, elektrokardiograf biasa digunakan oleh dokter dalam bidang kardiologi. Elektrokardiograf menghasilkan catatan elektrokardiogram (EKG) yang dipakai untuk memeriksa dan mengamati kondisi pasien. EKG merekam aktivitas elektrik dari jantung. Penyakit dapat dikenali berdasarkan bentuk dari EKG. Ketidaknormalan pada bentuk EKG terjadi ketika irama jantung berbeda dari irama sinus normal. Kejadian ini biasa disebut aritmia. Angka kematian akibat penyakit jantung tergolong sangat tinggi. Oleh karena itu, deteksi dan penanganan dini penyakit jantung dapat menyelamatkan hidup pasien atau mencegah kerusakan permanen pada jaringan jantung. Salah satu cara pendeteksian dini penyakit jantung adalah dengan klasifikasi aritmia EKG menggunakan Jaringan Syaraf Tiruan (JST). Arsitektur JST yang digunakan pada Tugas Akhir ini adalah Multilayer Perceptron (MLP). Secara umum, kinerja JST dengan arsitektur MLP bergantung pada jumlah lapisan tersembunyi, jumlah neuron tersembunyi, algoritma pembelajaran, dan fungsi aktivasi untuk setiap neuron. Pada MLP, setiap neuron menghitung jumlah bobot dari inputnya kemudian digunakan fungsi nonlinear untuk menghitung output dari neuron yang dinamakan fungsi aktivasi. MLP memiliki kemampuan untuk menyelesaikan masalah yang melibatkan hubungan nonlinear, di mana semua neuron menggunakan fungsi aktivasi yang sama atau setiap lapisan yang berbeda menggunakan fungsi aktivasi yang berbeda. Umumnya, fungsi aktivasi yang digunakan adalah konstan dan tidak dapat menyesuaikan dengan masalah yang berbeda. Tugas Akhir ini mengimplementasikan model JST klasik dan tiga model JST dengan fungsi aktivasi adaptif yang berbeda untuk mengklasifikasikan aritmia EKG[1]. 2 ELEKTROKARDIOGRAM Pada bab elektrokardiogram ini, akan dijelaskan secara singkat mengenai pengertian elektrokardiogram dan aritmia. 2.1 Pengertian Elektrokardiogram Elektrokardiogram (EKG) adalah rekaman aktivitas elektrik dari jantung. Aktivitas elektrik ini terjadi ketika otot berkontraksi dan ada perubahan listrik yang disebut depolarisasi. Perubahan ini dapat dideteksi oleh electrode yang ditempelkan pada permukaan tubuh [2]. Hasil rekaman aktivitas elektrik tersebut ditampilkan pada kertas berukuran 1 mm 2 seperti yang ditampilkan pada gambar 1. Dengan kecepatan 25 mm/s, setiap millimeter pada sumbu x menyatakan rbahwa ekaman berlangsung selama 40 ms (0,04 s). Sedangkan pada sumbu y, setiap millimeter menyatakan 0,1 mv tenaga listrik [3]. Setiap 5 milimeter yang ditandai dengan garis yang lebih tebal pada kertas, menyatakan 200 ms (0,2 s) pada sumbu x atau sumbu waktu dan 0,5 mv pada sumbu y atau sumbu amplitudo. 1

Gambar 1. Rekaman EKG pada kertas 1mm 2 [4]. 2.2 Pengertian Aritmia Gangguan irama jantung (aritmia) adalah kelainan dalam kecepatan, irama, tempat asal dari rangsangan (impuls), atau gangguan penghantaran yang menyebabkan perubahan dalam urutan normal aktivasi atrium dan ventrikel.. Gangguan irama jantung juga dapat ditemukan pada orang yang sehat. Sebagian orang dengan gangguan irama jantung bahkan tidak dapat merasakan kelainannya itu. Oleh karena itu, salah satu cara mendeteksi aritmia adalah dengan EKG. Selain itu, untuk mempermudah pendeteksian aritmia, dapat dilakukan klasifikasi sinyal EKG menggunakan jaringan syaraf tiruan. 3 KONSEP DASAR JARINGANN TIRUAN Jaringan syaraf tiruan (JST) adalah suatu metode komputasi yang meniru sistem jaringan syaraf biologis. Metode ini menggunakan elemen perhitungan non-linear dasar yang disebut neuron yang diorganisasikan sebagai jaringan yang saling berhubungan, sehingga mirip dengan jaringan syaraf manusia. JST dibentuk untuk memecahkan suatu masalah tertentu seperti pengenalan pola atau klasifikasi melalui proses training. 3.1 Komponen Neuron SYARA Neuron adalah unit untuk memproses informasi yang merupakan dasar dari operasi JST. Gambar 2 menunjukkan komponen dari neuron. Ada 3 elemen dasan dari neuron, yaitu : 1. Sinapsis atau connecting links yang menghubungkan antara neuron yang satu dengan neuron yang lain, dimana setiap sinapsis memiliki bobot masing-masing. 2. Penjumlah atau adder bertugas menjumlahkan sinyal input yang telah diberi bobot berdasarkan bobot pada sinapsis neuron tersebut. 3. Fungsi aktivasi yang digunakan untuk membatasi keluaran dari sebuah neuron. Gambar 2. Komponenn Neuron [6] 3.2 Fungsi Aktivasi Fungsi ini adalah fungsi umumm yang akan digunakan untuk membawa input menuju output yang diinginkan. Penggunaan fungsi aktivasi ini tergantung pada kebutuhan dan desired output. Fungsi aktivasi yang menentukan rentang output dari sebuah neuron disebut dengan squashing function. Contoh squashing function antara lain : 1. Sigmoid Secara matematis, fungsi ini dapat didefinisikan sebgai berikut : (1) Fungsi ini membatasi output neuron dalam rentang antara 0 hingga 1. Fungsi sigmoid dapat digambarkan seperti Gambar 3 Gambar 3. Fungsi Sigmoid 2. Tangen hiperbolik Fungsi ini mirip dengan fungsi sigmoid, namun nilai outputnya adalah antara -1 hingga 1. Secara matematis, fungsi tangen hiperbolik dapat didefinisikan sebagai berikut : (2) Gambar 4 berikut adalah gambar dari fungsi tangent hiperbolik : Gambar 4. Fungsi Tangen Hiperbolik 2

3.3 Arsitektur JST Secara umum, arsitektur JST dibedakan menjadi 3 macam [6]: 1. Single layer network Pada JST, neuron terkumpul pada sebuah layer atau lapisan. JST dengan sruktur paling sedehana memiliki lapisan input yang meneruskan sinyal input ke lapisan output. Lalu neuron pada lapisan output akan melakukan proses komputasi. Arsitektur ini disebut single layer network yang merujuk pada lapisan output. Lapisan input tidak dihitung karena pada lapisan tersebut tidak ada proses komputasi melainkan hanya meneruskan sinyal input ke lapisan output. Gambar 7. Recurrent network 4 PELATIHAN JST Pada dasarnya, model pelatihan JST dapat dibedakan menjadi dua, yaitu supervised learning dan unsupervised learning. 4.1 Supervised Learning Gambar 5. Single layer network 2. Multilayer network Arsitektur multilayer network memiliki satu atau lebih lapisan tersembunyi yang terletak di antara lapisan input dan lapisan output. Pada lapisan ini, terdapat neuron yang melakukan proses komputasi yang disebut dengan neuron tersembunyi. Dengan tambahan satu atau lebih lapisan tersembunyi, JST dapat menyelesaikan perhitungan yang lebih rumit. Hal ini dapat terjadi ketika ukuran dari lapisan input cukup besar. Gambar 6. Multilayer network 3. Recurrent network Recurrent network sering disebut feedback loop karena neuron output ada yang memberikan informasi terhadap neuron input. Pada model pelatihan ini, pola atau pasangan input dan output diketahui. Pasangan input dan output ini disebut dataset pelatihan. Dengan adanya dataset pelatihan, maka dapat dihasilkan jaringan yang sesuai dengan output yang diinginkan atau desired output. Pada pelatihan JST, desired output merupakan hasil optimum yang dapat dicapai. Oleh karena itu, untuk mencapai hasil optimum tersebut, parameter bebas pada JST diupdate berdasarkan dataset pelatihan serta error. Error yang dimaksud di sini adalah selisih antara desired output dan output sebenarnya. Perbaikan atau update parameter bebas ini dilakukan secara bertahap hingga jaringan mencapi hasil optimum. Ketika jaringan mencapai hasil optimum, maka jaringan dapat mengenali pola serta dapat menghasilkan output tanpa perlu mengetahui desired output. 4.2 Unsupervised Learning Pada model pelatihan unsupervised learning, desired output tidak diketahui. Untuk melakukan model pelatihan ini, dapat digunakan aturan competitive learning. Sebagai contoh, jika sebuah jaringan terdiri dari dua lapisan, yaitu lapisan input dan lapisan competitive, maka lapisan input menerima data yang ada. Sedangkan lapisan competitive berisi neuron yang bersaing satu sama lain dengan strategi tertentu. Lalu, neuron dengan total input terbesar akan memenangkan persaingan dan tetap hidup, sedangkan neuron yang lain mati. 5 MULTILAYER NETWORK Seperti yang telah dijelaskan secara singkat pada bab 2.2.3, multilayer network dapat menyelesaikan permasalahan yang lebih kompleks dibandingkan dengan single layer network, meskipun memiliki tingkat kerumitan yang tinggi dan cenderung membutuhkan waktu yang lama dalam proses pelatihannya. Multilayer network dapat menyelesaikan permasalahan yang rumit dengan model pelatihan supervised learning menggunakan algoritma backpropagation. 3

5.1 Algoritma Umum Backpropagation Pada dasarnya, algoritma backpropagation terdiri dari dua tahap, yaitu feed forward dan backpropagation. Pada tahap feedforward, sinyal input diberikan ke dalam jaringan yang kemudian dilakukan komputasi oleh neuron pada setiap lapisan sehingga menghasilkan output sebenarnya. Pada tahap feed forward ini, bobot pada sinapsis tidak mengalami perubahan. Sebaliknya, pada tahap backpropagation, semua bobot pada sinapsis diperbaiki berdasarkan error jaringan. Bobot pada sinapsis diperbaiki untuk membuat output sebenarnya semakin mendekati desired output. Secara detail, langkah training dengan algoritma backpropagation adalah sebagai berikut : 1. Langkah 0 Inisialisasi bobot, learning rate, jumlah neuron pada lapisan tersembunyi, serta tentukan jumlah epoch dan toleransi error sebagai kondisi berhenti. Serta masukkan data input dan targetnya. 2. Langkah 1 Selama kondisi berhenti belum tercapai, maka lakukan langkah ke-2 hingga langkah ke-9. 3. Langkah 2 Untuk setiap pasangan pola training, lakukan langkah ke-3 hingga langkah ke-8. Tahap I : Feed forward 4. Langkah 3 Setiap neuron input x i (dari neuron ke-1 hingga neuron ke-n pada lapisan input) mengirimkan sinyal input ke setiap neuron yang berada pada lapisan tersembunyi. 5. Langkah 4 Masing-masing neuron di lapisan tersembunyi (dari neuron ke-1 hingga neuron ke-p) mengalikan sinyal input dengan bobotnya dan dijumlahkan dengan bias. Proses ini dilakukan dengan persamaan (3): (3) Hasil tersebut lalu dimasukkan ke dalam fungsi aktivasi pada lapisan tersembunyi. Jika fungsi aktivasi tersebut adalah fungsi sigmoid, maka digunakan persamaan (4): 1 1 (4) 6. Langkah 5 Masing-masing neuron pada lapisan output (dari neuron ke-1 hingga neuron ke-m) mengalikan output dari neuron tersembunyi ( ) dengan bobot dan dijumlahkan dengan bias. Proses ini dilakukan dengan persamaan (5): (5) Hasil tersebut lalu dimasukkan ke dalam fungsi aktivasi pada lapisan output. Jika fungsi aktivasi tersebut adalah fungsi sigmoid, maka digunakan persamaan (6) Tahap II : Back propagation 1 1 (6) 7. Langkah 6 Masing-masing neuron pada lapisan output menerima pola target ( ) sesuai dengan pola input saat training. Kemudian, informasi kesalahan/error lapisan output ( ) dihitung. dikirim ke lapisan sebelumnya dan digunakan untuk menghitung besarnya koreksi bobot dan bias antara lapisan tersembunyi dengan lapisan output ( & ). Perhitungan dihitung dengan persamaan (7): (7) Setelah itu, hitung suku perubahan bobot yang akan digunakan untuk merubah bobot dengan persamaan (8): (8) Suku perubahan bias dihitung dengan persamaan (9): (9) Masing-masing neuron pada lapisan output melakukan perubahan bobot dan bias dengan persamaan (10) dan (11): (10) (11) 8. Langkah 7 Pada setiap neuron di lapisan tersembunyi dilakukan perhitungan informasi kesalahan pada lapisan tersembunyi ( ). Kemudian digunakan untuk menghitung besar koreksi bobot dan bias antara lapisan input dengan lapisan tersembunyi. Perhitungan dihitung dengan persamaan (12) dan (13): (12) (13) 4

Setelah itu, hitung suku perubahan bobot yang akan digunakan untuk merubah bobot dengan persamaan (14): (14) Suku perubahan bias dihitung dengan persamaan (15): (15) Masing-masing neuron pada lapisan tersembunyi melakukan perubahan bobot dan bias dengan persamaan (16) dan (17): (16) (17) 9. Langkah 8 Uji kondisi berhenti Keterangan: adalah bias pada lapisan tersembunyi adalah bobot antara lapisan input dan lapisan tersembunyi adalah sinyal input adalah jumlah neuron input adalah jumlah neuron tersembunyi adalah jumlah neuron output adalah bias pada lapisan output adalah bobot antar lapisan tersembunyi dan lapisan output adalah target output atau desired output adalah learning rate 5.2 Optimalisasi Arsitektur dengan Inisialisai Nguyen-Widrow Bobot awal akan memengaruhi apakah jaringan mencapai titik minimum dan seberapa cepat konvergensinya. Nguyen dan Widrow mengusulkan cara melakukan inisialisasi bobot dan bias dari neuron input ke neuron tersembunyi berdasarkan jumlah neuron input dan neuron tersembunyi. Dengan algoritma inisialisasi Nguyen-Widrow ini, diharapkan dapat menghasilkan iterasi yang lebih cepat. Algoritma inisialisasi Nguyen- Widrow adalah sebagai berikut : 1. Inisialisasi semua bobot dari lapisan input ke lapisan output dengan bilangan acak dalam interval 1: 1 2. Hitung (2.18) Bobot yang dipakai sebagai inisialisasi adalah (19) dengan adalah factor skala Nguyen-Widrow yang didefinisikan pada persamaan (20) : 0.7 di mana : jumlah neuron input jumlah neuron tersembunyi (20) Bias yang dipakai sebagai inisialisasi adalah bilangan acak dalam interval β: β 6 JST DENGAN FUNGSI AKTIVASI ADAPTIF Algoritma training JST dengan fungsi aktivasi adaptif sama dengan algoritma backpropagation yang telah dijelaskan pada bab 2.4.1, yang membedakan adalah jika backpropagation biasa hanya melakukan perbaikan bobot dan bias, pada algoritma ini juga dilakukan perbaikan parameter bebas. Seperti perbaikan bobot dan bias, perbaikan parameter bebas pada fungsi aktivasi dilakukan pada langkah 7 pada tahap backpropagation. Fungsi aktivasi yang digunakan pada Tugas Akhir ini ada 3, di mana salah satunya adalah fungsi sigmoid seperti pada persamaan (1). Fungsi sigmoid ini digunakan pada neuron output di 3 model JST yang diaplikasikan pada Tugas Akhir ini, serta digunakan pada neuron tersembunyi di model JST-1. Dua fungsi aktivasi lain dapat dilihat pada persamaan (20) dan (21) : (20) (21) Persamaan (20) adalah fungsi aktivasi yang akan digunakan pada neuron tersembunyi pada model JST-2. Sedangkan persamaan (21) adalah fungsi aktivasi yang akan digunakan pada neuron tersembunyi pada model JST-3. Pada 3 persamaan tersebut,,,,,, adalah parameter bebas pada fungsi aktivasi tersebut. Perbaikan parameter bebas pada fungsi aktivasi menggunakan rumus sama dengan rumus yang digunakan untuk perbaikan bias pada langkah 7 pada tahap backpropagation. Namun, turunan dari fungsi aktivasi disesuaikan dengan fungsi aktivasi yang digunakan pada lapisan tersembunyi. Untuk melakukan perbaikan parameter bebas, maka fungsi aktivasi tersebut diturunkan terhadap masing-masing parameter bebas. 7 ALGORITMA Secara umum, input awal dari sistem klasifikasi aritmia EKG ini adalah titik koordinat dari grafik EKG. Jumlah titik koordinat yang digunakan sebagai input sama dengan jumlah neuron pada lapisan input dari JST, yaitu 200 neuron. Data tersebut kemudian diolah pada tahap 5

praproses, yaitu dilakukan proses normalisasi dengan rentang 0 hingga 1. Hasil normalisasi tersebut akan digunakan pada tahap proses, yang terdiri dari tahap training dan testing. Hasil akhir pada tahap testing ini adalah berupa 8 jenis aritmia EKG. 7.1 Tahap Praproses Data yang didapatkan dari database MIT-BIH[4] memiliki rentang data yang sangat luas. Hal ini akan menyulitkan JST untuk mengenali pola data pada saat tahap training. Oleh karena itu, sebelum digunakan sebagai input pada sistem, maka data tersebut dinormalisasi dalam rentang 0 hingga 1 menggunakan persamaan berikut (22) 7.2 Tahap Training Seperti yang telah dijelaskan pada bab 5.1, tahap training dengan algoritma backpropagation yang digunakan pada proses klasifikasi aritmia EKG ini dibagi menjadi 2 tahap, yaitu tahap feed forward dan tahap backpropagation. Langkah yang akan dilakukan untuk proses klasifikasi ini adalah sebagai berikut : 1. Langkah 0 Menginisialisasi bobot dan bias dengan algoritma Nguyen-Widrow yang telah dijelaskan pada bab 5.2. Menentukan learning rate, jumlah neuron pada lapisan tersembunyi, serta jumlah epoch dan toleransi error sebagai kondisi berhenti. Serta memasukkan data input dan targetnya. 2. Langkah 1 Selama kondisi berhenti belum tercapai, maka dilakukan langkah ke-2 hingga langkah ke-9. 3. Langkah 2 Untuk setiap pasangan data input dan target, dilakukan langkah ke-3 hingga ke-8. Tahap I : Feed forward 4. Langkah 3 Neuron pada lapisan input mengirimkan data input ke lapisan tersembunyi. 5. Langkah 4 Menghitung keluaran dari neuron pada lapisan tersembunyi dengan persamaan (3) dan (4) 6. Langkah 5 Menghitung keluaran dari neuron pada lapisan output dengan persamaan (5) dan (6) Tahap II : Backpropagation 7. Langkah 6 Menghitung suku perubahan bobot dan bias antara lapisan tersembunyi dan lapisan output berdasarkan persamaan (7), (8) dan (9). Lalu menghitung bobot dan bias baru dengan rumus (10) dan (11). 8. Langkah 7 Menghitung suku perubahan bobot dan bias antara lapisan input dan lapisan tersembunyi berdasarkan persamaan (12), (13), (14) dan (15). Lalu menghitung bobot dan bias baru dengan rumus (16) dan (17). Lalu, pada tahap ini juga dilakukan perbaikan parameter bebas pada fungsi aktivasi seperti yang telah dijelaskan pada bab 3. 9. Langkah 8 Melakukan uji kondisi berhenti, berupa jumlah epoch dan toleransi error. 7.3 Tahap Testing Tahap testing yang dilakukan untuk mengetahui apakah jaringan dapat mengenali pola dengan memberikan input yang mungkin berbeda dengan input pada tahap training, tanpa memberikan desired output. Pada tahap ini, dilakukan langkah ke-3 hingga ke-5 pada tahap training. 8 UJI COBA DAN EVALUASI Data utama yang digunakan pada uji coba ini adalah 170 data EKG yang masing-masing data terdiri dari 200 titik koordinat EKG. Data tersebut berasal dari database EKG milik MIT-BIH[4] yang telah dilakukan proses normalisasi sehingga memiliki rentang antara 0 hingga 1. 8.1 Skenario Uji Coba Pada skenario uji coba ini, akan dilakukan 2 kali uji coba dengan melakukan perubahan proporsi jumlah data training dan data testing. Pada uji coba 1 digunakan 60% data training dan 40% data testing, sedangkan pada uji coba 2 digunakan 80% data training dan 20% data testing. Pada 2 uji coba tersebut, dilakukan uji coba menggunakan learning rate yang berbeda-beda, yaitu 0.01, 0.009 dan 0.008. Kemudian untuk setiap learning rate, digunakan jumlah neuron tersembunyi yang berbeda, yaitu 30, 40 dan 50. Setelah itu dihitung akurasi untuk 3 metode, yaitu JST klasik (JST-1) dan JST dengan fungsi aktivasi adaptif (JST-2 dan JST-3). Pada setiap metode dalam satu uji coba akan dicari learning rate dan jumlah neuron tersembunyi dengan akurasi terbesar. Kemudian akurasi terbesar dari masingmasing metode tersebut dibandingkan. Uji Coba 1 Pada uji coba 1 ini pembagian proporsi data uji coba adalah data training sebesar 60% dan testing sebesar 40%. Berikut Tabel 1, Tabel 2 dan Tabel 3 yang menunjukkan hasil akurasi untuk masing-masing metode. Tabel 1 Akurasi JST- 1 dengan 60% Data Training dan 40% Data Testing 0.01 30 97.97 0.01 40 98.07 0.01 50 98.1 0.009 30 97.83 0.009 40 97.94 6

0.009 50 97.97 0.008 30 97.65 0.008 40 97.76 0.008 50 97.8 Tabel 2 Akurasi JST- 2 dengan 60% Data Training dan 40% Data Testing 0.01 30 99.26 0.01 40 99.19 0.01 50 99.18 0.009 30 99.26 0.009 40 99.3 0.009 50 99.19 0.008 30 99.23 0.008 40 99.24 0.008 50 99.19 Tabel 3 Akurasi JST- 3 dengan 60% Data Training dan 40% Data Testing 0.01 30 98.62 0.01 40 98.79 0.01 50 97.98 0.009 30 98.58 0.009 40 98.9 0.009 50 98.98 0.008 30 99.05 0.008 40 98.64 0.008 50 99 Berdasarkan hasil uji coba tersebut, diketahui bahwa akurasi terbesar yang dicapai oleh JST-1 pada uji coba 1 ini adalah 98.1% dengan learning rate 0.01 dan 50 neuron tersembunyi. Sedangkan untuk JST-2, akurasi tebesar yang dicapai adalah 99.3% dengan learning rate 0.009 dan 40 neuron tersembunyi. Lalu untuk JST-3, akurasi terbesar yang dicapai adalah 99.05% dengan learning rate 0.008 dan 30 neuron tersembunyi. Hasil tersebut dapat dilihat pada Tabel 4. Tabel 4 Akurasi Terbesar untuk JST-1, JST-2 dan JST-3 dengan 60% Data Training dan 40% Data Testing Metode Learning Rate Jumlah neuron Tersembunyi JST-1 0.01 50 98.1 JST-2 0.009 40 99.3 JST-3 0.008 30 99.05 Dari Tabel 5.5 dapat dilihat bahwa akurasi JST-2 dan JST-3 yang merupakan JST dengan fungsi aktivasi adaptif lebih besar daripada JST-1 yang merupakan JST klasik. Uji Coba 2 Pada uji coba 1 ini pembagian proporsi untuk data training dan testing adalah data training sebesar 80% dan testing sebesar 20%. Berikut Tabel 5, Tabel 6 dan Tabel 7 yang menunjukkan hasil akurasi untuk masing-masing metode. Tabel 5 Akurasi JST- 1 dengan 80% Data Training dan 20% Data Testing 0.01 30 97.49 0.01 40 97.21 0.01 50 97.54 0.009 30 97.54 0.009 40 97.12 0.009 50 97.22 0.008 30 97.92 0.008 40 97.87 0.008 50 97.22 Tabel 6 Akurasi JST- 2 dengan 80% Data Training dan 20% Data Testing 0.01 30 99.5 0.01 40 99.23 0.01 50 99.49 0.009 30 99.45 0.009 40 99.34 0.009 50 99.33 0.008 30 99.26 0.008 40 99.59 0.008 50 99.06 Tabel 7 Akurasi JST- 3 dengan 80% Data Training dan 20% Data Testing 0.01 30 99.5 0.01 40 99.3 0.01 50 99.52 0.009 30 99.54 0.009 40 99.18 0.009 50 99.14 0.008 30 99.37 0.008 40 99.02 0.008 50 99.27 Berdasarkan hasil uji coba tersebut, diketahui bahwa akurasi terbesar yang dicapai oleh JST-1 pada uji coba 2 ini adalah 97.92% dengan learning rate 0.008 dan 30 neuron tersembunyi. Sedangkan untuk JST-2, akurasi tebesar yang dicapai adalah 99.59% dengan learning rate 0.008 dan 40 neuron tersembunyi. Lalu untuk JST-3, akurasi terbesar yang dicapai adalah 99.54% dengan learning rate 0.009 dan 30 neuron tersembunyi. Hasil tersebut dapat dilihat pada Tabel 8. 7

Tabel 8 Akurasi Terbesar untuk JST-1, JST-2 dan JST-3 dengan 80% Data Training dan 20% Data Testing Metode Learning Rate Jumlah neuron Tersembunyi JST-1 0.008 30 97.92 JST-2 0.008 40 99.59 JST-3 0.009 30 99.54 Dari Tabel 8 dapat dilihat bahwa akurasi JST-2 dan JST-3 yang merupakan JST dengan fungsi aktivasi adaptif lebih besar daripada JST-1 yang merupakan JST klasik. 8.2 Evaluasi Dari hasil uji coba yang telah dilakukan, dapat diketahui bahwa setiap metode membutuhkan jumlah learning rate dan neuron tersembunyi yang berbeda untuk mendapatkan akurasi yang terbesar. Selain itu, berdasarkan uji coba 1 dan uji coba 2, proporsi data training dan testing pada proses klasifikasi aritmia EKG juga sangat mempengaruhi hasil klasifikasi. Lalu, pada hasil uji coba pertama akurasi terbesar yang dicapai JST-2 dan JST-3 berturut-turut adalah 99.3% dan 99.05%. Hasil akurasi 2 metode tersebut lebih baik dibandingkan JST-1 yang akurasinya 98.1%. Begitu pula pada uji coba kedua. Akurasi yang dicapai JST-2 dan JST-3 yaitu 99.59% dan 99.54%. Akurasi tersebut lebih besar daripada akurasi yang dicapai JST-1, yaitu 97.92%. Berdasarkan hasil kedua uji coba tersebut, metode JST-2 dan JST-3 yang merupakan JST dengan fungsi aktivasi adaptif memiliki nilai akurasi yang lebih besar daripada metode JST-1 yang merupakan JST klasik. REFERENSI [1] Y. Özbay, G. Tezel, A new method for classification of ECG arrhythmias using neural network with adaptive activation function, Digital Signal Processing 20 (2010) 1040 1049. [2] R. Hampton, John. 2006. Dasar-Dasar EKG. Diterjemahkan oleh Prof. Dr. dr. A. Samik Wahab, SpA(K). Jakarta : Penerbit Buku Kedokteran ECG. [3] Abedin, Zainul. Conner, Robert. 2008. ECG Interpretation. Blackwell Publishing. [4] Physiobank archive index, MIT-BIH Database, <URL: http://www.physionet.org/physiobank/database diakses 10 Juli 2011> [5] S. Haykin. 1999. Neural Networks : A Comprehensive Foundation, 2 nd edition. United State of America : Prentice Hall 9 KESIMPULAN Berdasarkan hasil uji coba yang telah dilakukan, terdapat beberapa kesimpulan yang dapat diambil, yaitu: 1. Dengan melihat hasil uji coba terlihat bahwa klasifikasi aritmia EKG menggunakan JST dengan fungsi aktivasi adaptif mencapai akurasi yang lebih besar dibandingkan dengan JST klasik. Yaitu pada uji coba pertama JST-2 mencapai akurasi 99.3% dan JST-3 mencapai akurasi 99.05%. Sedangkan JST-1 mencapai akurasi 98.1%. Lalu pada uji coba kedua JST-2 dan JST-3 mencapai akurasi berturut-turut 99.59% dan 99.54%, sedangkan JST-1 mencapai akurasi 97.92%. 2. Dari kedua uji coba dengan proporsi data yang berbeda, dapat dilihat bahwa JST dengan fungsi aktivasi adaptif mencapai akurasi yang lebih besar dengan proporsi data training 80% dan data testing 20%. 8

9