BAB IV IMPLEMENTASI DAN EVALUASI. Bab ini menguraikan proses implementasiuntuk tahap pelatihanneural networks,

dokumen-dokumen yang mirip
BAB 3 PERANCANGAN SISTEM. untuk pengguna interface, membutuhkan perangkat keras dan perangkat lunak.

BAB 3 METODOLOGI PENELITIAN

z_in ( ) dan mengaplikasikan fungsi aktivasi untuk menghitung sinyal output ( ) Propagasi balik:

lalu menghitung sinyal keluarannya menggunakan fungsi aktivasi,

Aplikasi yang dibuat adalah aplikasi untuk menghitung. prediksi jumlah dalam hal ini diambil studi kasus data balita

BAB IV IMPLEMENTASI DAN PENGUJIAN

SATIN Sains dan Teknologi Informasi

PENERAPAN JARINGAN SYARAF TIRUAN DALAM MEMPREDIKSI TINGKAT PENGANGGURAN DI SUMATERA BARAT

BAB II LANDASAN TEORI

BAB 3 ANALISIS DAN PERANCANGAN PROGRAM

BAB III METODE PENELITIAN. Pemotong an Suara. Convert. .mp3 to.wav Audacity. Audacity. Gambar 3.1 Blok Diagram Penelitian

Pengembangan Aplikasi Prediksi Pertumbuhan Ekonomi Indonesia dengan Jaringan Syaraf Tiruan Backpropagation

BAB III METODOLOGI PENELITIAN

Penerapan Jaringan Saraf Tiruan Metode Backpropagation Menggunakan VB 6

BAB 3 PERANCANGAN SISTEM. Bab ini menguraikan analisa penelitian terhadap metode Backpropagation yang

BAB III METODE PENELITIAN. Penelitian ini dilaksanakan Februari 2014 sampai dengan Juli 2014 di

BAB 4 IMPLEMENTASI DAN EVALUASI

SATIN Sains dan Teknologi Informasi

BAB I PENDAHULUAN. memberikan kesempatan kepada manusiauntuk mengekspresikan dan melibatkan segala

BAB 4 IMPLEMENTASI DAN EVALUASI

BAB III METODOLOGI PENELITIAN

Jaringan Syaraf Tiruan Menggunakan Algoritma Backpropagation Untuk Memprediksi Jumlah Pengangguran (Studi Kasus DiKota Padang)

JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI CURAH HUJAN SUMATERA UTARA DENGAN METODE BACK PROPAGATION (STUDI KASUS : BMKG MEDAN)

PENGENALAN HURUF DAN ANGKA PADA CITRA BITMAP DENGAN JARINGAN SARAF TIRUAN METODE PROPAGASI BALIK

BAB 2 KONSEP DASAR PENGENAL OBJEK

BAB 3 ANALISIS DAN PERANCANGAN

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MENGETAHUI LOYALITAS KARYAWAN

BAB II DASAR TEORI Jaringan Syaraf Tiruan. Universitas Sumatera Utara

METODOLOGI PENELITIAN

BAB 3 METODOLOGI PENELITIAN

UNIVERSITAS BINA NUSANTARA. Jurusan Teknik Informatika Skripsi Sarjana Komputer Semester Ganjil tahun 2006/2007

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI VOLUME PEMAKAIAN AIR BERSIH DI KOTA PONTIANAK

BAB 4 DISAIN MODEL. Pengguna. Citra. Ekstraksi Ciri x. Antar muka (Interface) Data Hasil Ekstraksi Ciri. Testing dan Identifikasi.

BAB II. Penelitian dengan jaringan syaraf tiruan propagasi balik. dalam bidang kesehatan sebelumnya pernah dilakukan oleh

BAB III ANALISIS DAN PERANCANGAN SISTEM. forecasting produksi gula berdasarkan hasil laporan tahunan PTPN IX

Perbaikan Metode Prakiraan Cuaca Bandara Abdulrahman Saleh dengan Algoritma Neural Network Backpropagation

BAB 3 ANALISIS DAN PERANCANGAN SISTEM

BAB III METODOLOGI PENELITIAN

Arsitektur Jaringan Salah satu metode pelatihan terawasi pada jaringan syaraf adalah metode Backpropagation, di mana ciri dari metode ini adalah memin

BAB III METODE PENELITIAN. Desain penelitian untuk pengenalan nama objek dua dimensi pada citra

Jurnal Informatika Mulawarman Vol 5 No. 1 Februari

BAB 3 ANALISIS DAN PERANCANGAN PROGRAM APLIKASI

BACK PROPAGATION NETWORK (BPN)

BAB 2 TINJAUAN PUSTAKA

BAB 2 LANDASAN TEORI. suatu perusahaan yang akan memberikan keuntungan dalam bentuk deviden dan capital

Presentasi Tugas Akhir

BAB II LANDASAN TEORI

ANALISA JARINGAN SARAF TIRUAN DENGAN METODE BACKPROPAGATION UNTUK MEMPREDIKSI PRODUKTIVITAS PEGAWAI. Jasmir, S.Kom, M.Kom

3. METODE PENELITIAN

BAB II DASAR TEORI. 2.1 Citra Digital

PREDIKSI CURAH HUJAN DI KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

PERANCANGAN SISTEM PENGENALAN DAN PENYORTIRAN KARTU POS BERDASARKAN KODE POS DENGAN MENGGUNAKAN ARTIFICIAL NEURAL NETWORK

BAB II LANDASAN TEORI

BAB III METODE PENELITIAN

Gambar 3.1 Desain Penelitian

Architecture Net, Simple Neural Net

BAB III ANALISIS DAN PERANCANGAN

Muhammad Fahrizal. Mahasiswa Teknik Informatika STMIK Budi Darma Jl. Sisingamangaraja No. 338 Simpanglimun Medan

MODEL PEMBELAJARAN JARINGAN SYARAF TIRUAN UNTUK OTOMATISASI PENGEMUDIAN KENDARAAN BERODA TIGA

BAB III METODOLOGI PENELITIAN

PEMANFAATAAN BIOMETRIKA WAJAH PADA SISTEM PRESENSI MENGGUNAKAN BACKPROPAGATION NEURAL NETWORK

SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON

VOL. 01 NO. 02 [JURNAL ILMIAH BINARY] ISSN :

BAB 4 IMPLEMENTASI DAN EVALUASI. Processor Intel Pentium IV 2.41GHz RAM 512 MB DDR. Hard disk 40 GB. Monitor 15 Samsung SyncMaster 551v

BAB 1 PENDAHULUAN 1.1. Latar Belakang Masalah

Studi Modifikasi standard Backpropagasi

ANALISIS JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI JUMLAH RESERVASI KAMAR HOTEL DENGAN METODE BACKPROPAGATION (Studi Kasus Hotel Grand Zuri Padang)

Prediksi Jumlah Penjualan Air Mineral Pada Perusahaan XYZ Dengan Jaringan Saraf Tiruan

UNIVERSITAS BINA NUSANTARA. Jurusan Teknik Informatika Skripsi Sarjana Komputer Semester Ganjil Tahun 2006/2007

BAB 4 IMPLEMENTASI DAN EVALUASI. perangkat keras dan perangkat lunak yang digunakan untuk pemakaian aplikasi yang

BAB IV HASIL DAN PEMBAHASAN

Seminar Nasional Ilmu Komputer (SNIK 2016) - Semarang, 10 Oktober 2016 ISBN:

BAB 3 PERANCANGAN SISTEM PENGENAL SUARA

PERANCANGAN PROGRAM PENGENALAN BENTUK MOBIL DENGAN METODE BACKPROPAGATION DAN ARTIFICIAL NEURAL NETWORK SKRIPSI

BAB 4 IMPLEMENTASI DAN EVALUASI. aplikasi. Proses implementasi basis data dilakukan dengan menggunakan DDL dari

PREDIKSI PENDAPATAN ASLI DAERAH KALIMANTAN BARAT MENGGUNAKAN JARINGAN SYARAF TIRUAN BACKPROPAGATION

BAB II TINJAUAN PUSTAKA

Implementasi Jaringan Syaraf Tiruan Backpropagation dan Steepest Descent untuk Prediksi Data Time Series

BACKPROPAGATION NEURAL NETWORK AS A METHOD OF FORECASTING ON CALCULATION INFLATION RATE IN JAKARTA AND SURABAYA

BAB 4 IMPLEMENTASI DAN EVALUASI PROGRAM. Processor : Intel Pentium IV 1.60 GHz RAM : 256 MB

BAB 1 PENDAHULUAN. 1 Universitas Kristen Maranatha. Gambar 1.1 : Ilustrasi jaringan syaraf manusia yang diadaptasi untuk ANN (Kriesel, 2011)

BAB III METODE PENELITIAN

BAB 4 IMPLEMENTASI DAN EVALUASI

BAB III PERANCANGAN SISTEM

PERANCANGAN APLIKASI MENGIDENTIFIKASI PENYAKIT MATA DENGAN MENGGUNAKAN METODE BACKPROPAGATION

BAB 4 IMPLEMENTASI. minimum 2 Giga Hertz dan memory RAM minimum 256 MB, sedangkan untuk

BAB 4 IMPLEMENTASI DAN EVALUASI. Perangkat keras yang digunakan untuk merancang sistem ini adalah: Processor : Intel Pentium IV 2,13 GHz

Jurnal Ilmiah Komputer dan Informatika (KOMPUTA) IMPLEMENTASI JARINGAN SYARAF TIRUAN BACKPROPAGATION UNTUK MENGENALI MOTIF BATIK

BAB 2 LANDASAN TEORI

BAB 4 IMPLEMENTASI DAN EVALUASI

BAB 4 IMPLEMENTASI DAN EVALUASI PROGRAM. implementasi dari program aplikasi yang dibuat. Penulis akan menguraikan

Jaringan syaraf dengan lapisan tunggal

MILIK UKDW. Bab 1 PENDAHULUAN. 1.1 Latar Belakang

BAB IV HASIL DAN PEMBAHASAN

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB IV HASIL DAN PEMBAHASAN. perangkat. Alat dan bahan yang digunakan sebelum pengujian:

PENGENAL HURUF TULISAN TANGAN MENGGUNAKAN JARINGAN SARAF TIRUAN METODE LVQ (LEARNING VECTOR QUANTIZATION) By. Togu Sihombing. Tugas Ujian Sarjana

SATIN Sains dan Teknologi Informasi

BAB IV HASIL DAN PEMBAHASAN

Transkripsi:

BAB IV IMPLEMENTASI DAN EVALUASI Bab ini menguraikan proses implementasiuntuk tahap pelatihanneural networks, pengenalan not, pembangkitan not, dan tahap evaluasi. Aplikasi yang digunakan untuk pengujian ini dibuat dengan bahasa pemrograman C++.Pada penelitian ini spesifikasi sistem perangkat keras dan lunak yang digunakan adalah sebagai berikut : a. Processor Intel dual core 2.0 GHz b. DDR3 RAM 2GB c. Hard Disk 80 GB d. Monitor 15 e. Speaker dan headset f. Microphone g. Keyboard dan mouse h. Microsoft Windows 7 i. Microsoft Visual C++ 2008 Express Edition Spesifikasi di atas merupakan sistem komputer yang tidak mutlak dibutuhkan untuk menjalankan aplikasi pengujian pada penelitian ini. Perancangan, pembuatan, dan percobaan sistem ini dilakukan dengan menggunakan software Visual C++ dan diawali dengan sampling, quatization, transformasi fourier, encoding, proses training dan aplikasi Jaringan Syaraf Tiruan atau Neural Networks dan hasil output yang merupakan pembangkitan not. 72

73 4.1 Implementasi Bagian ini menguraikan tentang implementasi trainingneural networks,pengenalan not,dan proses pembangkitan not, serta implementasi dari rancangan layar dengan cara pengoperasian pada masing-masing bagian menu dan proses-proses yang terjadi selama sistem berjalan. 4.1.1 Implementasi Pelatihan Neural Networks dan Pengenalan Not Pelatihan not-not pada piano dilakukan dengan menggunakan metode trainingneural networks pada program C++.Setelah itu dilakukan proses pengenalan not dengan membandingkan inputyang ingin dikenali notnya dengan hasil training. 4.1.1.1 Pengubahan Not MenjadiVektor (pada TRAINING) Pada proses rekam, suara piano yang berbentuk sinyal analog direkam kemudian disimpan dalam bentuk WAV. Pada proses penyimpanan file dalam bentuk WAV, dilakukan sampling, quantitation, dan encoding. Dilakukan proses FFT (Fast Fourier Transform) pada suara piano yang telah melewati proses encodinguntuk mendapatkan komponen-komponen frekuensi dari not yang ada pada suara tersebut. Frekuensi not ditentukan dengan cara mencari komponen frekuensi yang memiliki amplitudo/simpangan terpanjang paling besar.selanjutnya, frekuensi not yang telah didapat dari proses FFT diubah dalam bentuk kode untuk menjadi inputdalamtrainingneural Networks. Kode yang digunakan untuk inputtrainingneural Networks ini adalah not dasar beserta posisi not pada piano (posisi urutan oktaf pada piano). Suara-suara not yang didaftarkan dan nilai kode masingmasing not untuk inputneural Networks dapat dilihat pada tabel 4.1.

74 Posisi urutan oktaf diberi kode sesuai dengan letak not tersebut pada piano.notnot yang digunakan untuktraining berada di oktaf ke-4 dan ke-5sehingga kode untuk posisi oktaf adalah 0.4 dan 0.5. Sebagai contoh, kode untuk not C yang digunakan dalam Neural Networks adalah [0.02 0.4]. No. Tabel 4.1 List suara not yang didaftarkan beserta nilai kode-nya Suara not yang didaftarkan Kode Input NN 1 C 4 0.02 0.4 2 C# 4 0.10 0.4 3 D 4 0.18 0.4 4 D# 4 0.26 0.4 5 E 4 0.34 0.4 6 F 4 0.42 0.4 7 F# 4 0.50 0.4 8 G 4 0.58 0.4 9 G# 4 0.66 0.4 10 A 4 0.74 0.4 11 A# 4 0.82 0.4 12 B 4 0.90 0.4 13 C 5 0.02 0.5 14 C# 5 0.10 0.5 15 D 5 0.18 0.5 16 D# 5 0.26 0.5 17 E 5 0.34 0.5 18 F 5 0.42 0.5 19 F# 5 0.50 0.5 20 G 5 0.58 0.5 21 G# 5 0.66 0.5 22 A 5 0.74 0.5 23 A# 5 0.82 0.5 24 B 5 0.90 0.5 Dalam pelatihan atau trainingneural Networks pada sistem digunakan 12 sampel suara not. Sampel suara not yang di training kemudian digunakan untuk proses

75 pembelajaran pengenalan not pada input data yang baru serta proses aplikasi Neural Networks dengan metode Backpropagation dan dilakukan secara berulang-ulang, sehingga not-not tersebut dapat dikenali oleh sistem dan sistem dapat mengeluarkan output berupa not balok yang merupakan not dari input data yang masuk. Ketika pengguna memasukkan lagu instrumen piano sebagai input melalui file yang telah ada dalam komputer pengguna atau merekam suara piano, sistem melakukan proses pengenalan pada not-not yang terdapat pada lagu tersebut, kemudian not yang berhasil dikenali dibangkitkan dalam bentuk partitur atau not balok. 4.1.1.2 Cara Kerja Neural Networks (Pengenalan not pada APLIKASI) Pada proses pelatihan data dilakukan proses pembelajaran 12 not pada Jaringan Syaraf Tiruan atau Neural Networks, yaitu C, C#, D, D#, E, F, F#, G,G#, A, A#, dan B seperti yang telah dijelaskan pada bagian sebelumnya, kemudian NeuralNetworksmengubah bobot(weight) untuk mendapat output sesuai dengan target pembelajaran (target output). Sebelum proses pengenalan not (recognize), pengguna harus terlebih dahulu memasukkan input ke dalam sistem. Input didapatkan dengan cara merekam suara piano dan kemudian disimpan dalam bentuk WAV atau dengan membuka file lagu (format WAV) yang telah tersimpan dalam komputer pengguna. Setelah itu, sistem dapat melakukan tahapan pengenalan not pada file suara yang telah diinput pengguna. Kemudian pada file suara tersebut akan dilakukan FFT seperti proses pelatihan data dan ditentukan frekuensi dari not-not tersebut. Frekuensi not yang telah ditemukan dari proses FFT diubah dalam bentuk kode seperti yang telah dijelaskan sebelumnya akan menjadi input dari Neural Networks.Neural Networks yang menerima input berupa

76 frekuensi dan posisi oktaf akan mengeluarkan output berupa kode outputnot dalam bentuk vektor. a. Arsitektur dan Perhitungan Neural Networks Backpropagation Topologi atau pola hubungan antar neuron / node yang digunakan terdiri dari 1 lapisan input (inputlayer), 1 lapisan tersembunyi (hiddenlayer), dan 1 lapisan output (outputlayer) dengan 2-6-5 (2 neuron pada lapisan input, 6neuron pada lapisan hidden, 5neuron pada lapisan output). Hidden Layer = (2 * InputLayer) / 3 + OutputLayer... 1 Hidden Layer = (2 * 2) / 3 + 5 = 6,33 = 6 Dimensiinputlayer (Xi) atau n adalah 2, dimensi outputlayer (Yi) atau k adalah 6, dan dimensi hiddenlayer (Zi) atau p adalah 5. Dimana n p k. n dan m ditentukan berdasarkan jumlah karakteristik objek yang ingin diteliti. Fungsi aktivasi yang digunakan adalah fungsi sigmoid biner karena fungsi sigmoid biner mempunyai rentang nilai output antara 0 sampai 1. Perhitungan NeuralNetworks disesuaikan dengan algoritma training dan algoritma aplikasi. Gambar 4.1 merupakan gambar arsitektur jaringan Backpropagation dengan notasi-notasi lengkap :

77 Gambar 4.1 Arsitektur Jaringan Backpropagation Gambar 4.1 dibuat setelah menentukan dimensi input, hidden, dan outputlayer. Node 1 merupakan sinyal bias, v dan w merupakan matriks bobot, sedangkan V 0p dan W 0k merupakan matriks bias. Sebelum menentukan inisialisasi nilai matriks bobot dan bias, ditentukan pasangan pola Xi dan Yi.Xi didapatkan dari representasi input dalam bentuk vektor danyi didapatkan dari pengkodean output dalam bentuk vektor. Berikut pola (Xi,Yi) yang akan disimpan dalam Neural Networks model Backpropagation :

78 Pasangan pola Xi,Yi yang disimpan di NN Backpropagation X 1 = (0.02 0.4) X 13 = (0.02 0.5) Y 1 = (0 0 0 0 1) Y 13 = (0 1 1 0 1) X 2 = (0.10 0.4) X 14 = (0.10 0.5) Y 2 = (0 0 0 1 0) Y 14 = (0 1 1 1 0) X 3 = (0.18 0.4) X 15 = (0.18 0.5) Y 3 = (0 0 0 1 1) Y 15 = (0 1 1 1 1) X 4 = (0.26 0.4) X 16 = (0.26 0.5) Y 4 = (0 0 1 0 0) Y 16 = (1 0 0 0 0) X 5 = (0.34 0.4) X 17 = (0.34 0.5) Y 5 = (0 0 1 0 1) Y 17 = (1 0 0 0 1) X 6 = (0.42 0.4) X 18 = (0.42 0.5) Y 6 = (0 0 1 1 0) Y 18 = (1 0 0 1 0) X 7 = (0.50 0.4) X 19 = (0.50 0.5) Y 7 = (0 0 1 1 1) Y 19 = (1 0 0 1 1) X 8 = (0.58 0.4) X 20 = (0.58 0.5) Y 8 = (0 1 0 0 0) Y 20 = (1 0 1 0 0) X 9 = (0.66 0.4) X 21 = (0.66 0.5) Y 9 = (0 1 0 0 1) Y 21 = (1 0 1 0 1) X 10 = (0.74 0.4) X 22 = (0.74 0.5) Y 10 = (0 1 0 10) Y 22 = (1 0 1 1 0) X 11 = (0.82 0.4) X 23 = (0.82 0.5) Y 11 = (0 1 0 1 1) Y 23 = (1 0 1 1 1) X 12 = (0.90 0.4) X 24 = (0.90 0.5) Y 12 = (0 1 1 0 0) Y 24 = (1 1 0 0 0) Berdasarkan pasangan-pasangan pola Xi,Yi yang disimpan di NN Backpropagation,target outputuntuk masing-masing not adalah sebagai berikut, untuk not C pada oktaf ke-4 (C4) adalah (0 0 0 0 1), untuk not C# pada oktaf ke-4 adalah (0 0 0 1 0), untuk not D pada oktaf ke-4 target outputnya (0 0 0 1 1),demikian seterusnya hingga not B targetoutputnya(0 1 1 0 0). Sedangkan untuk not C pada oktaf ke-5, targetoutputnya adalah (0 1 1 0 1), untuk not C# oktaf ke-5 adalah (0 1 1 1 0), demikian seterusnya hingga not B oktaf ke-5 target outputnya (1 1 0 0 0). Selanjutnya, dengan menggunakan algoritma training, yang dimulai dari proses feedforward,dilakukan langkah ketiga, yaitumemberikan nilai awal atau inisialisasi random dari 0 sampai dengan 0,5 pada bobot v dan w serta biasnya. v = 0,3 0,5 0,2 0,1 0,4 0,3 0,5 0,4 0,1 0,1 0,2 0,4

79 v 0 = [0,1 0,3 0,1 0,1 0,5 0,2] w = 0,1 0,2 0,5 0,3 0,1 0,2 0,5 0,1 0,3 0,5 0,5 0,1 0,3 0,1 0,1 0,3 0,4 0,2 0,1 0,4 0,1 0,1 0,1 0,5 0,2 0,1 0,4 0,2 0,1 0,5 w 0 = [0,2 0,4 0,1 0,1 0,2] Setelah menentukan inisialisasi matriks bobot dan bias, lakukan langkah keempat untuk setiap unit tersembunyi (Zj, j = 1,,p) jumlahkan sinyal masukan terbobot.berikut merupakan penjumlahan sinyal masukan terbobot unit tersembunyi. Z_in 1 = V 01 + X 1. V 11 + X 2. V 21 = 0,1 + 0,02. 0,3 + 0,4. 0,5 = 0,306 Z_in 2 = V 02 + X 1. V 12 + X 2. V 22 = 0,3 + 0,02. 0,5 + 0,4. 0,4 = 0,47 Z_in 3 = V 03 + X 1. V 13 + X 2. V 23 = -0,1 + 0,02. 0,2 + 0,4. 0,1 = 0,144 Z_in 4 = V 04 + X 1. V 14 + X 2. V 24 = 0,1 + 0,02. 0,1 + 0,4. 0,1 = 0,142 Z_in 5 = V 05 + X 1. V 15 + X 2. V 25 = 0,5 + 0,02. 0,4 + 0,4. 0,2 = 0,588 Z_in 6 = V 06 + X 1. V 16 + X 2. V 26 = 0,2 + 0,02. 0,3 + 0,4. 0,4 = 0,366 Z in adalah hasil perjumlahan matriks bias (v 0 ) ditambah dengan perkalian nilai input dan matriks bobot v. Kemudian diterapkan fungsi aktivasi untuk menghitung keluarannya. Fungsi aktivasi yang diterapkan adalah fungsisigmoid biner, sehingga digunakan fungsi aktivasi sigmoid biner untuk menghitung sinyal outputnya. Z 1 =, = 0,58

80 Z 2 = Z 3 = Z 4 = Z 5 = Z 6 =, = 0,62, = 0,48, = 0,52, = 0,64, = 0,59 Setelah sinyal outputnya didapatkan, sinyal-sinyal tersebut dikirimkan ke semua unit di lapisan atasnya (unit-unit output).langkah kelimadalam algoritma training yaitu, untuk setiap unit keluaran (Yk,k = 1,,m) jumlahkan sinyal masukan terbobotnya. Y_in 1 = W 01 + Z 1. W 11 + Z 2. W 21 + Z 3. W 31 + Z 4. W 41 + Z 5. W 51 + Z 6. W 61 = 0,2 + 0,58. 0,1 + 0,62. 0,2 + 0,48. 0,5 + 0,52. 0,3+ 0,64. 0,1 + 0,59. 0,1 = 0,933 Y_in 2 = W 02 + Z 1. W 12 + Z 2. W 22 + Z 3. W 32 + Z 4. W 42 + Z 5. W 52 + Z 6. W 62 = 0,2 + 0,58. 0,2 + 0,62. 0,5 + 0,48. 0,1 + 0,52. 0,4 + 0,64. 0,1 + 0,59. 0,4 = 1,161 Y_in 3 = W 03 + Z 1. W 13 + Z 2. W 23 + Z 3. W 33 + Z 4. W 43 + Z 5. W 53 + Z 6. W 63 = 0,2 + 0,58. 0,5 + 0,62. 0,1 + 0,48. 0,3 + 0,52. 0,2 + 0,64. 0,1 + 0,59. 0,2 = 0,732 Y_in 4 = W 04 + Z 1. W 14 + Z 2. W 24 + Z 3. W 34 + Z 4. W 44 + Z 5. W 54 + Z 6. W 64 = 0,2 + 0,58. 0,3 + 0,62. 0,3 + 0,48. 0,1 + 0,52. 0,1 + 0,64. 0,5 + 0,59. 0,1 = 0,513 Y_in 5 = W 05 + Z 1. W 15 + Z 2. W 25 + Z 3. W 35 + Z 4. W 45 + Z 5. W 55 + Z 6. W 65 = 0,2 + 0,58. 0,1 + 0,62. 0,5 + 0,48. 0,1 + 0,52. 0,4+ 0,64. 0,2 + 0,59. 0,5 = 0,560 Y in adalah hasil perjumlahan matriks bias (w 0 ) ditambah dengan perkalian nilai hidden dan matriks bobot w. Digunakan fungsi aktivasi sigmoid biner untuk menghitung sinyal outputnya.

81 Y 1 = Y 2 = Y 3 = Y 4 = Y 5 =, = 0,72, = 0,76, = 0,68, = 0,63, = 0,64 Setelah sinyal-sinyal outputy 1 sampai dengan Y 5 didapatkan, maka langkah Feedforward, yaitu melakukan perhitungan dari matriks input dan matriks bobot dalam algoritma training, telah selesai. Langkah selanjutnya, yaitu langkah keenam, tiap-tiap unitoutput (Yk,k=1,,m) menerima pola target yang berhubungan dengan pola input pembelajaran, lalu dihitung informasi errornya. )], δ 1 = (T 1 Y 1 ) (,) * [ 1 ( = (0 0,72) (0,72) (1 0,72) = -0,1454 δ 2 = (0 0,76) (0,76) (1 0,76) = -0,1383 δ 3 = (0 0,68) (0,68) (1 0,68) = -0,1481 δ 4 = (0 0,55) (0,63) (1 0,63) = -0,1465 δ 5 = (0 0,64) (0,64) (1 0,64) = -0,1473 T merupakan target pembelajaran, dan Y merupakan output. Setelah itu, dilakukan perhitungan koreksi bobot yang nantinya akan digunakan untuk memperbaiki nilai bobot w 11 sampai dengan w 65. Proses ini merupakan awal tahap backward atau langkah mundur, yaitu memperbaiki nilai bobot.untuk menghitung koreksi bobot w dibutuhkan learning rate. Konstanta laju belajar (learning rate) merupakan salah satu faktor yang dapat mempercepat atau dapat menjadi faktor penghambat proses training,

82 Konstanta laju belajar,yang seringdisebut sebagai α, digunakan sebagai konstanta pengali untuk mengatur besarnya nilai penyesuaian bobot pada setiap langkah pelatihan. Konstanta laju belajar yang digunakan adalah 0,7. w 11 sampai dengan w 65 merupakan koreksi bobot. Δw 11 = αδ 1 Z 1 = 0,7 (-0,1454) (0,58) = -0,0586 Δw 12 = αδ 2 Z 1 = 0,7 (-0,1383) (0,58) = -0,0558 Δw 13 = αδ 3 Z 1 = 0,7 (-0,1481) (0,58) = -0,0597 Δw 14 = αδ 4 Z 1 = 0,7 (-0,1465) (0,58) = -0,0591 Δw 15 = αδ 5 Z 1 = 0,7 (-0,1473) (0,58) = -0,0594 Δw 21 = αδ 1 Z 2 = 0,7 (-0,1454) (0,62) = -0,0626 Δw 22 = αδ 2 Z 2 = 0,7 (-0,1383) (0,62) = -0,0596 Δw 23 = αδ 3 Z 2 = 0,7 (-0,1481) (0,62) = -0,0638 Δw 24 = αδ 4 Z 2 = 0,7 (-0,1465) (0,62) = -0,0631 Δw 25 = αδ 5 Z 2 = 0,7 (-0,1473) (0,62) = -0,0634 Δw 31 = αδ 1 Z 3 = 0,7 (-0,1454) (0,54) = -0,0546 Δw 32 = αδ 2 Z 3 = 0,7 (-0,1383) (0,54) = -0,0519 Δw 33 = αδ 3 Z 3 = 0,7 (-0,1481) (0,54) = -0,0556 Δw 34 = αδ 4 Z 3 = 0,7 (-0,1465) (0,54) = -0,0550 Δw 35 = αδ 5 Z 3 = 0,7 (-0,1473) (0,54) = -0,0552 Δw 41 = αδ 1 Z 4 = 0,7 (-0,1454) (0,54) = -0,0545 Δw 42 = αδ 2 Z 4 = 0,7 (-0,1383) (0,54) = -0,0518 Δw 43 = αδ 3 Z 4 = 0,7 (-0,1481) (0,54) = -0,0555 Δw 44 = αδ 4 Z 4 = 0,7 (-0,1465) (0,54) = -0,0549 Δw 45 = αδ 5 Z 4 = 0,7 (-0,1473) (0,54) = -0,0552 Δw 51 = αδ 1 Z 5 = 0,7 (-0,1454) (0,64) = -0,0654 Δw 52 = αδ 2 Z 5 = 0,7 (-0,1383) (0,64) = -0,0622 Δw 53 = αδ 3 Z 5 = 0,7 (-0,1481) (0,64) = -0,0666 Δw 54 = αδ 4 Z 5 = 0,7 (-0,1465) (0,64) = -0,0659 Δw 55 = αδ 5 Z 5 = 0,7 (-0,1473) (0,64) = -0,0663 Δw 61 = αδ 1 Z 6 = 0,7 (-0,1454) (0,59) = -0,0601 Δw 62 = αδ 2 Z 6 = 0,7 (-0,1383) (0,59) = -0,0572 Δw 63 = αδ 3 Z 6 = 0,7 (-0,1481) (0,59) = -0,0612 Δw 64 = αδ 4 Z 6 = 0,7 (-0,1465) (0,59) = -0,0606

83 Δw 65 = αδ 5 Z 6 = 0,7 (-0,1473) (0,59) = -0,0609 Selain perhitungan koreksi bobot, dihitung pula koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai w 01 sampai dengan w 05 ) dengan menggunakan learningrate atau αsebesar 0,7. Δw 01 = αδ 1 = 0,7 (-0,1467) = -0,1018 Δw 02 = αδ 2 = 0,7 (-0,1464) = -0,0968 Δw 03 = αδ 3 = 0,7 (-0,1456) = -0,1037 Δw 04 = αδ 4 = 0,7 (-0,1356) = -0,1026 Δw 05 = αδ 5 = 0,7 (-0,1268) = -0,1031 Δw 01 sampaiδw 05 merupakan koreksi bias.kemudian nilai δ 1 sampai δ 5 dikirimkan ke unit-unit yang ada di lapisan bawahnya. Langkah ketujuh yaitu tiap-tiap hidden unit (Zj,j = 1,,p) menjumlahkan delta inputnya (dari unit yang berada pada lapisan atasnya). δ in1 = δ 1 w 11 + δ 2 w 12 + δ 3 w 13 + δ 4 w 14 + δ 5 w 15 = (-0,1454)(0,1) + (-0,1383)(0,2) + (-0,1481) (0,5) + (-0,1465) (0,3) + (-0,1473) (0,1) = -0,17492 δ in2 = δ 1 w 21 + δ 2 w 22 + δ 3 w 23 + δ 4 w 24 + δ 5 w 25 =-0,23063 δ in3 = δ 1 w 31 + δ 2 w 32 + δ 3 w 33 + δ 4 w 34 + δ 5 w 35 =-0,16034 δ in4 = δ 1 w 41 + δ 2 w 42 + δ 3 w 43 + δ 4 w 44 + δ 5 w 45 = -0,20212 δ in5 = δ 1 w 51 + δ 2 w 52 + δ 3 w 53 + δ 4 w 54 + δ 5 w 55 = -0,14589 δ in6 = δ 1 w 61 + δ 2 w 62 + δ 3 w 63 + δ 4 w 64 + δ 5 w 65 = -0,18776 Setelah mendapatkan δ in1 sampaiδ in6, nilai ini dikalikan dengan turunan dari fungsi aktivasinya untuk mengitung informasi errornya. Fungsi aktivasi yang digunakan adalah fungsi aktivasi sigmoid biner.turunan pertama dari fungsi ini adalah f (x) = σ f(x) [1 f(x)]

84 di mana σ merupakan parameter kecuraman yang diberikan, umumnya σ dipilih sama dengan 1. δ 1 = δ in1,[ 1 ( δ 2 = δ in2,[ 1 ( δ 3 = δ in2,[ 1 ( δ 4 = δ in3,[ 1 ( δ 5 = δ in4,[ 1 ( δ 6 = δ in5,[ 1 ( = (-0,17492) (0,58) (1-0,58) = -0,04272, = -0,05459, = -0,03988, = -0,05028, = -0,03349, = -0,0454, Kemudian, dihitung koreksi bobot yang nantinya akandigunakan untuk memperbaiki nilaiv 11 sampai denganv 26. ΔV 11 = αδ 1 X 1 = 0,7 (-0,04272) (0,02) = -0,0006 ΔV 12 = αδ 2 X 1 = 0,7 (-0,05459) (0,02) = -0,00076 ΔV 13 = αδ 3 X 1 = 0,7 (-0,03988) (0,02) = -0,00056 ΔV 14 = αδ 4 X 1 = 0,7 (-0,05028) (0,02) = -0,0007 ΔV 15 = αδ 5 X 1 = 0,7 (-0,03349) (0,02) = -0,00047 ΔV 16 = αδ 6 X 1 = 0,7 (-0,0454) (0,02) = -0,00064 ΔV 21 = αδ 1 X 2 = 0,7 (-0,04272) (0,4) = -0,01196 ΔV 22 = αδ 2 X 2 = 0,7 (-0,05459) (0,4) = -0,01528 ΔV 23 = αδ 3 X 2 = 0,7 (-0,03988) (0,4) = -0,01117 ΔV 24 = αδ 4 X 2 = 0,7 (-0,05028) (0,4) = -0,01408 ΔV 25 = αδ 5 X 2 = 0,7 (-0,03349) (0,4) = -0,00938 ΔV 26 = αδ 6 X 2 = 0,7 (-0,0454) (0,4) = -0,01271 Setelah perhitungan koreksi bobot untuk memperbaiki nilai v 11 sampai v 26, dilakukan juga perhitungan koreksi bias. ΔV 01 = αδ 1 = 0,7 (-0,02105) = -0,02991 ΔV 02 = αδ 2 = 0,7 (-0,03845) = -0,03821 ΔV 03 = αδ 3 = 0,7 (-0,03267) = -0,02791 ΔV 04 = αδ 4 = 0,7 (-0,0344) = -0,03519 ΔV 05 = αδ 5 = 0,7 (-0,00638) = -0,02345

85 ΔV 06 = αδ 6 = 0,7 (-0,02277) = -0,03178 Nilai v 01 sampaiv 06 merupakan nilai yang sudah diperbaiki dengan perhitungan koreksi bias. Langkah ke delapan, yaitu setiap unit output (Yk,k = 1,,m) memperbaiki bobot dan biasnya (j=1,,p), untuk mendapatkan nilai bobotv dan biasv 0 yang baru. Berikut ini adalah bobot v 11 sampaiv 26 yan g baru. V 11(baru) = V 11 (lama) + ΔV 11 = 0,3 + (-0,0006) = 0,299402 V 12(baru) = V 12 (lama) + ΔV 12 = 0,5 + (-0,00076) = 0,499236 V 13(baru) = V 13 (lama) + ΔV 13 = 0,2 + (-0,00056) = 0,199442 V 14(baru) = V 14 (lama) + ΔV 14 = 0,1 + (-0,0007) = 0,099296 V 15(baru) = V 15 (lama) + ΔV 15 = 0,4 + (-0,00047) = 0,399531 V 16(baru) = V 16 (lama) + ΔV 16 = 0,3 + (-0,00064) = 0,299364 V 21(baru) = V 21 (lama) + ΔV 21 = 0,488038 V 22(baru) = V 22 (lama) + ΔV 22 = 0,384716 V 23(baru) = V 23 (lama) + ΔV 23 = 0,088834 V 24(baru) = V 24 (lama) + ΔV 24 = 0,085923 V 25(baru) = V 25 (lama) + ΔV 25 = 0,190622 V 26(baru) = V 26 (lama) + ΔV 26 = 0,387287 Nilai bobot V 01 sampai V 06 merupakan nilai bias yang baru. V 01 (baru) = V 01 (lama) + ΔV 01 = 0,070095 V 02(baru) = V 02 (lama) + ΔV 02 = 0,261789 V 03(baru) = V 03 (lama) + ΔV 03 = 0,072085 V 04(baru) = V 04 (lama) + ΔV 04 = 0,064807 V 05(baru) = V 05 (lama) + ΔV 05 = 0,476555 V 06(baru) = V 06 (lama) + ΔV 06 = 0,168218

86 Kemudian, setiap unit tersembunyi (Zj,j=1,,p) memperbaiki bobot dan biasnya (i=1,,n) untuk mendapatkan nilai bobot w dan bias w 0 yang baru.berikut merupakan nilai bobot W 11 sampai W 65 yang baru. W 11(baru) = W 11 (lama) + ΔW 11 = 0,0414 W 12(baru) = W 12 (lama) + ΔW 12 = 0,1442 W 13(baru) = W 13 (lama) + ΔW 13 = 0,4403 W 14(baru) = W 14 (lama) + ΔW 14 = 0,2409 W 15(baru) = W 15 (lama) + ΔW 15 = 0,0406 W 21(baru) = W 21 (lama) + ΔW 21 = 0,1374 W 22(baru) = W 22 (lama) + ΔW 22 = 0,4404 W 23(baru) = W 23 (lama) + ΔW 23 = 0,0362 W 24(baru) = W 24 (lama) + ΔW 24 = 0,2369 W 25(baru) = W 25 (lama) + ΔW 25 = 0,4366 W 31(baru) = W 31 (lama) + ΔW 31 = 0,4454 W 32(baru) = W 32 (lama) + ΔW 32 = 0,0481 W 33(baru) = W 33 (lama) + ΔW 33 = 0,2444 W 34(baru) = W 34 (lama) + ΔW 34 = 0,0450 W 35(baru) = W 35 (lama) + ΔW 35 = 0,0448 W 41(baru) = W 41 (lama) + ΔW 41 = 0,2455 W 42(baru) = W 42 (lama) + ΔW 42 = 0,3482 W 43(baru) = W 43 (lama) + ΔW 43 = 0,1445 W 44(baru) = W 44 (lama) + ΔW 44 = 0,0451 W 45(baru) = W 45 (lama) + ΔW 45 = 0,3448 W 51(baru) = W 51 (lama) + ΔW 51 = 0,0346 W 52(baru) = W 52 (lama) + ΔW 52 = 0,0378 W 53(baru) = W 53 (lama) + ΔW 53 = 0,0334 W 54(baru) = W 54 (lama) + ΔW 54 = 0,4341 W 55(baru) = W 55 (lama) + ΔW 55 = 0,1337 W 61(baru) = W 61 (lama) + ΔW 61 = 0,0346 W 62(baru) = W 62 (lama) + ΔW 62 = 0,0378 W 63(baru) = W 63 (lama) + ΔW 63 = 0,0334 W 64(baru) = W 64 (lama) + ΔW 64 = 0,4341 W 65(baru) = W 65 (lama) + ΔW 65 = 0,1337

87 Dilakukan juga perhitungan nilai bias W 01 sampaiw 05 untuk mendapatkan nilai yang telah diperbaiki. W 01 (baru) = W 01 (lama) + ΔW 01 =0,0982 W 02(baru) = W 02 (lama) + ΔW 02 = 0,3032 W 03(baru) = W 03 (lama) + ΔW 03 = 0,0037 W 04(baru) = W 04 (lama) + ΔW 04 = 0,0026 W 05(baru) = W 05 (lama) + ΔW 05 = 0,0969 Langkah terakhir yaitu langkah kesembilan adalah tes kondisi berhenti.apabila nilai error sudah lebih kecil dari error yang ditentukan (desired error) pengguna, maka pembelajaran selesai. b. Proses Training Data dalam Neural Networks Proses trainingnot-not dasar yang terjadi dalam NeuralNetworksberfungsi agar not-not tersebut dapat dikenali dan dapat dibangkitkan dalam bentuk output yang berupa partitur not.tahapan dalam proses training yang dilakukan oleh sistem dapat dilihat pada perhitungan neural network sebelumnya. Dari hasil perhitunganoutputy 1 sampai dengan Y 5 akan dilakukan proses backwarduntuk memperoleh nilai matriks bobot yang sebenarnya, nilai matriks ini akan digunakan dalam perhitungan aplikasi Backpropagation untuk memperoleh hasil output yang akurat. Proses ini menyimpan nilai dari data yang akan dicocokan dengan data yang hendak dimasukkan. Gambar 4.2 sampai 4.13 merupakan gambar yang menunjukkan proses training 12 not dasar dari piano yang dilakukan dalam proses pembelajaranneural Networks. Masing-masing not diberikan kode input yang berfungsi sebagai nilai untuk

88 membedakan not yang satu dengan lainnya. Proses ini dilakukan secara berulang-ulang sebanyak 12 kali agar diperoleh nilai untuk nodeinput. Gambar 4.2 Input Data Training Gambar 4.2 di atas merupakan tampilan sistem untuk training data pertama kali. Yang akan disimpan dalam Neural Nterworksuntuk dicocokan dengan input pengguna. Dibutuhkan inputan nama not dan posisi oktaf yang akan di training secara manual, kemudian sistem akan memberikan kode untuk input Neural Networks melalui proses encode. Contoh proses encode yang keluar dapat dilihat pada gambar 4.3 sampai dengan 4.14. Jadi, ketika input yang diberikan adalah not C dan posisi oktaf ke-5 maka sistem akan memberi nilai encode[0.02 0.4]. Nilai 0.02 menujukan nilai encode untuk not C dan nilai 0.4 merupakan nilai untuk oktaf. Hasil dari training di atas akan dimasukkan ke dalam Neural Networks yang akan digunakan untuk proses pembelajaran pengenalan not pada input data yang baru, serta proses aplikasi Neural Networks dengan metode Backpropagation

89 Gambar4.3Proses Pelatihan Not C oktaf ke-4 Gambar 4.3 menunjukkan proses ini mendeteksi frekuensi not C dan mengubah nilai frekuensinyadalam bentuk kodemelalui proses encode. Nilai dari encodeakan diambil untuk inputneural Networks dalam proses Daftarkan Data. Dari proses ini diketahui bahwa nilai input not C adalah [0.02 0.4].

90 Gambar 4.4 Proses Pelatihan Not C# oktaf ke-4 Gambar 4.4 menunjukkan proses ini mendeteksi frekuensi not C# dan mengubah nilai frekuensinya dalam bentuk kode melalui proses encode. Nilai dari encodeakan diambil untuk inputneural Networks dalam proses Daftarkan Data. Dari proses ini diketahui bahwa nilai input not C# adalah [0.10 0.4]. Gambar 4.5 Proses Pelatihan Not Doktaf ke-4

91 Gambar 4.5 menunjukkan proses ini mendeteksi frekuensi not D dan mengubah nilai frekuensinya dalam bentuk kode melalui proses encode. Nilai dari encodeakan diambil untuk inputneural Networks dalam proses Daftarkan Data. Dari proses ini diketahui bahwa nilai input not D adalah [0.18 0.4]. Gambar 4.6 Proses Pelatihan Not D#oktaf ke-4 Gambar 4.6 menunjukkan proses ini mendeteksi frekuensi not D# dan mengubah nilai frekuensinya dalam bentuk kodemelalui proses encode. Nilai dari encodeakan diambil untuk inputneural Networks dalam proses Daftarkan Data. Dari proses ini diketahui bahwa nilai input not D# adalah [0.26 0.4].

92 Gambar 4.7Proses Pelatihan Not Eoktaf ke-4 Gambar 4.7 menunjukkan proses ini mendeteksi frekuensi not E dan mengubah nilai frekuensinya dalam bentuk kode melalui proses encode. Nilai dari encodeakan diambil untuk inputneural Networks dalam proses Daftarkan Data. Dari proses ini diketahui bahwa nilai input not E adalah [0.34 0.4]. Gambar 4.8Proses Pelatihan Not Foktaf ke-4

93 Gambar 4.8 menunjukkan proses ini mendeteksi frekuensi not F dan mengubah nilai frekuensinya dalam bentuk kode melalui proses encode. Nilai dari encodeakan diambil untuk inputneural Networks dalam proses Daftarkan Data. Dari proses ini diketahui bahwa nilai input not F adalah [0.42 0.4]. Gambar 4.9Proses Pelatihan Not F#oktaf ke-4 Gambar 4.9 menunjukkan proses ini mendeteksi frekuensi not F# dan mengubah nilai frekuensinya dalam bentuk kode melalui proses encode. Nilai dari encodeakan diambil untuk inputneural Networks dalam proses Daftarkan Data. Dari proses ini diketahui bahwa nilai input not F# adalah [0.50 0.4].

94 Gambar 4.10Proses Pelatihan Not Goktaf ke-4 Gambar 4.10 menunjukkan proses ini mendeteksi frekuensi not G dan mengubah nilai frekuensinya dalam bentuk kode melalui proses encode. Nilai dari encodeakan diambil untuk inputneural Networks dalam proses Daftarkan Data. Dari proses ini diketahui bahwa nilai input not G adalah [0.58 0.4]. Gambar 4.11 Proses Pelatihan Not G#oktaf ke-4

95 Gambar 4.11 menunjukkan proses ini mendeteksi frekuensi not G# dan mengubah nilai frekuensinya dalam bentuk kode melalui proses encode. Nilai dari encodeakan diambil untuk inputneural Networks dalam proses Daftarkan Data. Dari proses ini diketahui bahwa nilai input not G# adalah [0.66 0.4]. Gambar 4.12Proses Pelatihan untuk Not Aoktaf ke-4 Gambar 4.12 menunjukkan proses ini mendeteksi frekuensi nota dan mengubah nilai frekuensinya dalam bentuk kode melalui proses encode. Nilai dari encodeakan diambil untuk inputneural Networks dalam proses Daftarkan Data. Dari proses ini diketahui bahwa nilai input not A adalah [0.74 0.4].

96 Gambar 4.13Proses Training untuk Not A#oktaf ke-4 Gambar 4.13 menunjukkan proses ini mendeteksi frekuensi nota# dan mengubah nilai frekuensinya dalam bentuk kode melalui proses encode. Nilai dari encodeakan diambil untuk inputneural Networks dalam proses Daftarkan Data. Dari proses ini diketahui bahwa nilai input not A# adalah [0.82 0.4]. Gambar 4.14Proses Training untuk Not Boktaf ke-4 Gambar 4.14 menunjukkan proses ini mendeteksi frekuensi not B dan mengubah nilai frekuensinya dalam bentuk kode melalui proses encode. Nilai dari encodeakan

97 diambil untuk inputneural Networks dalam proses Training BP(Daftarkan Data). Dari proses ini diketahui bahwa nilai input not B adalah [0.90 0.4]. 4.1.2 Pengoperasian dan Tampilan Sistem Tampilan pada gambar 4.14 merupakan tampilan awal ketika pengguna menjalankan sistem. Pada form ini terdapat pilihan untuk memasukkan input yang diinginkan oleh pengguna, yaitu Ambil Data dan Rekam. Jika pengguna memilih radio button Ambil Data maka akan muncul layar sama seperti Gambar 4.14. Gambar 4.15Tampilan awal Program dengan Input Ambil Data Seperti pada gambar 4.15 terlihat bahwa terdapat 2 button pada menu Ambil Data. Namun hanya ada 1 buttonaktif yaitubutton Daftarkan Data. Button ini dapat dipilih setelah pengguna mengambil data input dengan format WAV. Tetapi button

98 Mengenali Not belum aktif, karena data yang di-input harus terlebih dahulu didaftarkan. Pengambilan data yang dapat dideteksi dan digeneralisasi not hanya file yang berformat WAV. Gambar 4.16Tampilan Pengambilan Data Seperti pada gambar 4.16, proses pengambilan data terdapat 2 button aktif yaitu Open dan Cancel. Button Open digunakan untuk mengambil input sesuai dengan apa yang telah kita pilih. Sedangkan button Cancel digunakan untuk membatalkan pengambilan data input. Tampilan pada gambar 4.16akan muncul jika pengguna memilih radio button Rekam. Pada pilihan radiobutton rekam terdapat 3buttonyang dapat dipilih oleh pengguna, yaitu button Mulai, button Berhenti dan button Simpan. Button

99 Mulai berfungsi untuk memulai merekam suara piano. Button Berhenti berfungsi untuk menghentikan proses rekaman. Dan button simpan berfungsi untuk menyimpan file yang telah direkam dalam format wav. Gambar 4.17 Tampilan awal Program dengan inputrekam Seperti pada gambar 4.17 terlihat bahwa terdapat 2 button pada menu Rekam. Namun hanya ada 1 buttonaktif yaitubutton Training BP(Daftarkan Data). Button ini dapat dipilih setelah pengguna mengambil data input dengan format wav. Tetapi button Aplikasi BP(Kenali Not) belum aktif, karena data yang di-input harus terlebih dahulu didaftarkan. Setelah fileinput dimasukkan, program akan melakukan proses transformasi Fourier untuk menangkap simpangan terbesar dari frekuensi yang muncul fileinput, nilai

100 I atau panjang gelombang dari frekuensi input, nilai frekuensi dan encode dari file. Agar file yang telah diinput dapat dideteksi dan digeneralisasikan not nya. Dengan mencocokan file yang telah di training dalam Neural Networks saat fileinput didaftarkan. Proses dari transformasi dapat dilihat pada gambar 4.18. Gambar 4.18 Transformasi Fourier Proses transformasi Fourier yang terjadi pada gambar 4.18 dilakukan secara otomatis oleh sistem setelah fileinput dimasukkan. Proses ini tidak akan terlihat pada layar pengguna. Setelah proses transformasi fourier berhasil dilakukan pada file suara yang baru dimasukkan. Maka file harus didaftarkan kedalam Neural Networks guna dibandingkan dengan file yang telah dilatih atau train terlebih dahulu.

101 Gambar 4.19Training BP(Daftarkan Data) Setelah pengguna memilih button Training BP(Daftarkan Data) maka akan muncul warning message seperti pada gambar 4.19. dan hanya ada 1 button yang aktif yaitu button OK. Setelah button OK dipilih maka pengguna akan kembali pada menu utama dan button Aplikasi BP(Kenali Not) akan aktif yang memberitahukan bahwa lagu yang diinput telah berhasil di training dan mulai dapat melakukan proses pendeteksian not atau applikasi. Jika pengguna memilih button Mengenali Not(aplikasi) maka akan muncul tampilan form baru yang merupakan hasil output dari proses-proses yang berjalan dalam sistem. Output yang dihasilkan berupa partitur atau not balok yang berhasil digeneralisasi oleh sistem berdasarkan input, training dan aplikasi yang terjadi dalam Neural Networks.

102 Jika pengguna memilih button Aplikasi BP(Kenali Not) maka sistem akan melakukan proses aplikasi Backpropagation seperti di bawah ini. Tetapi proses ini tidak terlihat oleh user. Proses Aplikasi BP(Kenali Not) akan memperoleh hasil seperti pada gambar 4.20 Gambar 4.20Proses Aplikasi BP(Kenali Not) Dalam Sistem Gambar 4.20 menampilkan nilai akhir yang ditemukan saat data baru didaftarkan dan dicocokan dengan data yang telah disimpan dalam Neural Networks. Proses ini menangkap nilai not,frekuensi, encode, serta membuat code untuk library GUIDO yang akan mengubah bentuk output not menjadi partitur not balok. Tampilan untuk Outputdalam command prompt pada gambar 4.19 tidak akan terlihat oleh pengguna, karena sistem secara otomatis mengubah bentuk output menjadi partitur dan not balok menggunakan libraryguido seperti pada gambar 4.19.

103 Gambar 4.21Tampilan Aplikasi BP(Kenali Not) Gambar 4.21 menunjukan tampilan akhir dari sistem atau tampilan yang akan muncul pada saat pengguna menekan button aplikasi BP(Kenali Not). Jika muncul gambar 4.21 maka sistem telah berhasil melakukan semua proses dari input sampai dengan output. 4.2 Evaluasi Pada sistem, dilakukan pengujian sebanyak 30 kali terhadap masing-masing not dengan menguji 30 data yang berbeda untuk setiap not. Misalnya, pengujian terhadap not C dilakukan dengan cara memasukkan 30 buah data not C yang berbeda pada sistem. Hasil lengkap dari pengujian terhadap masing-masing not dapat dilihat pada tabel 4.2

104 Tabel 4.2 Hasil pengujian terhadap masing-masing not Not Jumlah data Jumlah data yang dapat dikenali Tingkat Akurasi pengujian notnya dengan baik C4 30 28 93.33 % C#4 30 26 86.66 % D4 30 28 93.33 % D#4 30 27 90 % E4 30 28 93.33 % F4 30 28 93.33 % F#4 30 25 83.33 % G4 30 26 86.66 % G#4 30 27 90 % A4 30 27 90 % A#4 30 27 90 % B4 30 27 90 % C5 30 26 86.66 % C#5 30 25 83.33 % D5 30 27 90 % D#5 30 25 83.33 % E5 30 28 93.33 % F5 30 26 86.66 % F#5 30 25 83.33 % G5 30 25 83.33 %

105 G#5 30 26 86.66 % A5 30 27 90 % A#5 30 26 86.66 % B5 30 26 86.66 % Dari hasil pengujian yang dilakukan dengan memasukkan suara piano pada sistem, dapat disimpulkan bahwa rata-rata tingkat kecocokan not antara suara piano yang diinput dengan suara piano yang telah di training dalam Neural Networks adalah88,33%. Input untuk sistem pendeteksi suara dan pembangkitan not ini memiliki kriteria sebagai berikut : a. Input yang diberikan pengguna berupa lagu yang memiliki tempo tidak terlalu cepat (maksimal 4 not per detik). b. Not-not pada lagu tersebut terletak pada oktaf ke -4 dan ke-5 pada piano. Nilai not (berupa ketukan) belum dapat dideteksi dengan baik oleh sistem dan sistem belum dapat mendeteksi suara polifoni karena proses pendeteksian suara polifoni cukup rumit dan memerlukan algoritma khusus untuk menentukan frekuensi-frekuensi mana yang merepresentasikan not yang sebenarnya.