BAB II II. Teori Dasar II.1 Konsep Jaringan Saraf Tiruan (Artificial Neural Network) Secara biologis jaringan saraf terdiri dari neuron-neuron yang saling berhubungan. Neuron merupakan unit struktural dan fungsional dari sistem saraf, mempunyai kemampuan untuk mengadakan respon bila dirangsang dengan intensitas rangsangan cukup kuat. Respon neuron bila dirangsang adalah memulai dan menghantarkan impuls. Jaringan saraf tiruan merupakan gabungan sejumlah elemen yang memproses informasi dari input sehingga memberikan suatu informasi keluaran. Sekelompok obyek dipelajari oleh sistem belajar dengan tujuan untuk mengenali bentuk pola setiap bentuk tersebut. Proses ini dilakukan dengan cara melatih sistem belajar (train neural network) melalui pemberian bobot dan bias pada hubungan antar simpul. Hasil yang dicapai adalah didapatkannya sekelompok bobot dan bias (pada kesalahan minimum yang dicapai) untuk semua pola yang dipelajari, hal ini sesuai dengan anggapan menemukan energi terendah dalam proses mengenali sekelompok obyek pola yang dipelajari. Jaringan saraf tiruan mempunyai distribusi pararel arsitektur dengan sejumlah besar simpul mempunyai bobot dan bias tertentu. Gbr 1. Model struktur jaringan saraf tiruan. Kontruksi jaringan saraf tiruan terdiri dari : 1. Penentuan Perangkat Jaringan 2. Penentuan Perangkat Simpul 3. Penentuan Sistem Dinamik II.1.1 Perangkat Jaringan Jaringan saraf tiruan terdiri dari sejumlah lapisan dan simpul yang berbeda untuk tiap-tiap layer. Jenis layer dapat dibedakan menjadi 1. Input Layer : terdiri dari unit-unit simpul yang berperan sebagai input proses pengolahan data pada neural network.
2. Hidden Layer : terdiri dari unitunit simpul yang dianalogikan sebagai lapisan tersembunyi dan berperan sebagai lapisan yang meneruskan respon dari input. 3. Output Layer : terdiri dari unitunit simpul yang berperan memberikan solusi dari data input. II.1.2 Perangkat Simpul Tingkat aktivasi dari simpul (node) dapat berharga diskrit yaitu 0 dan 1, atau kontinu yaitu antara 0 dan 1. Hal tersebut bergantung dari penerapan fungsi aktivasi itu sendiri. Jika menggunakan fungsi hard limitting, maka tingkat aktivasinya bernilai 0 (atau -1) dan 1. Apabila menggunakan fungsi sigmoid maka tingkat aktivasinya terbatas pada daerah antara 0 dan 1. Pada tugas akhir kali ini lebih banyak menggunakan fungsi sigmoid terutama logsig. contoh fungsi sigmoid dengan fungsi aktivasi logsig yaitu : Gbr 2. fungsi aktivasi logsig. II.1.3 Sistem Dinamik Pemberian bobot dan bias bergantung pada model jaringan saraf tiruan yang dipilih, tetapi dalam banyak kasus pemberian bobot dapat berupa bilangan real yang kecil dan dipilih secara acak. Pelatihan (train) terhadap jaringan adalah satu hal yang terpenting dalam neural network. Train neural network menentukan bagaimana cara mengadaptasi nilai-nilai bobot dan bias dalam usaha untuk mengoptimalkan kerja suatu jaringan dalam mengenali suatu bentuk atau pola, dan menghitung besar nilai bobot (weight adjustment) dan bias selama proses berlangsung. Salah satu yang perlu diperhatikan adalah perhitungan kesalahan (error) pada jaringan dengan berubahnya nilai bobot dan bias. Pada perubahan nilai bobot neural network perlu diketahui tingkat aktivasi yang terjadi dengan tingkat aktivasi yang diinginkan. Tingkat aktivasi dari input tidak perlu dihitung tetapi yang perlu dihitung adalah tingkat aktivasi dari hidden dan output layer. Sebagai contoh, dari untuk fungsi sigmoid tingkat aktivasi dari unit i(ai) adalah i 1 1+ e = ( i i a (2.1) W ij p b )
Dimana pi adalah masukan dari unit i, W ij adalah nilai bobot pada hubungan dari unit i ke j, dan bj adalah nilai bias pada unit j. II.1.4 Pengelompokan Jaringan Saraf Tiruan Jaringan saraf tiruan mengelompokan obyek yang diberikan sesuai dengan tingkat aktivasi keluarannya dapat dibedakan menjadi : 1. Single Layer Perceptrons (SPL) SLP terdiri dari satu lapisan input dan output. Fungsi aktivasi yang digunakan adalah hard limitting yaitu unit output akan bernilai satu, jika jumlah pemberian bobot input lebih besar dari nilai bias-nya. Dalam hal pengelompokan suatu obyek akan dikelompokan oleh unit j jika memenuhi : W ij p i b i. Juga sebaliknya, suatu obyek akan dikelompokkan pada kelompok yang lain jika : W ij p i < b i. Gbr 3. Single Layer Perceptrons 2. Multi Layer Perceptrons (MLP) MLP adalah jaringan saraf tiruan alur maju dengan sedikitnya ada satu lapisan tersembunyi. Salah satu masalah dalam membentuk jaringan saraf tiruan MLP adalah berapa banyak unit tersembunyi yang memberikan hasil yang optimal pada suatu jaringan saraf tiruan. Jumlah dari unit yang tersembunyi dapat ditentukan secara empirik dengan mengeplot antara hasil jaringan saraf tiruan dengan jumlah unit tersembunyi tertentu, kemudian dipilih unit tersembunyi dengan hasil latihan terbaik atau dengan kesalahan (error) terkecil.
Gbr 4. Multi Layer Perceptrons II.1.5 Model Train Neural Network dengan Sistem Backpropagation Backpropagation adalah salah satu program komputasi untuk penerapan neural network yang banyak digunakan untuk memecahkan masalah non-linear serta network multilayer dengan menggeneralisasi persamaan widrowhoff. Metoda ini menggunakan metoda penurunan gradien. Backpropagation menggunakan pelatihan terbimbing (train neural network) dan dalam pengaturan jumlah lapisan (layer) mudah dilakukan sehingga banyak diterapkan pada berbagai permasalahan. Backpropagation merupakan sistem train neural network yang dapat menghitung tingkat kesalahan dari hasil keluarannya, sehingga neural network yang digunakan memiliki kesalahan terkecil. Neural network harus dilatih berulang-ulang dengan pola input yang sesuai, sehingga neural network dapat mengenali pola dan diperoleh bobot dan bias tiap simpul dengan kesalahan terkecil. Kelemahan Backpropagation diantaranya adalah : Backpropagation dapat mengenali pola input yang telah diajarkan tetapi tidak dapat mengenali pola input yang baru. Dalam mengenali pola input yang baru, maka pola tersebut harus diajarkan sehingga pola yang lama akan dilupakan. Parameter backpropagation : Inisiasi bobot Memasukan nilai bobot dan nilai bias untuk tiap simpul dengan bilangan acak (random). Menghitung tingkat aktivasi 1. Tingkat aktivasi dari simpul input tidak perlu dihitung 2. Menghitung tingkat aktivasi dari simpul hidden dan output dengan rumus : Untuk simpul hidden (2.2) Untuk simpul output (2.3) dengan : p i : nilai input W ij : bobot ke simpul hidden W jk : bobot ke simpul output
b j : nilai bias simpul hidden b k : nilai bias simpul output 3. Melatih bobot a. Penyesuaian bobot : mencari nilai bobot sesuai dengan keluaran yang diinginkan dengan persamaan : simpul hidden W ij (t+1) = W ij (t) + W ij (2.3) simpul output W jk (t+1) = W jk (t) + W jk (2.4) b. Perhitungan perubahan bobot dengan persamaan : simpul hidden W ij = ηδ j. p i (2.5) simpul output W jk = ηδ k. a j (2.6) 4. Perhitungan gradient error simpul hidden δ j = a j (1 - a j )Σδ k. W ij (2.7) simpul output δ k = a k (1 a k )(T k - a k ) (2.8) dengan : η : koefesien pembelajaran (antara 0 dan 1) δ j : gradien error pada unit j δ k : gradien error pada unit k T k : harga aktivasi yang diinginkan dari simpul output ke k (target) a k : harga aktivasi yang diperoleh pada simpul keluaran ke k 5. Mengulang langkah algoritma diatas sehingga dapat menentukan nilai error terkecil (yang diinginkan). II.2 Dekonvolusi Dekonvolusi merupakan suatu proses kebalikan dari konvolusi. Dekonvolusi merupakan tahapan preprocessing dalam pengolahan data seismik dan merupakan inverse filter. Dekonvolusi adalah suatu metode seismik untuk menghilangkan efek wavelet sehingga didapat estimasi reflektifitas bawah permukaan. Dengan kata lain dekonvolusi adalah proses untuk mengkompres wavelet seismik agar dapat memberikan daya pisah terhadap adanya perlapisan batuan dalam
bumi pada suatu penampang seismik. Prinsip dasar dari analisa dekonvolusi adalah mencari bentuk solusi dari filter inverse atau least square inverse filter. Dalam penentuan operator filter, sering didefinisikan bentuk output yang diinginkan. Dekonvolusi bertujuan untuk meningkatkan resolusi temporal, sehingga data seismik menjadi lebih mudah untuk diinterpretasikan. Pada metoda dekonvolusi konvensional khususnya dekonvolusi spiking input harus berfasa minimum agar memberikan output yang spike dan tanpa delay, jika tidak harus menggunakan wavelet shaping. Suatu proses dekonvolusi tidak akan menghasilkan suatu bentuk spike yang sempurna selama ada komponen frekuensi tinggi yang hilang pada proses konvolusi antara wavelet dan operator filter. Hal yang sering terjadi adalah operator filter sering berperilaku untuk menambah frekuensi, yang sebetulnya tidak terkandung dalam wavelet dari seismogram yang mengakibatkan spektrum amplitudo hasil dekonvolusi tidak memberikan bentuk yang flat. Gbr 5. konvolusi