Pengklasifikasi Berdasarkan Optimisasi Fungsi Harga (Cost Function)

Ukuran: px
Mulai penontonan dengan halaman:

Download "Pengklasifikasi Berdasarkan Optimisasi Fungsi Harga (Cost Function)"

Transkripsi

1 Pengklasifikasi Berdasarkan Optimisasi Fungsi Harga (Cost Function) Rachmawati, 06902,TE Jurusan Teknik Elektro dan Teknologi Informasi, FT UGM, Yogyakarta 2.1 PENDAHULUAN Bab ini berkaitan dengan teknik - teknik dan algoritma yang membebaskan dari dasar pemikiran teori keputusan Bayes. Fokusnya adalah pada desain langsung sebuah fungsi diskriminan/ decision surface yang memisahkan kelas-kelas menjadi beberapa pilihan berdasarkan kriteria yang di adopsi (digunakan). Teknikteknik yang dibangun disekitar pengklasifikasi Bayesian yang optimal bergantung pada estimasi fungsi pdf menggambarkan distribusi data dalam setiap kelas. Namun, secara umum ini ternyata menjadi tugas yang sulit, terutama dalam ruang dimensi tinggi. Sebagai alternatif, dapat difokuskan pada merancang permukaan keputusan yang memisahkan kelas-kelas secara langsung dari kumpulan data pelatihan, tanpa harus menyimpulkan itu dari pdfs. Hal ini merupakan permasalahan yang lebih mudah, dan meskipun solusinya mungkin tidak sesuai dengan pengklasifikasi (Bayesian) yang optimal, dalam praktek,dimana ukuran dari set data pelatihan dibatasi, ternyata sering menghasilkan kinerja yang lebih baik dibandingkan pengklasifikasi Bayesian jika kemudian digunakan perhitungan yang melibatkan pdfs. Pembaca yang tertarik dapat menemukan lebih banyak komentar terkait pada [Theo 09,Bagian ]. Kita mulai dengan kasus sederhana perancangan pengklasifikasi linier, dideskripsikan dengan persamaan: Dapat juga ditulis sebagai: Daripada bekerja dengan hyperplane dalam ruang, kita bekerja dengan hyperplane dalam ruang yang melalui origin (titik asal). Hal ini hanya untuk penyederhanaan notasi. Sesudah w dihitung, sebuah x diklasifikasi ke kelas ω 1 (ω 2 ) jika: Untuk pengklasifikasi 2-kelas. Dengan kata lain, pengklasifikasi ini menghasilkan decision surface hyperplane, titik titik yang terletak pada satu sisi itu diklasifikasi untuk ω 1 dan titik-titik yang terletak pada

2 sisi lain diklasifikasikan sebagai ω 2. Agar lebih sederhana, notasi w,x,;vektor-vektor tersebut diasumsikan untuk dapat ditambahkan dengan w 0 dan 1,dan berada di ruang. Gambar 2.1 (a) Pengklasifikasi 2 kelas yang dapat dipisahkan secara linier (b)-(c) permasalahan pengklasifikasi 2-kelas yang tidak dapat dipisahkan secara linier. 2.2 ALGORITMA PERCEPTRON Algoritma perceptron sesuai untuk masalah 2-kelas dan untuk kelas-kelas yang terpisah secara linier (linearly separable). Gambar 2.1(a) menunjukkan sebuah contoh kelas-kelas yang dapat dipisahkan secara linier. Algoritma perceptron menghitung nilai-nilai bobot-bobot w dari pengklasifikasi linier, yang memisahkan dua kelas. Algoritma adalah iteratif. Dimulai dengan perkiraan awal dalam perluasa (l+1)-ruang dimensi dan konvergen terhadap sebuah penyelesaian dengan jumlah langkah iterasi yang terbatas. Solusi w mengklasifikasi secara benar semua titik-titik pelatihan (dengan asumsi,tentu saja, bahwa mereka berasal dari kelas yang dapat dipisahkan secara linier). Mulai dari kondisi awal yang berbeda, hasil hyperplane yang berbeda. Pembaruan pada langkah iterasi ke-t memiliki bentuk sederhana : Dimana w ditambah (augmented) dengan vector w 0, Y adalah himpunan sampel-sampel yang salah diklasifikasikan oleh estimasi w(t),δ x adalah -1 jika x Є ω 1 dan +1 jika x Є ω 2, dan ρ t adalah parameter yang ditentukan oleh user yang mengendalikan kecepatan konvergensi dan harus mematuhi persyaratan tertentu untuk menjamin konvergensi ( sebagai contoh, ρ t dapat dipilih konstan, ρ t = ρ). Algoritma konvergen pada saat Y menjadi kosong. Setelah pengklasifikasi (classifier) dihitung, sebuah titik,x, diklasifikasikan ke salah satu dari dua kelas tergantung pada hasil operasi berikut:

3 Fungsi f(.) dalam bentuk yang paling sederhana adalah step atau sign function (f(z) = 1 if z > 0; f(z) = -1 jika z < 0). Namun, mungkin memiliki bentuk lain; sebagai contoh, output dapat berupa 1 atau 0 untuk z > 0 dan z < 0. Secara umum, ini dikenal sebagai fungsi aktivasi. Model dasar jaringan, dikenal sebagai perceptron atau neuron, yang mengimplementasi operasi pengklasifikasian yang tersirat pada persamaan (2.1), ditunjukkan pada Gambar 2.2. Untuk menjalankan algoritma perceptron, ketik: [w,iter,mis_clas] = perce(x,y,w_ini,rho) dimana X adalah (l+1) x N matriks yang terdiri dari (augmented-by-1) vektor pelatihan sebagai kolom. y adalah vector N-dimensi, dimana komponen ke-i nya adalah label kelas dari vektor fitur masingmasing ( -1 atau +1), w_ini adalah perkiraan awal w, rho adalah (konstan) kecepatan pembelajaran, w adalah vektor yang dihitung dengan algoritma, iter adalah jumlah iterasi yang dikerjakan, mis-clas adalah jumlah vektor misclassified ( tidak bernilai nol jika iterasi mencapai 20000, yang mengindikasikan bahwa algoritma tidak konvergen dan permasalahan tidak dapat dipisahkan secara linier, selain itu 0). Gambar 2.2 Struktur Perceptron

4 Contoh Buatlah empat data set 2-dimensi X i, i = 1,,4, masing-masing berisi data vektor dari dua kelas. Dalam semua X i kelas pertama (dinotasikan -1) berisi 100 vektor terdistribusi merata dalam square [0,2] x [0,2]. Kelas kedua (dinotasikan +1) berisi 100 vektor lainnya yang terdistribusi dalam square [3,5] x [3,5],[2,4] x [2,4],[0,2] x [2,4], dan [1,3] x [1,3] untuk X 1,X 2,X 3, dan X 4. Setiap data vektor di tambahkan dengan koordinat ketiga yang sama dengan 1. Lakukan langkah-langkah berikut: 1. Plot keempat set data dan perhatikan bahwa kita bergerak dari X 1 ke X 3 kelas-kelas saling berdekatan tetapi tetap terpisah secara linier. Dalam X 4 dua kelas overlap. 2. Jalankan algoritma perceptron untuk setiap X i, i = 1,,4, dengan parameter kecepatan belajar 0.01 dan 0.05 dan perkiraan awal untuk parameter vector [1,1,-0.5] T. 3. Jalankan algoritma perceptron untuk X 3 dengan kecepatan belajar 0.05 menggunakan perkiraan awal untuk w [1,1,-0.5] T dan [1,1,0.5] T. 4. Komentar pada hasil. Solusi. Untuk mempertahankan reproduktifitas hasil, pembangkit nilai random MATLAB untuk distribusi uniform diinisialisasi menggunakan seed nilai 0. Ini diperoleh dengan mengetik rand( seed,0) Untuk menghasilkan set data X 1 serta vector yang berisi label kelas dari titik-titik di dalamnya, ketik Data set yang tersisa dapat dihasilkan dengan mengulangi kode sebelumnya dimana baris ketiga digantikan dengan : Kemudian, lakukan hal berikut: Langkah 1. Untuk plot X 1, dimana titik-titik dari kelas yang berbeda dinotasikan dengan warna yang berbeda, ketik

5 Langkah 2. Untuk menjalankan algoritma perceptron untuk X 1 dengan parameter pembelajaran 0.01, ketik Dengan mengubah kode sebelumnya, algoritma perceptron dapat dilakukan pada data yang tersisa menggunakan nilai parameter pembelajaran yang berbeda. Table 2.1 berisi hasil-hasil yang diperoleh dari eksperimen sebelumnya. Langkah 3. Lakukan seperti di langkah 2, hitung w menggunakan algoritma perceptron untuk perkiraan awal [1,1,-0.5] T dan [1,1,0.5] T. hasilnya adalah [ , , ] T dan [ , , ] T Berdasarkan hasil-hasil sebelumnya, dapat ditarik 3 kesimpulan umum : Pertama,untuk parameter pembelajaran yang tetap, jumlah iterasi (secara umum) meningkat sebagaimana kelas-kelas saling bergerak mendekat ( yakni, permasalahan menjadi lebih sulit). Kedua, algoritma gagal untuk konvergen untuk data set X 4, dimana kelas tidak terpisah secara linier ( berjalan untuk jumlah maksimum yang diijinkan dari iterasi yang telah ditentukan). Ketiga, perkiraan awal yang berbeda untuk w dapat menyebabkan estimasi akhir yang berbeda (meskipun semua optimal dalam arti bahwa mereka memisahkan data pelatihan dua kelas) Bentuk Online Algoritma Perceptron Bentuk algoritma perceptron yang telah dijelaskan dikenal sebagai bentuk batch ; pada setiap langkah iterasi,semua data point dipertimbangkan dan sebuah pembaruan dilakukan setelah semua data selesai diproses sebuah pembaruan dapat dilakukan setelah mempertimbangkan setiap point. Setiap kumpulan dari N iterasi berturut-turut,dimana setiap data point telah dipertimbangkan, dikenal sebagai sebuah epoch. Pembaruan algoritmik dilakukan menurut skema berikut: dimana ρ adalah parameter yang mengendalikan konvergensi, dan x (t) menunjukkan point yang dipertimbangkan dalam iterasi ke- t. Label kelas y (t) sama dengan -1 dan +1 untuk dua kelas ω 1 dan ω 2.

6 Pseudocode untuk skema ini diberikan sebagai berikut: 1. Pilih w(0); biasanya w(0) = 0 2. Pilih ρ 3. Pilih max_iter ( Jumlah iterasi maksimum) 4. t = 0 5. Ulangi 6. Sampai count_miscl = 0 or ( t>= max_iter) Contoh Jalankan versi online dari algoritma perceptron untuk data set pada contoh 2.2.1, dengan parameter belajar 0.01 dan 0.05 dan sebuah perkiraan awal untuk parameter vektor [1,1,-0.5] T. Berikan komentar pada hasil. Solusi. Ulangi code yang diberikan pada contoh 2.2.1, sekarang fungsi perce diganti dengan fungsi perce_online. (Jumlah iterasi maksimum di atur Jumlah yang besar ini diperlukan pada saat kelas-kelas sangat dekat satu dengan lainnya). Hasil yang diperoleh setelah melakukan percobaan diberikan dalam Tabel 2.2. Sekali lagi, semakin dekat kelas, semakin banyak iterasi yang dibutuhkan untuk konvergen. Selain itu, konvergensi tidak terjadi untuk kumpulan data yang berisi kelas-kelas yang tidak terpisah secara linier (not linearly separable).

7 2.3 THE SUM OF ERROR SQUARE CLASSIFIER ( JUMLAH KUADRAT KESALAHAN PENGKLASIFIKASI ) Tujuan pada bagian ini tetap sama : untuk memperkirakan parameter-parameter vector,w, dalam perluasan ruang dari classifier linier (hyperplane), w T x = 0 dimana x adalah fitur vektor (augmented by-1). Namun, dalam bagian ini,asumsi keterpisahan linier tidak dibutuhkan. Metode ini juga dikenal sebagai Least Square (LS), mengestimasi pengklasifikasi linier terbaik, dimana istilah terbaik sesuai dengan w yang meminimalkan nilai: dimana y i adalah label kelas yang diketahui dari x i, i = 1,2,3,,N ; dan N adalah jumlah point pelatihan. Hal ini dapat ditunjukkan bahwa estimasi LS diberikan oleh: Matriks ( X T X) -1 X T juga dikenal sebagai pseudoinverse dari X dan dinotasikan sebagai X # [Theo 09, Bagian 3.4.3]. Keuntungan yang signifikan dari metode LS adalah bahwa ia mempunyai solusi tunggal (sesuai dengan single minimum J(w). Selain itu, ini diperoleh dengan menyelesaikan sebuah persamaan system linier (persamaan(2.3)). Dalam praktek, inverse dari matriks ( l+1 ) x ( l + 1), X T X, dapat menyebabkan beberapa kesulitan numerik, khususnya dalam ruang dimensi tinggi. Dalam kasus tersebut, dapat ditambahkan konstanta positif kecil di sepanjang diagonal utama dan menyelesaikan sistem:

8 dimana I adalah matriks identitas ( l+1 ) x ( l + 1), dan C adalah konstanta positif kecil yang ditetapkan user. Hal ini dapat ditunjukkan [Theo 09, Bagian ] bahwa persamaan (2.4) adalah minimize dari versi regular dari nilai pada persamaan (2.2), atau Untuk mendapatkan solusi LS gunakan fungsi: dimana X,y didefinisikan sebagai fungsi perce C adalah parameter yang termasuk dalam persamaan (2.4) w adalah estimator LS dihasilkan oleh fungsi. Perhatikan bahwa versi original (nonregularized) dari classifier LS diperoleh untuk C = 0. Contoh Menghasilkan sekumpulan X 1 dari N 1 = 200 vektor data, 100 stem vektor pertama dari kelas ω 1, yang dimodelkan dengan distribusi Gaussian dengan mean m 1 = [0,0,0,0,0] T. Stem selanjutnya dari ω 2, yang dimodelkan dengan distribusi Gaussian dengan mean m 2 = [1,1,1,1,1] T. Kedua distribusi berbagi matriks kovarians berikut: Bangkitkan data set tambahan X 2 dari N 2 = 200 data vector, berikut prescription yang untuk X 1. Aplikasikan classifier Bayes pada X 2 dan hitung kesalahan pengklasifikasi. digunakan 2. Tambahkan setiap fitur vector dalam X 1 dan X 2 dengan menambahkan 1 sebagai koordinat akhir. Definisikan label kelas sebagai -1 dan +1 untuk dua kelas. Gunakan X 1 sebagai training set, aplikasikan fungsi SSErr MATLAB (dengan C = 0) untuk memperoleh LS estimasi ŵ. Gunakan estimasi ini untuk klasifikasi vector-vektor X 2 sesuai dengan ketidaksamaan

9 Hitung probabilitas error. Bandingkan hasil dengan hasil yang diperoleh pada langkah Ulangi langkah sebelumnya, pertama dengan X 2 diganti dengan sekumpulan X 3 berisi N 3 = 10,000 vektor data dan kemudian dengan satu set X 4 berisi N 4 = 100,000 vektor data. X 3 dan X 4 dihasilkan menggunakan prescription yang diadopsi dari X 1. Komentari hasil. Solusi. Lakukan langkah berikut: Langkah 1. Untuk memastikan reproduktifitas hasil, set seed = 0 untuk fungsi randn MATLAB untuk pembangkitan X 1 ; untuk X 2,X 3,X 4 set seed = 100. Atur parameter-parameter Gaussian model dua kelas dengan mengetik: Untuk menghasilkan X 1 dan label kelas yang dibutuhkan (1 untuk ω 1, 2 untuk ω 2 ), ketik X 2 dihasilkan dengan cara yang serupa, Untuk menghitung kesalahan pengklasifikasin Bayesian pada X 2, ketik: Kesalahan (Error) adalah 14%. Langkah 2. Untuk menambah vector data X 1 dengan sebuah koordinat tambahan yang sama dengan +1, dan untuk merubah label kelas dari 1,2 (digunakan sebelumnya) menjadi -1, +1, ketik: Set X 2 diperlakukan serupa. Untuk menghitung kesalahan pengklasifikasi dari pengklasifikasi LS berdasarkan X 2, ketik :

10 Error adalah 15%. Step 3. Dengan mengganti X 2 dengan X 3 dan X 4, dan mengaplikasikan code yang diberikan pada step 1 dan 2, hasil ditunjukkan pada Tabel 2.3. Dari tabel dapat dilihat bahwa kesalahan klasifikasi dari LS classifier sangat dekat dengan Bayesian classifier. Hal ini dibuktikan dengan fakta bahwa pengklasifikasi keputusan yang optimal untuk permasalahan tersebut adalah linier [Theo 09, Bagian 2.4.2]. Perhatikan bahwa karena kesalahan klasifikasi dari dua pengklasifikasi dihitung dengan lebih akurat ( yakni, sebagai jumlah vector dalam test set meningkat),mereka lebih dekat satu dengan lainnya. Hal ini menunjukkan pentingnya mempunyai jumlah data set yang banyak tidak hanya untuk pelatihan tetapi juga untuk pengujian. Contoh Bangkitkan satu set N 1 = 1000 vektor data dimana 500 stem pertama dari kelas ω 1 dimodelkan dengan distribusi Gaussian dengan mean m 1 = [0,0,0,0,0,] T dan stem sisanya dari kelas ω 2 dimodelkan dengan distribusi Gaussian dengan mean m 2 = [2,2,0,2,2] T. Distribusi keduanya mengikuti matriks kovarians Setiap vector data ditambahkan dengan enam koordinat, yang sama dengan +1 untuk semua vector. Biarkan X 1 menjadi matriks (l+1) x N yang kolumnya adalah vector dari data set (untuk reproduktifitas hasil, set seed = 0 untuk fungsi randn MATLAB). Selain itu, bangkitkan satu set X 2 yang terdiri dari 10,000 point, gunakan prescription diikuti untuk X 1 ( untuk reproduktifitas hasil, atur seed = 100 untuk fungsi randn MATLAB).

11 1. Hitung jumlah kondisi dari matriks X 1 X T ( semakin besar jumlah kondisi, matriks semakin mendekati singularitas). Jalankan versi original (nonregularized) dari pengklasifikasi LS (Persamaan.(2.3)) untuk estimasi w. 2. Ulangi langkah 1 untuk versi regularized (pers.(2.4)) dari pengklasifikasi LS untuk C = Komentari hasil yang diperoleh pada langkah 1 dan Estimasi kesalahan klasifikasi bersama dengan hasil w dari langkah 1 dan 2 berdasarkan data set X 2. Solusi. Untuk membangkitkan matrik X 1, ketik : Dengan cara yang sama, hasilkan X 2. Lakukan langkah berikut: Langkah 1. Untuk menghitung jumlah kondisi X 1 X 1 T dan vector solusi w untuk versi original dari pengklasifikasi LS, ketik : Langkah 2. Ulangi langkah 1 untuk pengklasifikasi LS versi regularized, ketik: Langkah 3. Amati bahwa jumlah kondisi X 1 X 1 T ( x ) adalah urutan dari magnitude lebih besar dari X 1 X 1 T + CI ( x 10 4 ), dimana I adalah matriks identitas ( l + 1 ) x ( l + 1 ). Dalam versi original ( C= 0 ), dan untuk Precision MATLAB yang sekarang, X 1 X 1 T adalah singular dan tidak dibutuhkan estimasi w, karena system linier (Pers(2.3)) tidak dapat diselesaikan. Sebaliknya, versi regularized, X 1 X 1 T + CI invertible dan diperoleh estimasi w, yakni [ , , 0, , , ] T. Langkah 4. Hitung kesalahan klasifikasi pada X 2 untuk w yang diberikan dengan mengetik

12 Untuk pengklasifikasi LS versi regularized, kesalahan klasifikasi sama dengan 2.67% Pengklasifikasi LS Multiclass Asumsikan kita diberikan sekumpulan N point data pelatihan, x i Є, I = 1,2,.,N, dan asumsi bahwa ini dimulai dari kelas c >2. Tujuan adalah untuk merancang sebuah pengklasifikasi yang terdiri dari fungsi diskriminan linier c ( satu untuk setiap kelas): Design berdasarkan pada kriteria LS. Aturan klasifikasi adalah sebagai berikut : untuk x yang diberikan, klasifikasikan ke kelas ω 1 jika Mengikuti rationale dijelaskan dalam (Theo,09, Bagian 3.4.1], kita merancang fungsi linier c sebagai berikut: Untuk setiap x i, tentukan label kelas vector c-dimensional. Element ke j, y ij adalah 1 jika x i Є ω j, dan 0 untuk yang lain. Estimasi ω j dan ω j0 untuk memperkecil nilai : Dalam hal ini, setiap harus menyelesaikan c masalah LS, satu untuk setiap kelas. Harus ditegaskan bahwa label kelas berhubungan dengan setiap point pelatihan adalah berbeda untuk setiap satu dari masalah c bergantung pada apakah point merupakan bagian kelas yang berurutan atau tidak. Lebih spesifik, dalam masalah LS ke j, label kelas adalah 1 untuk setiap point dari kelas ke-j dan 0 untuk point dari seluruh kelas-kelas yang lain. Perhatikan bahwa setiap hyperplane, w j, dilatihkan, sehingga idealnya semua point dari kelas ω j terletak pada salah-satu sisinya dan semua titik yang lain terletak pada sisi (bagian) yang lain. Untuk menyelesaikan setiap satu dari masalah c LS, kita mengikuti prosedur yang sama untuk persamaan (2.2). Seperti sebelumnya, threshold w j0 ditempatkan pada masing-masing w j dengan memperluas dimensi dari ruang fitur dengan satu.

13 Contoh Pertimbangkan sebuah masalah klasifikasi 3-kelas yang terdiri dari tiga kelas ω 1, ω 2, ω 3. Kelas dimodelkan dengan distribusi Gaussian dengan means m 1 = [1,1,1] T, m 2 = [5,3,2] T, dan m 3 = [3,3,4] T. Semua distribusi menggunakan matriks kovarians yang sama: Hasilkan dan plot dua set data, X 1 (training set) dan X 2 (test set), yang masing-masing terdiri dari 1000 dan 10,000 vektor data. Apply fungsi SSErr MATLAB pada X 1 untuk memperkirakan parameter vector w 1,w 2,w 3 dari tiga fungsi diskriminant linier dalam perluasan ruang 4-dimensi. Gunakan set X 2 untuk menghitung probabilitas error. 2. Dari teori [Theo 09, Bagian 3.5.2],diketahui kriteria LS, jika digunakan 0.1 sebagi nilai respon yang diinginkan ( label kelas ), menyediakan estimasi LS dari probabilitas berikutnya; jika w j adalah estimasi LS dari vektor parameter dari fungsi diskriminan linier ke-j, maka: Untuk menguji, hitung probabilitas sebenarnya dan estimasi LSnya, g j (x i ). j = 1,.,c, i = 1,.,N 2,pada vector X 2 (N 2 adalah jumlah vector dalam X 2 ). Kemudian hitung kuadrat error rata-rata dari estimasi menggunakan g j (x i ). 3. Hitung error klasifikasi dari (optimal) pengklasifikasi Bayesian pada X 2 dan bandingkan dengan hasil pengklasifikasi LS pada langkah 1. Petunjuk Ingat bahwa dimana dengan P(ω i ) merupakan probabilitas awal kelas ω i.

14 Solusi. Lakukan Langkah berikut Langkah 1. Untuk memastikan reproduktifitas hasil, inisialisasi fungsi randn MATLAB menggunakan nilai seed 0 untuk X 1 dan 100 untuk X 2. Untuk menghasilkan X 1, ketik : Untuk plot data set X 1, gunakan warna berbeda untuk point pada kelas yang berbeda, ketik : Gunakan tombol Rotate 3D untuk melihat data set dari sudut berbeda. Berikutnya, tentukan c x N 1 dimensional matrik z 1, setiap kolom yang berkoresponden terhadap satu training point. Secara spesifik, elemen ke-i kolomnya sama dengan nol kecuali satu, yang sama dengan unity. Posisi akhir menunjukkan kelas dimana koresponden vector x i dari X i berada. Dengan cara yang sama, hasilkan X 2 dan z 2. Untuk estimasi parameter vektor dari 3 fungsi diskriminan, ketik :

15 Dalam matriks ( l + 1) x c w_all, kolom ke-i berkoresponden ke parameter vektor ke-i fungsi diskriminant. Untuk menghitung error klasifikasi menggunakan set X 2, ketik : Kesalahan klasifikasi dalam kasus ini adalah 5.11 % ( diestimasi berdasarkan X 2 ). Langkah 2. Untuk menghitung perkiraan probabilitas berikutnya sebagai hasil dari framework pengklasifikasi LS, ketik : Untuk menghitung probabilitas berikutnya yang sebenarnya, ketik pernyataan berikut: Untuk menghitung kuadrat error rata-rata dalam perkiraann dengan menggunakan, ketik Error adalah Perhatikan bahwa ini adalah sangat kecil, menunjukkan estimasi yang bagus.

16 Langkah 3. Untuk menghitung error pengklasifikasi Bayesian, dengan posteriori probabilities sebenarnya diketahui, ketik : Sebagai alternatif, gunakan fungsi MATLAB bayes_classifier. Kesalahan klasifikasi untuk kasus ini adalah 4.82% ( diestimasi berdasarkan X 2 ). Latihan Pertimbangkan setup contoh dimana sekarang means dari 3 kelas ω 1, ω 2, ω 3 adalah m 1 = [0,0,0] T, m 2 = [1,2,2] T, dan m 3 = [3,3,4] T. Apply fungsi SSErr MATLAB pada data set X 1 untuk estimasi parameter vektor w 1,w 2,w 3 dari tiga fungsi diskriminant linier, dalam perluasan ruang 4- dimensi. Gunakan set X 2 untuk menghitung probabilitas error. 2. Hitung error klasifikasi dari (optimal) pengklasifikasi Bayesian pada X 2 dan bandingkan dengan dengan hasil pengklasifikasi LS pada langkah SUPPORT VECTOR MACHINES: KASUS LINIER Perlakuan Anaitis dan derivasi dari rumus terkait untuk pengklasifikasi SVM terdapat di [Theo 09, Bagian 3.7]. di sini, Selain fungsi MATLAB, kami menyediakan beberapa petunjuk berkaitan dengan pemahaman dasar pemikiran SVM. Inti design pengklasifikasi SVM adalah gagasan tentang margin. Pertimbangkan pengklasifikasi linier Margin adalah daerah anatara dua hyperplane parallel Hal ini dengan mudah ditunjukkan [Theo 09, Bagian 3.2] bahwa jarak Euclidean dari setiap point yang terletak pada dua hyperplane pada persamaan (2.7) dari pengklasifikasi hyperplane diberikan oleh 1 persamaan (2.6) adalah sama dengan, dimana. menunjukkan Euclidean norm. w Sebuah pertanyaan kadang-kadang diangkat oleh seorang pendatang baru dalam bidang ini adalah mengapa margin didefinisikan oleh kedua magic angka +1 dan -1. Jawabannya adalah bahwa ini bukan masalah. Mari kita pertimbangkan sebuah hyperplane dalam ruang- sebagai contoh, persamaan (2.6), seperti ditunjukkan Gambar 2.3 dengan garis penuh dan dua parallel ke hyperplane nya (garis putu-putus) Parameter d dapat berupa nilai berapapun, yang berarti bahwa kedua bidang dapat saling berdekatan atau berjauhan. Tetapkan nilai d dan bagi kedua bagian persamaan sebelumnya dengan d, kita dapatkan ± 1 pada sisi kanan. Bagaimanapun, arah dan posisi dalam ruang dari dua hyperplane tidak berubah. Aplikasi yang sama untuk hyperplane dideskripsikan dengan persamaan (2.6). Normalisasi dengan sebuah nilai d konstan tidak berdampak terhadap titik-titik yang terletak pada (dan menetapkan) sebuah hyperplane.

17 Sejauh ini, kita telah mempertimbangkan bahwa error adalah committed dengan sebuah titik jika itu adalah pada sisi yang salahdari permukaan keputusan yang dibentuk pengklasifikasi masing-masing. Sekarang kita akan menjadi lebih bersyarat. Tidak hanya titik-titik yang berada pada sisi yang salah dari pengklasifikasi yang berkontribusi terhadap fungsi kesalahan perhitungan (error-counting function), melainkan juga setiap titik yang terletak di dalam margin, bahkan jika terletak pada sisi yang benar dari pengklasifikasi. Hanya titik-titik yang terletak di luar margin dan pada sisi yang benar dari pengklasifikasi yang tidak berkonstribusi terhadap error-counting cost. Gambar 2.4 menunjukkan dua kelas yang overlapping dan dua pengklasifikasi linier yang masing-masing digambarkan dengan garis putus-putus dan garis yang solid. Untuk kedua kasus, margin telah dipilih untuk mencakup lima point.amati bahwa untuk kasus pengklasifikasi garis putu-putus, agar dapat mencakup lima poin margin harus dibuat sempit. Bayangkan jika lingkaran yang terbuka dan terisi pada Gambar 2.4 adalah rumah-rumah di dua desa terdekat dan bahwa jalan harus dibangun di antara dua desa. Satu harus memutuskan dimana harus dibangun jalan sehingga dapat selebar mungkin dan dikenakan sedikit biaya ( dalam arti jumlah terkecil menghancurkan rumah). Tidak ada insinyur yang bijaksana akan memilih garis putus-putus. Ide ini mirip dengan perancangan sebuah classifier. Harus ditempatkan antara daerah berpopulasi tinggi ( kepadatan probabilitas tinggi) dari dua kelas dan di daerah data yang jarang dalam data, meninggalkan kemungkinan margin terbesar. Hal ini ditentukan oleh persyaratan untuk kinerja generalisasi yang baik yang ditunjukkan setiap pengklasifikasi. Beberapa pengklasifikasi mengetahui training set dengan baik, karena pernah dicobakan padanya. Maka, kita dapat membentuk sebuah pengklasifikasi dengan hasil error rate yang sangat kecil pada training set tetapi menjadi buruk pada saat dihadapkan dengan unknown data.

18 Diskusi ini mengarah ke formulasi matematis berikut. Diberikan sekumpulan training point, x i, dengan label kelas masing-masing, y i Є {-1,1}, i = 1,2,,N, untuk klasifikasi 2-kelas, hitung sebuah hyperlane (Pers. (2.6)) sehingga untuk Lebar margin adalah sama dengan 2. Margin error, ξi, tidak negatif ; bernilai nol untuk titik-titik di luar w margin dan pada sisi yang benar dari pengklasifikasi dan positif untuk titik-titik di dalam atau di luar margin dan pada sisi yang salah dari pengklasifikasi. C adalah konstan yang ditentukan user. Solusi diberikan sebagai rata-rata bobot dari training point: Koefisien λ i adalah Lagrange multipliers dari optimisasi dan bernilai nol untuk semua titik di luar margin dan pada sisi yang benar dari pengklasifikasi. Titik-titik tersebut tidak berkonstribusi ke formasi arah pengklasifikasi. Point-point yang tersisa, dengan λ i tidak sama dengan nol, yang berkonstribusi untuk membangun w, disebut support vectors. Untuk membangkitkan pengklasifikasi SVM linier, fungsi MATLAB SM02 dapat digunakan. Khususnya SM02 yang dipanggil dengan mengetik: Dimana inputnya adalah Sebuah matriks X berisi titik-titik data set ( setiap baris adalah sebuah titik), Label kelas dari data point (y ), Tipe fungsi Kernel yang akan digunakan ( dalam kasus ini linear ), Dua parameter kernel kpar1 dan kpar2 ( dalam kasus linier keduanya di set menjadi 0), Parameter C, Parameter tol, Jumlah maksimum langkah iterasi dari algoritma,

19 Threshold eps ( angka yang sangat kecil, biasanya ) digunakan dalam perbandingan dua angka (jika perbedaan keduanya lebih kecil dari threshold, maka dipertimbangkan sama keduanya). Metode optimisasi yang digunakan ( 0 Platt, 1 Modifikasi Keerthi 1, 2 Modifikasi Keerthi2), 1 Alpha adalah vektor yang berisi Larange Multiplier berhubungan dengan training points, w0 nilai Threshold, w adalah vektor berisi parameter hyperlane,dihasilkan algoritma. Parameter tol adalah sebuah scalar yang mengendalikan akurasi dari solusi yang diperoleh [Theo 09, Bagian 3.7.2]. Semakin besar nilai tol, semakin jauh solusi algoritma berhenti. Biasanya nilai untuk tol adalah Contoh Dalam ruang 2-dimensi, diberikan dua equiprobable classes, yang mengikuti distribusi Gaussian dengan mean m 1 = [ 0, 0] T dan m 2 = [ 1.2, 1.2] T dan matriks kovarian S 1 = S 2 = 0.2I, dimana I adalah matriks identitas 2 x Bangkitkan dan plot data set X 1 berisi 200 point dari setiap kelas ( total 400 poin), yang akan digunakan untuk pelatihan ( gunakan nilai 50 sebagai seed untuk randn MATLAB). Bangkitkan data set yang lain X 2 berisi 200 point dari setiap kelas, yang akan digunakan untuk pengujian ( gunakan 100 untuk seed untuk fungsi randn MATLAB). 2. Berdasarkan X 1, jalankan algoritma Platt untuk menghasilkan 6 pengklasifikasi SVM yang memisahkan dua kelas, gunakan C = 0.1, 0.2, 0.5, 1, 2, 20. Set tol = a) Hitung error klasifikasi dari training dan test set b) Hitung support vectors. c) Hitung margin 2 w d) Plot pengklasifikasi sebagai garis margin Solusi. Lakukan langkah berikut: Langkah 1. Untuk menghasilkan data set X 1, ketik

20 Untuk plot data set, ketik Perhatikan bahwa kelas overlap. Untuk menghasilkan X 2 ulangi code, ganti baris pertama dengan Langkah 2. Untuk menghasilkan pengklasifikasi SVM yang dibutuhkan untuk C = 0.1, gunakan fungsi SM02, ketik Pengklasifikasi yang lain dihasilkan dengan cara yang sama. a) Untuk menghitung error klasifikasi pada training set, ketik Error klasifikasi pada test set, X 2, dihitung dengan cara yang sama. b) Untuk plot hyperplane pengklasifikasi sebaik garis margin, gunakan fungsi svcplot_book dengan mengetik:

21 c) Untuk menghitung support vectors, ketik d) Untuk menghitung margin, ketik Hasil percobaan ini ditunjukkan dalam Tabel 2.4. Dapat dilihat bahwa margin dari solusi meningkat sesuai dengan C menurun. Hal ini natural karena peningkatan C membuat margin term pada persamaan (2.8) lebih signifikan. Untuk permasalahan, kinerja terbaik ( minimum test error) diperoleh untuk C = Generalisasi Multiclass Dalam bagian ini, focus pada satu metode multi kelas, dikenal sebagai one-against-all ( untuk lebih detil pada masalah multikelas lihat [Theo 09, Bagian 3.7.3]). Teknik ini tidak disesuaikan dengan SVM. Hal ini umum dan dapat digunakan dengan beberapa pengklasifikasi untuk masalah 2-kelas. Lebih lanjut, hal ini tidak hanya alat belajar-mengajar, tetapi secara actual digunakan secara luas. Berdasarkan metode one-against-all, pengklasifikasi charus dirancang. Setiap dari mereka didesign untuk memisahkan satu kelas dari lainnya (ingat kembali ini adalah permasalahan yang diselesaikan pada Bagian berdsarkan kriteria LS). Untuk paradigm SVM, kita harus mendesign c pengklasifikasi linier : Sebagai contoh, untuk mendesign pengklasifikasi w 1, kita pertimbangkan training data dari semua kelas selain ω i untuk membentu kelas kedua. Secara nyata, jika sebuah error dimasukkan diharapkan semua point dari kelas ω 1 untuk dihasilkan dalam:

22 dan data dari kelas-kelas yang tersisa untuk dihasilkan dalam hasil negative. X diklasifikasi dalam ωi jika: Contoh Hasilkan dan plot dua set dara X 1 (training) dan X 2 (test) menggunakan prescription pda contoh 2.3.2, kecuali sekarang setiap set berisi 120 data point. 2. Berdasarkan X 1, estimasi parameter vektor w 1, w 2, w 3 dari tiga fungsi diskriminan linier menggunakan modifikasi pertama dari algoritma Platt [Keer 01] (pengklasifikasi SVM). Estimasi error klasifikasi berdasarkan X 2. Solusi. Lakukan langkah berikut: Langkah 1. Untuk membangkitkan X 1 dan X 2, kerjakan seperi pada contoh 2.3.3, untuk Plot X 1, ketik : Langkah 2. Dalam kasus ini, matrik z 1 dan z 2 dibentuk dengan cara yang sama seperti pada contoh 2.3.3, tetapi sekarang elemen-elemen 0 diganti dengan -1. Secara spesifik, ketik : Dimana c adalah jumlah kelas dan N 1 adalah jumlah training vektor. Dengan cara yang sama tentuka z 2. Untuk menghitung pengklasifikasi SVM, ketik :

23 Untuk estimasi error rate klasifikasi berdasarkan X 2, ketik Error klasifikasi dalam kasus ini 0.05%. Sebagai perbandingan, Error klasifikasi Bayesian adalah 3.3 %. ( Jelaskan mengapa nilai yang terakhir berbeda dengan yang didapat dalam contoh 2.3.2)

24 REFERENSI [1] Theodoridis Sergio, and Konstantinos Koutroumbas, An Introduction To Pattern Recognition : A MATLB Approach, Academic Press, USA, 2010.

Pada dasarnya lebih sulit drpd classifier berdasar teori bayes, terutama untuk data dimensi tinggi.

Pada dasarnya lebih sulit drpd classifier berdasar teori bayes, terutama untuk data dimensi tinggi. 1 Fokus pd desain fungsi pembeda (discriminant function) atau decision surface scr langsung yang membedakan satu kelas dengan kelas yg lain berdasarkan kriteria yg telah ditentukan. Pada dasarnya lebih

Lebih terperinci

BAB III LANDASAN TEORI. Definisi Peramalan adalah memperkiraan atau memproyeksikan sesuatu

BAB III LANDASAN TEORI. Definisi Peramalan adalah memperkiraan atau memproyeksikan sesuatu BAB III LANDASAN TEORI 3.1 Definisi Peramalan Definisi Peramalan adalah memperkiraan atau memproyeksikan sesuatu yang akan terjadi dimasa sekarang maupun yang akan datang. dikarena masa yang akan datang

Lebih terperinci

BAB II TINJAUAN PUSTAKA

BAB II TINJAUAN PUSTAKA BAB II TINJAUAN PUSTAKA 2.1 Matriks Matriks adalah himpunan bilangan real yang disusun secara empat persegi panjang, mempunyai baris dan kolom dengan bentuk umum : Tiap-tiap bilangan yang berada didalam

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 2.1 Noise Pada saat melakukan pengambilan gambar, setiap gangguan pada gambar dinamakan dengan noise. Noise dipakai untuk proses training corrupt image, gambarnya diberi noise dan

Lebih terperinci

SVM untuk Regresi. Machine Learning

SVM untuk Regresi. Machine Learning MMA10991 Topik Khusus - Machine Learning Dr. rer. nat. Hendri Murfi Intelligent Data Analysis (IDA) Group Departemen Matematika, Universitas Indonesia Depok 16424 Telp. +62-21-7862719/7863439, Fax. +62-21-7863439,

Lebih terperinci

BAB III KALMAN FILTER DISKRIT. Kalman Filter adalah rangkaian teknik perhitungan matematika (algoritma)

BAB III KALMAN FILTER DISKRIT. Kalman Filter adalah rangkaian teknik perhitungan matematika (algoritma) BAB III KALMAN FILTER DISKRIT 3.1 Pendahuluan Kalman Filter adalah rangkaian teknik perhitungan matematika (algoritma) yang memberikan perhitungan efisien dalam mengestimasi state proses, yaitu dengan

Lebih terperinci

BAB III METODE PENELITIAN. menjawab segala permasalahan yang ada dalam penelitian ini.

BAB III METODE PENELITIAN. menjawab segala permasalahan yang ada dalam penelitian ini. BAB III METODE PENELITIAN Pada bab ini akan dijelaskan bahan yang digunakan dalam membantu menyelesaikan permasalahan, dan juga langkah-langkah yang dilakukan dalam menjawab segala permasalahan yang ada

Lebih terperinci

Bab 5 Penerapan Neural Network Dalam Klasifikasi Citra Penginderaan Jauh

Bab 5 Penerapan Neural Network Dalam Klasifikasi Citra Penginderaan Jauh Penerapan Neural Dalam Klasifikasi Citra Penginderaan Jauh Klasifikasi citra penginderaan jarak jauh (inderaja) merupakan proses penentuan piksel-piksel masuk ke dalam suatu kelas obyek tertentu. Pendekatan

Lebih terperinci

PENERAPAN METODE KLASIFIKASI SUPPORT VECTOR MACHINE (SVM) PADA DATA AKREDITASI SEKOLAH DASAR (SD) DI KABUPATEN MAGELANG

PENERAPAN METODE KLASIFIKASI SUPPORT VECTOR MACHINE (SVM) PADA DATA AKREDITASI SEKOLAH DASAR (SD) DI KABUPATEN MAGELANG ISSN: 2339-2541 JURNAL GAUSSIAN, Volume 3, Nomor 4, Tahun 2014, Halaman 811-820 Online di: http://ejournal-s1.undip.ac.id/index.php/gaussian PENERAPAN METODE KLASIFIKASI SUPPORT VECTOR MACHINE (SVM) PADA

Lebih terperinci

BAB VIII JARINGAN SYARAF TIRUAN

BAB VIII JARINGAN SYARAF TIRUAN BAB VIII JARINGAN SYARAF TIRUAN A. OTAK MANUSIA Otak manusia berisi berjuta-juta sel syaraf yang bertugas untuk memproses informasi. Tiaptiap sel bekerja seperti suatu prosesor sederhana. Masing-masing

Lebih terperinci

SVM untuk Regresi Ordinal

SVM untuk Regresi Ordinal MMA10991 Topik Khusus - Machine Learning Dr. rer. nat. Hendri Murfi Intelligent Data Analysis (IDA) Group Departemen Matematika, Universitas Indonesia Depok 16424 Telp. +62-21-7862719/7863439, Fax. +62-21-7863439,

Lebih terperinci

BAB II DASAR TEORI. Pada bab ini akan dibahas teori-teori pendukung yang digunakan sebagai acuan dalam merancang algoritma.

BAB II DASAR TEORI. Pada bab ini akan dibahas teori-teori pendukung yang digunakan sebagai acuan dalam merancang algoritma. BAB II DASAR TEORI Pada bab ini akan dibahas teori-teori pendukung yang digunakan sebagai acuan dalam merancang algoritma. 2.1. Microsoft Visual Studio Microsoft Visual Studio adalah sebuah software yang

Lebih terperinci

g(x, y) = F 1 { f (u, v) F (u, v) k} dimana F 1 (F (u, v)) diselesaikan dengan: f (x, y) = 1 MN M + vy )} M 1 N 1

g(x, y) = F 1 { f (u, v) F (u, v) k} dimana F 1 (F (u, v)) diselesaikan dengan: f (x, y) = 1 MN M + vy )} M 1 N 1 Fast Fourier Transform (FFT) Dalam rangka meningkatkan blok yang lebih spesifik menggunakan frekuensi dominan, akan dikalikan FFT dari blok jarak, dimana jarak asal adalah: FFT = abs (F (u, v)) = F (u,

Lebih terperinci

SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON

SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON Jurnal Informatika Mulawarman Vol. 7 No. 3 Edisi September 2012 105 SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON Anindita Septiarini Program Studi Ilmu Komputer FMIPA,

Lebih terperinci

METODOLOGI PENELITIAN

METODOLOGI PENELITIAN III. METODOLOGI PENELITIAN A. Kerangka Pemikiran Perusahaan dalam era globalisasi pada saat ini, banyak tumbuh dan berkembang, baik dalam bidang perdagangan, jasa maupun industri manufaktur. Perusahaan

Lebih terperinci

Model Linear untuk Klasifikasi

Model Linear untuk Klasifikasi MMA10991 Topik Khusus - Machine Learning Model Linear untuk Klasifikasi Dr. rer. nat. Hendri Murfi Intelligent Data Analysis (IDA) Group Departemen Matematika, Universitas Indonesia Depok 16424 Telp. +62-21-7862719/7863439,

Lebih terperinci

BAB 7. CLUSTERING Danny Kurnianto, 10/305827/PTK/06844 Jurusan Teknik Elektro dan Teknologi Informasi UGM Yogyakarta

BAB 7. CLUSTERING Danny Kurnianto, 10/305827/PTK/06844 Jurusan Teknik Elektro dan Teknologi Informasi UGM Yogyakarta BAB 7. CLUSTERING Danny Kurnianto, 10/305827/PTK/06844 Jurusan Teknik Elektro dan Teknologi Informasi UGM Yogyakarta 7.1 PENDAHULUAN Pada bab sebelumnya, kita membahas mengenai pengenalan pola terbimbing

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 2.1 Himpunan Fuzzy Tidak semua himpunan yang dijumpai dalam kehidupan sehari-hari terdefinisi secara jelas, misalnya himpunan orang miskin, himpunan orang pandai, himpunan orang tinggi,

Lebih terperinci

Support Vector Machine

Support Vector Machine MMA10991 Topik Khusus Machine Learning Dr. rer. nat. Hendri Murfi Intelligent Data Analysis (IDA) Group Departemen Matematika, Universitas Indonesia Depok 16424 Telp. +62-21-7862719/7863439, Fax. +62-21-7863439,

Lebih terperinci

PENDAHULUAN A. Latar Belakang 1. Metode Langsung Metode Langsung Eliminasi Gauss (EGAUSS) Metode Eliminasi Gauss Dekomposisi LU (DECOLU),

PENDAHULUAN A. Latar Belakang 1. Metode Langsung Metode Langsung Eliminasi Gauss (EGAUSS) Metode Eliminasi Gauss Dekomposisi LU (DECOLU), PENDAHULUAN A. Latar Belakang Persoalan yang melibatkan model matematika banyak muncul dalam berbagai disiplin ilmu pengetahuan, seperti dalam bidang fisika, kimia, ekonomi, atau pada persoalan rekayasa.

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 21 Analisis Regresi Perubahan nilai suatu variabel tidak selalu terjadi dengan sendirinya, namun perubahan nilai variabel itu dapat disebabkan oleh berubahnya variabel lain yang berhubungan

Lebih terperinci

BAB 3 PERANCANGAN SISTEM. Bab ini menguraikan analisa penelitian terhadap metode Backpropagation yang

BAB 3 PERANCANGAN SISTEM. Bab ini menguraikan analisa penelitian terhadap metode Backpropagation yang BAB 3 PERANCANGAN SISTEM Bab ini menguraikan analisa penelitian terhadap metode Backpropagation yang diimplementasikan sebagai model estimasi harga saham. Analisis yang dilakukan adalah menguraikan penjelasan

Lebih terperinci

SUPPORT VECTOR MACHINE (SVM)

SUPPORT VECTOR MACHINE (SVM) MAKALAH DATA MINING SUPPORT VECTOR MACHINE (SVM) Di Susun Oleh : Nama : RA. Toyyibatul Faihah NRP : 07.04.111.00132 JURUSAN TEKNIK INFORMATIKA FAKULTAS TEKNIK UNIVERSITAS TRUNOJOYO 2010 1 PENDAHULUAN 1.1

Lebih terperinci

Mesin Vektor Pendukung (SVM) Kasus Non Linier Beny Firman, 10 / / PTK / TE Jurusan Teknik Elektro & Teknologi Informasi FT UGM Yogyakarta

Mesin Vektor Pendukung (SVM) Kasus Non Linier Beny Firman, 10 / / PTK / TE Jurusan Teknik Elektro & Teknologi Informasi FT UGM Yogyakarta Mesin Vektor Pendukung (SVM) Kasus Non Linier Beny Firman, 10 / 309779 / PTK / 07207 TE Jurusan Teknik Elektro & Teknologi Informasi FT UGM Yogyakarta 2.5 SVM: Kasus Non Linier Dalam menggunakan Teknik

Lebih terperinci

BAB III METODOLOGI. Support Vector Machines (SVM) merupakan salah satu metode machine

BAB III METODOLOGI. Support Vector Machines (SVM) merupakan salah satu metode machine BAB III METODOLOGI 3.1 Hipotesis Support Vector Machines (SVM) merupakan salah satu metode machine learning yang dapat melakukan klasifikasi data dengan sangat baik. Metode ini bertujuan untuk mendapatkan

Lebih terperinci

BAB 3 PROSEDUR DAN METODOLOGI. menawarkan pencarian citra dengan menggunakan fitur low level yang terdapat

BAB 3 PROSEDUR DAN METODOLOGI. menawarkan pencarian citra dengan menggunakan fitur low level yang terdapat BAB 3 PROSEDUR DAN METODOLOGI 3.1 Permasalahan CBIR ( Content Based Image Retrieval) akhir-akhir ini merupakan salah satu bidang riset yang sedang berkembang pesat (Carneiro, 2005, p1). CBIR ini menawarkan

Lebih terperinci

BAB 3 METODOLOGI PENELITIAN

BAB 3 METODOLOGI PENELITIAN BAB 3 METODOLOGI PENELITIAN 3.1. Data Yang Digunakan Dalam melakukan penelitian ini, penulis membutuhkan data input dalam proses jaringan saraf tiruan backpropagation. Data tersebut akan digunakan sebagai

Lebih terperinci

KOEFISIEN DETERMINASI REGRESI FUZZY SIMETRIS UNTUK PEMILIHAN MODEL TERBAIK. Iqbal Kharisudin. Jurusan Matematika FMIPA Universitas Negeri Semarang

KOEFISIEN DETERMINASI REGRESI FUZZY SIMETRIS UNTUK PEMILIHAN MODEL TERBAIK. Iqbal Kharisudin. Jurusan Matematika FMIPA Universitas Negeri Semarang KOEFISIEN DETERMINASI REGRESI FUZZY SIMETRIS UNTUK PEMILIHAN MODEL TERBAIK S-33 Iqbal Kharisudin Jurusan Matematika FMIPA Universitas Negeri Semarang Email: iqbal_kh@staff.unnes.ac.id Abstrak: Dalam analisis

Lebih terperinci

PENGGUNAAN METODE JARINGAN NEURAL PERCEPTRON UNTUK MENGENAL POLA KARAKTER KAPITAL

PENGGUNAAN METODE JARINGAN NEURAL PERCEPTRON UNTUK MENGENAL POLA KARAKTER KAPITAL J. Pilar Sains 6 (2) Juli 2007 Jurusan Pendidikan MIPA FKIP Universitas Riau ISSN 1412-5595 PENGGUNAAN METODE JARINGAN NEURAL PERCEPTRON UNTUK MENGENAL POLA KARAKTER KAPITAL Zaiful Bahri 1 Dosen Program

Lebih terperinci

Architecture Net, Simple Neural Net

Architecture Net, Simple Neural Net Architecture Net, Simple Neural Net 1 Materi 1. Model Neuron JST 2. Arsitektur JST 3. Jenis Arsitektur JST 4. MsCulloh Pitts 5. Jaringan Hebb 2 Model Neuron JST X1 W1 z n wi xi; i1 y H ( z) Y1 X2 Y2 W2

Lebih terperinci

HASIL DAN PEMBAHASAN

HASIL DAN PEMBAHASAN HASIL DAN PEMBAHASAN Ekstraksi ciri Citra yang digunakan dalam penelitian ini berukuran 150 x 150 pixel, sehingga jika divektorkan akan menghasilkan vektor berukuran 22500. Melalui tahap ekstraksi ciri

Lebih terperinci

KLASIFIKASI WILAYAH DESA-PERDESAAN DAN DESA-PERKOTAAN WILAYAH KABUPATEN SEMARANG DENGAN SUPPORT VECTOR MACHINE (SVM)

KLASIFIKASI WILAYAH DESA-PERDESAAN DAN DESA-PERKOTAAN WILAYAH KABUPATEN SEMARANG DENGAN SUPPORT VECTOR MACHINE (SVM) KLASIFIKASI WILAYAH DESA-PERDESAAN DAN DESA-PERKOTAAN WILAYAH KABUPATEN SEMARANG DENGAN SUPPORT VECTOR MACHINE (SVM) SKRIPSI Disusun Oleh : MEKAR SEKAR SARI NIM. 24010210120008 JURUSAN STATISTIKA FAKULTAS

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI Pada bab ini akan diuraikan mengenai landasan teori yang akan digunakan dalam bab selanjutnya. 2.1 Matriks Sebuah matriks, biasanya dinotasikan dengan huruf kapital tebal seperti A,

Lebih terperinci

Program Pilihan Ganda Sederhana dengan Java

Program Pilihan Ganda Sederhana dengan Java Program Pilihan Ganda Sederhana dengan Java Posted by Lita Nurlaelati 1:25 PM Programming Kali ini admin berbagi tentang membuat program Java GUI menggunakan Netbeans. Berikut langkah - langkahnya : Buat

Lebih terperinci

Aplikasi Support Vector Machines pada Proses Beamforming

Aplikasi Support Vector Machines pada Proses Beamforming Aplikasi Support Vector Machines pada Proses Beamforming Agni Kalijaga ( 0222159 ) Jurusan Teknik Elektro, Fakultas Teknik, Jln. Prof. Drg. Suria Sumantri 65, Bandung 40164, Indonesia Email : agni.1911@gmail.com

Lebih terperinci

Architecture Net, Simple Neural Net

Architecture Net, Simple Neural Net Architecture Net, Simple Neural Net 1 Materi 1. Perceptron 2. ADALINE 3. MADALINE 2 Perceptron Perceptron lebih powerful dari Hebb Pembelajaran perceptron mampu menemukan konvergensi terhadap bobot yang

Lebih terperinci

PRESENTASI TUGAS AKHIR IMPLEMENTASI PENGGABUNGAN ALGORITMA SUPPORT VECTOR MACHINE DAN SIMULATED ANNEALING PADA PERMASALAHAN KLASIFIKASI POLA

PRESENTASI TUGAS AKHIR IMPLEMENTASI PENGGABUNGAN ALGORITMA SUPPORT VECTOR MACHINE DAN SIMULATED ANNEALING PADA PERMASALAHAN KLASIFIKASI POLA PRESENTASI TUGAS AKHIR IMPLEMENTASI PENGGABUNGAN ALGORITMA SUPPORT VECTOR MACHINE DAN SIMULATED ANNEALING PADA PERMASALAHAN KLASIFIKASI POLA Penyusun Tugas Akhir : Astris Dyah Perwita (NRP : 5110.100.178)

Lebih terperinci

Menurut Ming-Hsuan, Kriegman dan Ahuja (2002), faktor-faktor yang mempengaruhi sebuah sistem pengenalan wajah dapat digolongkan sebagai berikut:

Menurut Ming-Hsuan, Kriegman dan Ahuja (2002), faktor-faktor yang mempengaruhi sebuah sistem pengenalan wajah dapat digolongkan sebagai berikut: BAB 2 LANDASAN TEORI Bab ini akan menjelaskan berbagai landasan teori yang digunakan oleh penulis dalam penelitian ini dan menguraikan hasil studi literatur yang telah dilakukan penulis. Bab ini terbagi

Lebih terperinci

BAB III PEREDUKSIAN RUANG INDIVIDU DENGAN ANALISIS KOMPONEN UTAMA. Analisis komponen utama adalah metode statistika multivariat yang

BAB III PEREDUKSIAN RUANG INDIVIDU DENGAN ANALISIS KOMPONEN UTAMA. Analisis komponen utama adalah metode statistika multivariat yang BAB III PEREDUKSIAN RUANG INDIVIDU DENGAN ANALISIS KOMPONEN UTAMA Analisis komponen utama adalah metode statistika multivariat yang bertujuan untuk mereduksi dimensi data dengan membentuk kombinasi linear

Lebih terperinci

BAB 4 PENYELESAIAN SISTEM PERSAMAAN LINEAR

BAB 4 PENYELESAIAN SISTEM PERSAMAAN LINEAR BAB 4 PENYELESAIAN SISTEM PERSAMAAN LINEAR A. Latar Belakang Persoalan yang melibatkan model matematika banyak muncul dalam berbagai disiplin ilmu pengetahuan, seperti dalam bidang fisika, kimia, ekonomi,

Lebih terperinci

BAB 2 LANDASAN TEORI. fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses

BAB 2 LANDASAN TEORI. fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses 8 BAB 2 LANDASAN TEORI 2.1 Teori Neuro Fuzzy Neuro-fuzzy sebenarnya merupakan penggabungan dari dua studi utama yaitu fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses

Lebih terperinci

BAB II LANDASAN TEORI. yang biasanya dinyatakan dalam bentuk sebagai berikut: =

BAB II LANDASAN TEORI. yang biasanya dinyatakan dalam bentuk sebagai berikut: = BAB II LANDASAN TEORI 2.1 Matriks Definisi 2.1 (Lipschutz, 2006): Matriks adalah susunan segiempat dari skalarskalar yang biasanya dinyatakan dalam bentuk sebagai berikut: Setiap skalar yang terdapat dalam

Lebih terperinci

ESTIMATOR FUNGSI PDF. Pertemuan 4

ESTIMATOR FUNGSI PDF. Pertemuan 4 ESTIMATOR FUNGSI PDF Pertemuan 4 1 Bangkitkan data dimensi sebanyak N = 500 yang terdistribusi Gaussian N(m,S) dan rerata m = [0 0] T dan kovarian dengan Plot data yg dibangkitkan tsb, pengertian apa yg

Lebih terperinci

BAB 2 TINJAUAN PUSTAKA = (2.2) =

BAB 2 TINJAUAN PUSTAKA = (2.2) = BAB 2 TINJAUAN PUSTAKA 2.1. Regresi Linear Berganda Regresi linear berganda adalah regresi dimana variabel terikatnya dihubungkan atau dijelaskan dengan lebih dari satu variabel bebas,,, dengan syarat

Lebih terperinci

BAB III REGRESI SPASIAL DENGAN PENDEKATAN GEOGRAPHICALLY WEIGHTED POISSON REGRESSION (GWPR)

BAB III REGRESI SPASIAL DENGAN PENDEKATAN GEOGRAPHICALLY WEIGHTED POISSON REGRESSION (GWPR) BAB III REGRESI SPASIAL DENGAN PENDEKATAN GEOGRAPHICALLY WEIGHTED POISSON REGRESSION (GWPR) 3.1 Regresi Poisson Regresi Poisson merupakan suatu bentuk analisis regresi yang digunakan untuk memodelkan data

Lebih terperinci

ANALISIS VARIASI PARAMETER LEARNING VECTOR QUANTIZATION ARTIFICIAL NEURAL NETWORK TERHADAP PENGENALAN POLA DATA ODOR

ANALISIS VARIASI PARAMETER LEARNING VECTOR QUANTIZATION ARTIFICIAL NEURAL NETWORK TERHADAP PENGENALAN POLA DATA ODOR Jurnal Teknik dan Ilmu Komputer ANALISIS VARIASI PARAMETER LEARNING VECTOR QUANTIZATION ARTIFICIAL NEURAL NETWORK TERHADAP PENGENALAN POLA DATA ODOR PARAMETER VARIATION ANALYSIS OF LEARNING VECTOR QUANTIZATION

Lebih terperinci

Bab 2 LANDASAN TEORI

Bab 2 LANDASAN TEORI 17 Bab 2 LANDASAN TEORI 2.1 Aljabar Matriks 2.1.1 Definisi Matriks Matriks adalah suatu kumpulan angka-angka yang juga sering disebut elemen-elemen yang disusun secara teratur menurut baris dan kolom sehingga

Lebih terperinci

PENINGKATAN KINERJA ALGORITMA K-MEANS DENGAN FUNGSI KERNEL POLYNOMIAL UNTUK KLASTERISASI OBJEK DATA

PENINGKATAN KINERJA ALGORITMA K-MEANS DENGAN FUNGSI KERNEL POLYNOMIAL UNTUK KLASTERISASI OBJEK DATA PENINGKATAN KINERJA ALGORITMA K-MEANS DENGAN FUNGSI KERNEL POLYNOMIAL UNTUK KLASTERISASI OBJEK DATA Heri Awalul Ilhamsah Jurusan Teknik Industri Universitas Trunojoyo Madura Kampus Universitas Trunojoyo

Lebih terperinci

PERANCANGAN ALGORITMA BELAJAR JARINGAN SYARAF TIRUAN MENGGUNAKAN PARTICLE SWARM OPTIMIZATION (PSO)

PERANCANGAN ALGORITMA BELAJAR JARINGAN SYARAF TIRUAN MENGGUNAKAN PARTICLE SWARM OPTIMIZATION (PSO) Jurnal POROS TEKNIK, Volume 5, No. 1, Juni 2013 : 18-23 PERANCANGAN ALGORITMA BELAJAR JARINGAN SYARAF TIRUAN MENGGUNAKAN PARTICLE SWARM OPTIMIZATION (PSO) Nurmahaludin (1) (1) Staf Pengajar Jurusan Teknik

Lebih terperinci

BAB II TINJAUAN PUSTAKA. Dalam bab ini dibahas tentang matriks, metode pengganda Lagrange, regresi

BAB II TINJAUAN PUSTAKA. Dalam bab ini dibahas tentang matriks, metode pengganda Lagrange, regresi BAB II TINJAUAN PUSTAKA Dalam bab ini dibahas tentang matriks, metode pengganda Lagrange, regresi linear, metode kuadrat terkecil, restriksi linear, multikolinearitas, regresi ridge, uang primer, dan koefisien

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 2.6. Jaringan Syaraf Tiruan Jaringan syaraf tiruan atau neural network merupakan suatu sistem informasi yang mempunyai cara kerja dan karakteristik menyerupai jaringan syaraf pada

Lebih terperinci

BAB 2 TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA 5 BAB 2 TINJAUAN PUSTAKA 2.1 Matriks 2.1.1 Definisi Matriks Matriks adalah suatu kumpulan angka-angka yang juga sering disebut elemenelemen yang disusun secara teratur menurut baris dan kolom berbentuk

Lebih terperinci

Tidak ada tepat satu teori untuk menyelesaikan problem pengenalan pola Terdapat model standar yang dapat dijadikan teori acuan

Tidak ada tepat satu teori untuk menyelesaikan problem pengenalan pola Terdapat model standar yang dapat dijadikan teori acuan Terdapat banyak jenis pola: Pola visual Pola temporal Pola logikal Tidak ada tepat satu teori untuk menyelesaikan problem pengenalan pola Terdapat model standar yang dapat dijadikan teori acuan Statistik

Lebih terperinci

BAB III PERANCANGAN DAN IMPLEMENTASI SISTEM

BAB III PERANCANGAN DAN IMPLEMENTASI SISTEM BAB III PERANCANGAN DAN IMPLEMENTASI SISTEM Pada bab ini akan dijelaskan mengenai tahapan dan algoritma yang akan digunakan pada sistem pengenalan wajah. Bagian yang menjadi titik berat dari tugas akhir

Lebih terperinci

BAB 2 LANDASAN TEORI. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu

BAB 2 LANDASAN TEORI. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu BAB 2 LANDASAN TEORI 2.1 Pengenalan Suara. Pengenalan suara (voice recognition) dibagi menjadi dua jenis, yaitu speech recognition dan speaker recognition. Speech recognition adalah proses yang dilakukan

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI Pada bab ini akan dielaskan mengenai teori-teori yang berhubungan dengan penelitian ini, sehingga dapat diadikan sebagai landasan berpikir dan akan mempermudah dalam hal pembahasan

Lebih terperinci

BAB III METODOLOGI PENELITIAN

BAB III METODOLOGI PENELITIAN BAB III METODOLOGI PENELITIAN 3.1 Tahapan Penelitian Tahapan yang dilakukan dalam penelitian ini disajikan pada Gambar 14, terdiri dari tahap identifikasi masalah, pengumpulan dan praproses data, pemodelan

Lebih terperinci

BAB III PEMBAHASAN. Metode kriging digunakan oleh G. Matheron pada tahun 1960-an, untuk

BAB III PEMBAHASAN. Metode kriging digunakan oleh G. Matheron pada tahun 1960-an, untuk BAB III PEMBAHASAN 3.1. Kriging Metode kriging digunakan oleh G. Matheron pada tahun 1960-an, untuk menonjolkan metode khusus dalam moving average terbobot (weighted moving average) yang meminimalkan variansi

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 2.1 Optimasi Menurut Nash dan Sofer (1996), optimasi adalah sarana untuk mengekspresikan model matematika yang bertujuan memecahkan masalah dengan cara terbaik. Untuk tujuan bisnis,

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI Dalam bab ini diuraikan beberapa tinjauan pustaka sebagai landasan teori pendukung penulisan penelitian ini. 2.1 Analisis Regresi Suatu pasangan peubah acak seperti (tinggi, berat)

Lebih terperinci

Pengantar Support Vector Machine

Pengantar Support Vector Machine Pengantar Support Vector Machine Anto Satriyo Nugroho February 8, 2007 1 Pengantar Pattern Recognition (PR) didefinisikan sebagai proses pemetaan suatu data ke dalam konsep tertentu yang telah didefinisikan

Lebih terperinci

BAB 3 METODE PENELITIAN

BAB 3 METODE PENELITIAN BAB 3 METODE PENELITIAN 3.1. Wilayah dan Jadwal Penelitian Wilayah penelitan adalah Kota Banda Aceh. Penelitian ini dilakukan mulai bulan April sampai Juli 2014. 3.2. Populasi dan Sampel Populasi dalam

Lebih terperinci

TTG3B3 - Sistem Komunikasi 2 MAP & ML Detection

TTG3B3 - Sistem Komunikasi 2 MAP & ML Detection TTG3B3 - Sistem Komunikasi 2 MAP & ML Detection S1 Teknik Telekomunikasi Fakultas Teknik Elektro Universitas Telkom Oleh: Linda Meylani Agus D. Prasetyo Tujuan Pembelajaran Memahami dan menjelaskan konsep

Lebih terperinci

BAB III METODE PENELITIAN

BAB III METODE PENELITIAN digilib.uns.ac.id BAB III METODE PENELITIAN Metode yang digunakan dalam penelitian ini adalah kajian pustaka dari buku referensi karya ilmiah. Karya ilmiah yang digunakan adalah hasil penelitian serta

Lebih terperinci

IMPLEMENTASI ALGORITMA PERCEPTRON UNTUK PENGENALAN POLA MASUKAN BINER MAUPUN BIPOLAR MENGGUNAKAN BORLAND DELPHI

IMPLEMENTASI ALGORITMA PERCEPTRON UNTUK PENGENALAN POLA MASUKAN BINER MAUPUN BIPOLAR MENGGUNAKAN BORLAND DELPHI IMPLEMENTASI ALGORITMA PERCEPTRON UNTUK PENGENALAN POLA MASUKAN BINER MAUPUN BIPOLAR MENGGUNAKAN BORLAND DELPHI Andi Harmin Program Studi : Teknik Komputer STMIK Profesional Makassar andiharmin1976@gmail.com

Lebih terperinci

PEMBELAJARAN BERTINGKAT PADA ARSITEKTUR JARINGAN SARAF FUNGSI RADIAL BASIS

PEMBELAJARAN BERTINGKAT PADA ARSITEKTUR JARINGAN SARAF FUNGSI RADIAL BASIS PEMBELAJARAN BERTINGKAT PADA ARSITEKTUR JARINGAN SARAF FUNGSI RADIAL BASIS Diana Purwitasari 1, Glory Intani Pusposari 2, Rully Sulaiman 3 Jurusan Teknik Informatika, Fakultas Teknologi Informasi, Institut

Lebih terperinci

BAB IV PEMBAHASAN. A. Hasil Model Radial Basis Function Neural Network (RBFNN) Langkah-langkah untuk menentukan model terbaik Radial Basis Function

BAB IV PEMBAHASAN. A. Hasil Model Radial Basis Function Neural Network (RBFNN) Langkah-langkah untuk menentukan model terbaik Radial Basis Function BAB IV PEMBAHASAN A. Hasil Model Radial Basis Function Neural Network (RBFNN) Langkah-langkah untuk menentukan model terbaik Radial Basis Function Neural Network (RBFNN) untuk diagnosis penyakit jantung

Lebih terperinci

ENHANCED K-SVD ALGORITHM for IMAGE DENOISING

ENHANCED K-SVD ALGORITHM for IMAGE DENOISING ENHANCED K-SVD ALGORITHM for IMAGE DENOISING Edwin Junius, Reza Alfiansyah, Endra,Universitas Bina Nusantara, mono_unk@yahoo.com, devil.reza12@yahoo.com, ABSTRAK Penelitian ini bertujuan untuk membuat

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI 2.1 Data Mining Data Mining adalah proses yang mempekerjakan satu atau lebih teknik pembelajaran komputer (machine learning) untuk menganalisis dan mengekstraksi pengetahuan (knowledge)

Lebih terperinci

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB 1 PENDAHULUAN. 1.1 Latar Belakang BAB 1 PENDAHULUAN 1.1 Latar Belakang Analisis Regresi adalah analisis statistik yang mempelajari bagaimana memodelkan sebuah model fungsional dari data untuk dapat menjelaskan ataupun meramalkan suatu

Lebih terperinci

Clustering. Kholistianingsih, 10/306701/PTK/06919 Jurusan Teknik Elektro FT UGM, Yogyakartaan

Clustering. Kholistianingsih, 10/306701/PTK/06919 Jurusan Teknik Elektro FT UGM, Yogyakartaan Clustering Kholistianingsih, 10/306701/PTK/06919 Jurusan Teknik Elektro FT UGM, Yogyakartaan 7.6.ALGORITMA CLUSTERING YANG LAIN Pada bagian ini, kita mempertimbangkan algoritma yang menghasilkan cluster

Lebih terperinci

LAPORAN TUGAS AKHIR. Disusun oleh: Franky

LAPORAN TUGAS AKHIR. Disusun oleh: Franky LAPORAN TUGAS AKHIR Analisis Sentimen Menggunakan Metode Naive Bayes, Maximum Entropy, dan Support Vector Machine pada Dokumen Berbahasa Inggris dan Dokumen Berbahasa Indonesia Hasil Penerjemahan Otomatis

Lebih terperinci

BAB II TINJAUAN PUSTAKA. Dalam bab ini akan dipaparkan beberapa teori pendukung yang digunakan dalam

BAB II TINJAUAN PUSTAKA. Dalam bab ini akan dipaparkan beberapa teori pendukung yang digunakan dalam BAB II TINJAUAN PUSTAKA Dalam bab ini akan dipaparkan beberapa teori pendukung yang digunakan dalam proses analisis klaster pada bab selanjutnya. 2.1 DATA MULTIVARIAT Data yang diperoleh dengan mengukur

Lebih terperinci

Bab 2 LANDASAN TEORI

Bab 2 LANDASAN TEORI Bab 2 LANDASAN TEORI 2.1. Penaksiran Parameter Jika adalah nilai parameter populasi yang belum diketahui harganya, maka dapat ditaksir oleh nilai statistik, dan disebut sebagai penaksir atau fungsi keputusan.

Lebih terperinci

APLIKASI SUPPORT VEKTOR MACHINE (SVM) UNTUK PROSES ESTIMASI SUDUT DATANG SINYAL

APLIKASI SUPPORT VEKTOR MACHINE (SVM) UNTUK PROSES ESTIMASI SUDUT DATANG SINYAL APLIKASI SUPPORT VEKTOR MACHINE (SVM) UNTUK PROSES ESTIMASI SUDUT DATANG SINYAL Hosken Ginting / 0322173 Jurusan Teknik Elektro, Fakultas Teknik, Jl. Prof. Drg. Suria Sumantri 65, Bandung 40164, Indonesia

Lebih terperinci

Jaringan Syaraf Tiruan

Jaringan Syaraf Tiruan Jaringan Syaraf Tiruan (Artificial Neural Network) Intelligent Systems Pembahasan Jaringan McCulloch-Pitts Jaringan Hebb Perceptron Jaringan McCulloch-Pitts Model JST Pertama Diperkenalkan oleh McCulloch

Lebih terperinci

Minggu II Lanjutan Matriks

Minggu II Lanjutan Matriks Minggu II Lanjutan Matriks Pokok Bahasan Sub Pokok Bahasan Tujuan Instruksional Umum Tujuan Instruksional Khusus Jumlah Pertemuan : Matriks : A. Transformasi Elementer. Transformasi Elementer pada baris

Lebih terperinci

BAB III MODEL STATE-SPACE. dalam teori kontrol modern. Model state space dapat mengatasi keterbatasan dari

BAB III MODEL STATE-SPACE. dalam teori kontrol modern. Model state space dapat mengatasi keterbatasan dari BAB III MODEL STATE-SPACE 3.1 Representasi Model State-Space Representasi state space dari suatu sistem merupakan suatu konsep dasar dalam teori kontrol modern. Model state space dapat mengatasi keterbatasan

Lebih terperinci

1. Pendahuluan 1.1 Latar Belakang

1. Pendahuluan 1.1 Latar Belakang 1. Pendahuluan 1.1 Latar Belakang Teknologi semakin berkembang seiring dengan berjalannya waktu. Disadari atau tidak, sebagian besar kehidupan ini dibantu oleh teknologi dan banyak sekali manfaat yang

Lebih terperinci

ISSN SUPPORT VECTOR MACHINE PADA INFORMATION RETRIEVAL. Oleh....(I Ketut Purnamawan)

ISSN SUPPORT VECTOR MACHINE PADA INFORMATION RETRIEVAL. Oleh....(I Ketut Purnamawan) ISSN 0216-3241 173 SUPPORT VECTOR MACHINE PADA INFORMATION RETRIEVAL Oleh I Ketut Purnamawan Jurusan Manajemen Informatika Fakultas Teknik dan Kejuruan Universitas Pendidikan Ganesha tutpurna@yahoo.com

Lebih terperinci

IMPLEMENTASI METODE ANT COLONY OPTIMIZATION UNTUK PEMILIHAN FITUR PADA KATEGORISASI DOKUMEN TEKS

IMPLEMENTASI METODE ANT COLONY OPTIMIZATION UNTUK PEMILIHAN FITUR PADA KATEGORISASI DOKUMEN TEKS IMPLEMENTASI METODE ANT COLONY OPTIMIZATION UNTUK PEMILIHAN FITUR PADA KATEGORISASI DOKUMEN TEKS Yudis Anggara Putra Chastine Fatichah Jurusan Teknik Informatika, Fakultas Teknologi Informasi, Institut

Lebih terperinci

V HASIL DAN PEMBAHASAN

V HASIL DAN PEMBAHASAN 22 V HASIL DAN PEMBAHASAN 5.1 Karakteristik Video dan Ektraksi Frame Video yang digunakan di dalam penelitian ini merupakan gabungan dari beberapa cuplikan video yang berbeda. Tujuan penggabungan beberapa

Lebih terperinci

Penghitungan k-nn pada Adaptive Synthetic-Nominal (ADASYN-N) dan Adaptive Synthetic-kNN (ADASYN-kNN) untuk Data Nominal- Multi Kategori

Penghitungan k-nn pada Adaptive Synthetic-Nominal (ADASYN-N) dan Adaptive Synthetic-kNN (ADASYN-kNN) untuk Data Nominal- Multi Kategori Penghitungan k-nn pada Adaptive Synthetic-Nominal (ADASYN-N) dan Adaptive Synthetic-kNN (ADASYN-kNN) untuk Data Nominal- Multi Kategori Abstrak 1 Sri Rahayu, 2 Teguh Bharata Adji & 3 Noor Akhmad Setiawan

Lebih terperinci

BAB 2 KAJIAN PUSTAKA. Menurut Asghar (2000), secara garis besar masalah optimisasi terbagi dalam beberapa tipe berikut:

BAB 2 KAJIAN PUSTAKA. Menurut Asghar (2000), secara garis besar masalah optimisasi terbagi dalam beberapa tipe berikut: BAB 2 KAJIAN PUSTAKA 2.1 Masalah Optimisasi dan Program Non Linier Menurut Asghar (2000), secara garis besar masalah optimisasi terbagi dalam beberapa tipe berikut: 1. Masalah optimisasi tanpa kendala.

Lebih terperinci

BAB III. Model Regresi Linear 2-Level. Sebuah model regresi dikatakan linear jika parameter-parameternya bersifat

BAB III. Model Regresi Linear 2-Level. Sebuah model regresi dikatakan linear jika parameter-parameternya bersifat BAB III Model Regresi Linear 2-Level Sebuah model regresi dikatakan linear jika parameter-parameternya bersifat linear. Untuk data berstruktur hirarki 2 tingkat, analisis regresi yang dapat digunakan adalah

Lebih terperinci

LANDASAN TEORI. menyatakan hubungan antara variabel respon Y dengan variabel-variabel

LANDASAN TEORI. menyatakan hubungan antara variabel respon Y dengan variabel-variabel 5 II. LANDASAN TEORI 2.1 Model Regresi Poisson Analisis regresi merupakan metode statistika yang populer digunakan untuk menyatakan hubungan antara variabel respon Y dengan variabel-variabel prediktor

Lebih terperinci

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI BAB 2 LANDASAN TEORI 2.1 Definisi Citra, Pengolahan Citra, dan Pengenalan Pola Citra dapat dijelaskan sebagai dua dimensi dari fungsi f(x,y) dimana x dan y tersebut adalah sebuah koordinat pada bidang

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI 2.1. Tinjauan Pustaka Brecklin dan Chambers [2], memperkenalkan analisis Regresi M-kuantil yang merupakan suatu analisis regresi yang mempelajari cara mengetahui hubungan antara variabel

Lebih terperinci

BAB II KAJIAN TEORI. linier, varian dan simpangan baku, standarisasi data, koefisien korelasi, matriks

BAB II KAJIAN TEORI. linier, varian dan simpangan baku, standarisasi data, koefisien korelasi, matriks BAB II KAJIAN TEORI Pada bab II akan dibahas tentang materi-materi dasar yang digunakan untuk mendukung pembahasan pada bab selanjutnya, yaitu matriks, kombinasi linier, varian dan simpangan baku, standarisasi

Lebih terperinci

Pertemuan 1 Sistem Persamaan Linier dan Matriks

Pertemuan 1 Sistem Persamaan Linier dan Matriks Matriks & Ruang Vektor Pertemuan Sistem Persamaan Linier dan Matriks Start Matriks & Ruang Vektor Outline Materi Pengenalan Sistem Persamaan Linier (SPL) SPL & Matriks Matriks & Ruang Vektor Persamaan

Lebih terperinci

KLASIFIKASI LAMA STUDI MAHASISWA FSM UNIVERSITAS DIPONEGORO MENGGUNAKAN REGRESI LOGISTIK BINER DAN SUPPORT VECTOR MACHINE (SVM)

KLASIFIKASI LAMA STUDI MAHASISWA FSM UNIVERSITAS DIPONEGORO MENGGUNAKAN REGRESI LOGISTIK BINER DAN SUPPORT VECTOR MACHINE (SVM) ISSN: 2339-2541 JURNAL GAUSSIAN, Volume 4, Nomor 1, Tahun 2015, Halaman 123-132 Online di: http://ejournal-s1.undip.ac.id/index.php/gaussian KLASIFIKASI LAMA STUDI MAHASISWA FSM UNIVERSITAS DIPONEGORO

Lebih terperinci

PERBANDINGAN ALGORITMA PARTICLE SWARM OPTIMIZATION DAN REGRESI PADA PERAMALAN WAKTU BEBAN PUNCAK

PERBANDINGAN ALGORITMA PARTICLE SWARM OPTIMIZATION DAN REGRESI PADA PERAMALAN WAKTU BEBAN PUNCAK Jurnal POROS TEKNIK, Volume 6, No. 2, Desember 2014 : 55-10 PERBANDINGAN ALGORITMA PARTICLE SWARM OPTIMIZATION DAN REGRESI PADA PERAMALAN WAKTU BEBAN PUNCAK Nurmahaludin (1) (1) Staff Pengajar Jurusan

Lebih terperinci

Metode Kernel. Machine Learning

Metode Kernel. Machine Learning MMA10991 Topik Khusus Machine Learning Metode Kernel Dr. rer. nat. Hendri Murfi Intelligent Data Analysis (IDA) Group Departemen Matematika, Universitas Indonesia Depok 16424 Telp. +62-21-7862719/7863439,

Lebih terperinci

Fuzzy Clustering. Logika Fuzzy

Fuzzy Clustering. Logika Fuzzy Fuzzy Clustering Logika Fuzzy Misalkan sistem uzzy dengan dua input dan output; input terdiri atas dan, outputnya y Fungsi keanggotaan dapat berbentuk: Gaussian Segitiga Bentuk lain Fungsi Gaussian i :

Lebih terperinci

BAB III METODE PENELITIAN. Tujuan tugas akhir ini akan membangun suatu model sistem yang

BAB III METODE PENELITIAN. Tujuan tugas akhir ini akan membangun suatu model sistem yang BAB III METODE PENELITIAN 3.1 Model Pengembangan Tujuan tugas akhir ini akan membangun suatu model sistem yang melakukan proses data mulai dari pengolahan citra otak hingga menghasilkan output analisa

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI 2.1. Barcode Salah satu obyek pengenalan pola yang bisa dipelajari dan akhirnya dapat dikenali yaitu PIN barcode. PIN barcode yang merupakan kode batang yang berfungsi sebagai personal

Lebih terperinci

DOSEN PEMBIMBING Chastine Fatichah, S.Kom, M.Kom MAHASISWA Yudis Anggara P. ( )

DOSEN PEMBIMBING Chastine Fatichah, S.Kom, M.Kom MAHASISWA Yudis Anggara P. ( ) Sidang Tugas Akhir September 2009 Implementasi Metode Ant Colony Optimization untuk Pemilihan Fitur pada Kategorisasi Dokumen Teks DOSEN PEMBIMBING Chastine Fatichah, S.Kom, M.Kom MAHASISWA Yudis Anggara

Lebih terperinci

KLASIFIKASI KAYU DENGAN MENGGUNAKAN NAÏVE BAYES-CLASSIFIER

KLASIFIKASI KAYU DENGAN MENGGUNAKAN NAÏVE BAYES-CLASSIFIER KLASIFIKASI KAYU DENGAN MENGGUNAKAN NAÏVE BAYES-CLASSIFIER ACHMAD FAHRUROZI 1 1 Universitas Gunadarma, achmad.fahrurozi12@gmail.com Abstrak Masalah yang akan diangkat dalam makalah ini adalah bagaimana

Lebih terperinci

Identifikasi Tanda Tangan Menggunakan Transformasi Gabor Wavelet dan Jarak Minskowski

Identifikasi Tanda Tangan Menggunakan Transformasi Gabor Wavelet dan Jarak Minskowski Identifikasi Tanda Tangan Menggunakan Transformasi Gabor Wavelet dan Jarak Minskowski Junia Kurniati Computer Engineering Department Faculty of Computer Science Sriwijaya University South Sumatera Indonesia

Lebih terperinci

PERBANDINGAN KINERJA BEBERAPA METODE KLASIFIKASI HASIL REDUKSI DATA BERDIMENSI TINGGI

PERBANDINGAN KINERJA BEBERAPA METODE KLASIFIKASI HASIL REDUKSI DATA BERDIMENSI TINGGI ISSN 1858-4667 JURNAL LINK Vol 16/No. 1/Februari 212 PERBANDINGAN KINERJA BEBERAPA METODE KLASIFIKASI HASIL REDUKSI DATA BERDIMENSI TINGGI Ronny Susetyoko 1, Elly Purwantini 2 1,2 Departemen Teknik Elektro,

Lebih terperinci