Klasifikasi dan Pengenalan Pola

dokumen-dokumen yang mirip
BAB 3 PERANCANGAN SISTEM

CLASSIFIER BERDASAR TEORI BAYES. Pertemuan 4 KLASIFIKASI & PENGENALAN POLA

( ) ( ) (3) II-1 ( ) ( )

BAB 2 LANDASAN TEORI

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB II TINJAUAN PUSTAKA

BAB II LANDASAN TEORI

BAB III KALMAN FILTER DISKRIT. Kalman Filter adalah rangkaian teknik perhitungan matematika (algoritma)

Pertemuan 3 & 4 INTERPRETASI GEOMETRI DAN GENERALISASI VARIANS. Interpretasi Geometri pada Sampel. Generalisasi varians

ESTIMATOR FUNGSI PDF. Pertemuan 4

ANALISIS PERFORMANSI PERUSAHAAN SYARIAH DI BURSA EFEK INDONESIA (BEI) MENGGUNAKAN METODE DISCRIMINANT ANALYSIS DAN SUPPORT VECTOR MACHINE (SVM)

04-Ruang Vektor dan Subruang

BAB VII MATRIKS DAN SISTEM LINEAR TINGKAT SATU

BAB III PEREDUKSIAN RUANG INDIVIDU DENGAN ANALISIS KOMPONEN UTAMA. Analisis komponen utama adalah metode statistika multivariat yang

BAB II TINJAUAN PUSTAKA. (b) Variabel independen yang biasanya dinyatakan dengan simbol

BAB III MIXED GEOGRAPHICALLY WEIGHTED REGRESSION (MGWR)

PENGENALAN POLA SECARA STATISTIKA DENGAN PENDEKATAN ANALISIS DISKRIMINAN LINIER 2-DIMENSI SIMETRIS SKRIPSI RINA WIDYASARI

DOSEN PEMBIMBING Chastine Fatichah, S.Kom, M.Kom MAHASISWA Yudis Anggara P. ( )

8.1 Transformasi Linier Umum. Bukan lagi transformasi R n R m, tetapi transformasi linier dari

Aljabar Linier Elementer. Kuliah 26

Pada dasarnya lebih sulit drpd classifier berdasar teori bayes, terutama untuk data dimensi tinggi.

BAB III MINIMUM VOLUME ELLIPSOID PADA ANALISIS KOMPONEN UTAMA ROBUST. Pada bab ini akan dikaji bahasan utama yaitu pencilan dan analisis

BAB 3 PERANCANGAN PERANGKAT LUNAK

APLIKASI DETEKSI MIKROKALSIFIKASI DAN KLASIFIKASI CITRA MAMMOGRAM BERBASIS TEKSTUR SEBAGAI PENDUKUNG DIAGNOSIS KANKER PAYUDARA

Pengembangan Perangkat Lunak untuk Pengenalan Wajah dengan Filter Gabor Menggunakan Algoritma Linear Discriminant Analysis (LDA)

BAB 2 LANDASAN TEORI

BAB I PENDAHULUAN 1.1 Latar Belakang 1.2 Perumusan Masalah

BAB III METODE PENELITIAN

Algoritma Dasar. 4.1 Naive Bayes

PERBANDINGAN METODE KDDA MENGGUNAKAN KERNEL RBF, KERNEL POLINOMIAL DAN METODE PCA UNTUK PENGENALAN WAJAH AKIBAT VARIASI PENCAHAYAAN ABSTRAK

BAB 2 LANDASAN TEORI

Euclidean n & Vector Spaces. Matrices & Vector Spaces

PENGENALAN WAJAH MENGGUNAKAN ALGORITMA EIGENFACE DAN EUCLIDEAN DISTANCE

01-Pengenalan Vektor. Dosen: Anny Yuniarti, M.Comp.Sc Gasal Anny2011 1

BAB III METODE PENELITIAN DAN PERANCANGAN SISTEM. Metode penelitian yang digunakan pada penelitian ini adalah denoising

Penerapan Metode Phase Congruency Image (PCI) dalam Pengenalan Citra Wajah secara Otomatis

PROGRAM STUDI TEKNIK KOMPUTER

BAB III MODEL STATE-SPACE. dalam teori kontrol modern. Model state space dapat mengatasi keterbatasan dari

II. TINJAUAN PUSTAKA. Dalam proses penelitian untuk mengkaji karakteristik penduga GMM pada data

BAB II TINJAUAN PUSTAKA

BAB 2 LANDASAN TEORI

TTG3B3 - Sistem Komunikasi 2 MAP & ML Detection

BAB II. LANDASAN TEORI

BAB III PEMBAHASAN. Analisis cluster merupakan analisis yang bertujuan untuk. mengelompokkan objek-objek pengamatan berdasarkan karakteristik yang

BAB IV HASIL PENELITIAN DAN PEMBAHASAN

Pengenalan Wajah dengan Metode Subspace LDA (Linear Discriminant Analysis)

RENCANA PEMBELAJARAN 1. POKOK BAHASAN : KINEMATIKA

(R.14) METODE MINIMUM COVARIANCE DETERMINANT PADA ANALISIS REGRESI LINIER BERGANDA DENGAN KASUS PENCILAN

SBAB III MODEL VARMAX. Pengamatan time series membentuk suatu deret data pada saat t 1, t 2,..., t n

BAB III ANALISIS KUALITAS PRODUK BENANG TS 248 MENGGUNAKAN MULTIVARIATE STATISTICAL PROCESS CONTROL ( MSPC )

PENDEKATAN METODE FEATURE EXTRACTION DENGAN ALGORITMA NAÏVE BAYES

Chapter 5 GENERAL VECTOR SPACE 5.1. REAL VECTOR SPACES 5.2. SUB SPACES

S I L A B U S. Kode Mata Kuliah : SKS : 3. Dosen Pembimbing : M. Soenarto

ANALISIS DAN PERANCANGAN SISTEM

STUDI SIMULASI GRAFIK PENGENDALI BERDASARKAN ESTIMASI FUNGSI DENSITAS KERNEL BIVARIAT

Gambar 3.1 Contoh Citra yang digunakan

Matematika Lanjut 1. Sistem Persamaan Linier Transformasi Linier. Matriks Invers. Ruang Vektor Matriks. Determinan. Vektor

BAB III METODE FULL INFORMATION MAXIMUM LIKELIHOOD (FIML)

EKSTRAKSI JALAN SECARA OTOMATIS DENGAN DETEKSI TEPI CANNY PADA FOTO UDARA TESIS OLEH: ANDRI SUPRAYOGI NIM :

Soal-Soal dan Pembahasan Matematika IPA SNMPTN 2012 Tanggal Ujian: 13 Juni 2012

Program Studi Teknik Mesin S1

FACE RECOGNITION MENGGUNAKAN METODE TWO- DIMENSIONAL PRINCIPAL COMPONENTS ANALYSIS (2DPCA) ABSTRAK

Metode Klasifikasi (SVM Light dan K-NNK. NN) Dr. Taufik Fuadi Abidin, S.Si., M.Tech. Jurusan Informatika FMIPA Universitas Syiah Kuala

BAB III ANALISIS FAKTOR. berfungsi untuk mereduksi dimensi data dengan cara menyatakan variabel asal

PLUG-IN CLASSIFIER DENGAN BAYESIAN STATISTICS UNTUK MENDETEKSI SITUS WEB PALSU

BAB III PEMBAHASAN. FRBFNN, Arsitektur FRBFNN, aplikasi FRBFNN untuk meramalkan kebutuhan

... BAB 2 LANDASAN TEORI. 2.1 Citra

Soal-Soal dan Pembahasan Matematika IPA SNMPTN 2012 Tanggal Ujian: 13 Juni 2012

PENERAPAN METODE LEAST MEDIAN SQUARE-MINIMUM COVARIANCE DETERMINANT (LMS-MCD) DALAM REGRESI KOMPONEN UTAMA

II. LANDASAN TEORI. Pada bab ini akan dijelaskan mengenai teori-teori yang berhubungan dengan

BAB II TEORI DASAR. Beberapa definisi tentang tutupan lahan antara lain:

Pengantar Support Vector Machine

GARIS GARIS BESAR PROGRAM PERKULIAHAN ( GBPP )

MK. PERENCANAAN LINGKUNGAN ANALISIS PEUBAH GANDA MULTIVARIATE ANALYSIS

KLASIFIKASI PADA DATA MINING MENGGUNAKAN NAIVE BAYESIAN CLASSIFIER CLASSIFICATION FOR DATA MINING USING NAIVE BAYESIAN CLASSIFIER

BAB I PENDAHULUAN. yang saling berhubungan atau berpengaruh satu sama lain. Ilmu statistika

Kumpulan Soal,,,,,!!!

Pertemuan 8 & 9. Distribusi Probab Multivariat Distr Multivar untuk Kombinasi Linier Uji Hipotesis Kesamaan Mean

Penghitungan k-nn pada Adaptive Synthetic-Nominal (ADASYN-N) dan Adaptive Synthetic-kNN (ADASYN-kNN) untuk Data Nominal- Multi Kategori

BAB III PEMBAHASAN. Pada bab ini, dibahas mengenai model Vector Error Correction (VEC),

GARIS-GARIS BESAR PROGRAM PEMBELAJARAN

BAB II TINJAUAN PUSTAKA. keuntungan atau coumpouding. Dari definisi di atas dapat disimpulkan bahwa

MUH1G3/ MATRIKS DAN RUANG VEKTOR

BAB III METODE SERVQUAL. Secara umum alur penelitian yang dilakukan, disajikan pada diagram berikut. start

METODE ORDINARY LEAST SQUARES DAN LEAST TRIMMED SQUARES DALAM MENGESTIMASI PARAMETER REGRESI KETIKA TERDAPAT OUTLIER

Pengenalan Pola. Klasifikasi Teori Keputusan Bayes

Just Identified CATATAN

PENERAPAN MODEL REGRESI LINIER BAYESIAN UNTUK MENGESTIMASI PARAMETER DAN INTERVAL KREDIBEL

Transformasi Linear dari R n ke R m

MODUL 5 ANALISIS DISKRIMINAN

Information Retrieval

BAB I PENDAHULUAN. 1.1 Latar Belakang

Minggu XI ANALISIS KOMPONEN UTAMA. Utami, H

BAB III METODE PENULISAN

Tujuan. Mhs dapat mendemonstrasikan operasi matriks: penjumlahan, perkalian, dsb. serta menentukan matriks inverse

BAB 3 METODOLOGI. seseorang. Hal inilah yang mendorong adanya perkembangan teknologi

BAB 2 LANDASAN TEORI

SATUAN ACARA PERKULIAHAN MATA KULIAH : ALJABAR LINIER JURUSAN : TEKNIK KOMPUTER JUMLAH SKS : Definisi, Notasi, dan Operasi Vektor 2.

Chapter 5 GENERAL VECTOR SPACE Row Space, Column Space, Nullspace 5.6. Rank & Nullity

BAB III PERANCANGAN PERANGKAT LUNAK

Transkripsi:

Klasifikasi dan Pengenalan Pola 1

Features Vector Separability Measures Pada pertemuan yang lalu, kekuatan ciri untuk membedakan kelas diukur secara individual, yaitu menggunakan FDR. Kekuatan kombinasi beberapa ciri dalam membedakan kelas dapat diukur menggunakan: Divergensi Jarak Bhattacharyya (Bhattacharyya distance) Scatter Matrices 2

Divergensi Misalkan terdapat 2 kelas yang terdistribusi normal dalam ruang dimensi l, maka divergensi antara keduanya didefinisikan sbb: dengan S i adalah matriks kovarians; m i adalah rerata masing-masing kelas, I adalah matriks identitas l x l, dan i = 1,2. Dan transformasi divergensi didefinisikan sebagai: 3

Semakin besar nilai transformasi divergensi maka semakin baik hasil akhir klasifikasi. Aturan jangkauan nilai transformasi divergensi berikut dapat digunakan untuk menilai kekuatan kombinasi ciri dalam membedakan kelas: 0.0 to 1.0 (very poor separability) sangat buruk kemungkinan data sebenarnya termasuk pada kelas yang sama 1.0 to 1.9 (poor separability) buruk buat kombinasi ciri yang baru teliti kembali data apa benar-benar dari 2 kelas yang berbeda 1.9 to 2.0 (good separability) baik 4

Example Misalkan 2 kelas dan asumsikan bahwa ciri-cirinya saling independen dan terdistribusi normal. Kelas 1 dimodelkan sebagai distribusi Gaussian dengan rerata m1 = [3, 3] T dan matriks kovarians-nya S1 = 0,2I. Sedangkan kelas 2 dimodelkan sebagai distribusi Gaussian dengan rerata m2 = [2.3, 2.3] T dan matriks kovarians-nya S2 = 1,9I. Hitunglah divergensi antara kedua kelas tersebut, hitung pula transformasi divergensi-nya, dan ambillah kesimpulan dari hasil tersebut. 5

Penyelesaian: Buat dataset dengan script berikut. Carilah divergensinya menggunakan fungsi divergensi.m dengan mengimplementasikan rumus divergensi pada halaman 3 untuk menghitung divergensi. 6

Buat fungsi divergensi sbb: 7

Panggil fungsi untuk menghitung nilai divergensi dari data kelas1.txt dan kelas2.txt. 8

Hasil eksekusi: D = 5.7233 Dan transformasi divergensinya adalah: 2*(1-exp(-D/8)) = 1.0220 Kesimpulan: Nilai transformasi divergensi-nya berada pada range 1 s.d 1,9 yang berarti keterpisahan antara kedua kelas buruk. 9

Bhattacharyya distance Misalkan kedua kelas terdistribusi Gaussian, maka jarak Bhattacharyya bersesuaian dengan error classifier Bayesian. Jika: dengan, dimana. merupakan notasi determinan, maka jarak Bhattacharyya 10

didefinisikan sbb: BD 21 exp( B 1, 2 ) Aturan jangkauan nilai jarak Bhattacharyya berikut dapat digunakan untuk menilai kekuatan kombinasi ciri dalam membedakan kelas: 0.0 to 1.0 (very poor separability) sangat buruk kemungkinan data sebenarnya termasuk pada kelas yang sama 1.0 to 1.9 (poor separability) buruk buat kombinasi ciri yang baru teliti kembali data apa benar-benar dari 2 kelas yang berbeda 1.9 to 2.0 (good separability) baik 11

Example Misalkan 2 kelas dan asumsikan bahwa ciri-cirinya saling independen dan terdistribusi normal. Kelas 1 dimodelkan sebagai distribusi Gaussian dengan rerata m1 = [3, 3] T dan matriks kovarians-nya S1 = 0,2I. Sedangkan kelas 2 dimodelkan sebagai distribusi Gaussian dengan rerata m2 = [2.3, 2.3] T dan matriks kovarians-nya S2 = 1,9I. Hitunglah jarak Bhattacharyya antara kedua kelas tersebut, dan ambillah kesimpulan dari hasil tersebut. 12

Buat fungsi untuk menhitung jarak Bhatacharyya sbb: 13

Panggil fungsi untuk menghitung jarak Bhatacharyya: Hasil eksekusi: B1,2 = D = 0.3516 Hitunglah DB-nya dengan : 2(1-exp(-0.3516)) = 0.5929 14

Scatter Matrices Scatter matrices memberi gambaran bagamana vektor ciri tersebar dalam ruang ciri (feature space). Tiga ukuran keterpisahan kelas berdasar scatter matrices adalah sbb: 15

dengan S m adalah mixture scatter matrix, S w adalah within-class scatter matrix, dan S b adalah between-class scatter matrix. dengan P i adalah priori probabiliti untuk kelas i = 1,2,,c dan S i adalah matriks kovarians untuk kelas i. dengan m 0 adalah rerata global (dari semua data dalam semua kelas yang ada) 16

Semakin besar nilai J1, J2, dan J3, maka hal tersebut berarti bahwa datadata mempunyai varians dalam-kelas yang kecil dan jarak antar-kelas yang besar. Dengan kata lain bahwa Semakin besar nilai J1, J2, dan J3, maka kelas yang satu dengan kelas yang lain mempunyai keterpisahan yang semakin baik. 17