BAB 2 TINJAUAN PUSTAKA

dokumen-dokumen yang mirip
BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI

BAB 3 PERANCANGAN SISTEM

BAB II LANDASAN TEORI

BAB II TINJAUAN PUSTAKA. menggunakan PCA, kemudian penelitian yang menggunakan algoritma Fuzzy C-

BAB II TINJAUAN PUSTAKA

Pengembangan Perangkat Lunak untuk Pengenalan Wajah dengan Filter Gabor Menggunakan Algoritma Linear Discriminant Analysis (LDA)

BAB 2 KAJIAN PUSTAKA

PEMANFAATAAN BIOMETRIKA WAJAH PADA SISTEM PRESENSI MENGGUNAKAN BACKPROPAGATION NEURAL NETWORK

BAB 1 PENDAHULUAN. Jumlah Pengunjung Atlantis Water Adventure. Jumlah Pengunjung

PENDAHULUAN. Latar Belakang

PENGENALAN WAJAH MENGGUNAKAN METODE LINEAR DISCRIMINANT ANALYSIS DAN K NEAREST NEIGHBOR

BAB IV IMPLEMENTASI DAN EVALUASI. implementasi dan evaluasi yang dilakukan terhadap perangkat keras dan

PENGENALAN WAJAH MENGGUNAKAN ALGORITMA EIGENFACE DAN EUCLIDEAN DISTANCE

Menurut Ming-Hsuan, Kriegman dan Ahuja (2002), faktor-faktor yang mempengaruhi sebuah sistem pengenalan wajah dapat digolongkan sebagai berikut:

Identifikasi Tanda Tangan Menggunakan Transformasi Gabor Wavelet dan Jarak Minskowski

Pengenalan Wajah dengan Metode Subspace LDA (Linear Discriminant Analysis)

BAB I PENDAHULUAN. telinga, wajah, infrared, gaya berjalan, geometri tangan, telapak tangan, retina,

TEKNIK PENGENALAN WAJAH DENGAN ALGORITMA PCA BERBASIS SELEKSI EIGENVECTOR

Tidak ada tepat satu teori untuk menyelesaikan problem pengenalan pola Terdapat model standar yang dapat dijadikan teori acuan

BAB II LANDASAN TEORI. Kamera web (singkatan dari web dan camera) merupakan sebuah media

BAB 3 METODOLOGI. seseorang. Hal inilah yang mendorong adanya perkembangan teknologi

BAB 2 Landasan Teori

BAB 2 LANDASAN TEORI

BAB III PERANCANGAN SISTEM

PENGENALAN CITRA WAJAH DENGAN MENGGUNAKAN TRANSFORMASI WAVELET DISKRIT DAN JARINGAN SARAF TIRUAN BACK-PROPAGATION

Principal Component Analysis

Jurnal String Vol.1 No.2 Tahun 2016 ISSN : PRINCIPAL COMPONENT ANALYSIS UNTUK SISTEM PENGENALAN WAJAH DENGAN MENGGUNAKAN METODE EIGENFACE

BAB 1 PENDAHULUAN. termasuk dalam bidang Computer Vision. Computer Vision membuat komputer

BAB II TINJAUAN PUSTAKA DAN LANDASAN TEORI

BAB III PERANCANGAN DAN IMPLEMENTASI SISTEM

BAB III METODE PENELITIAN. dan bahan, agar mendapatkan hasil yang baik dan terstruktur. Processor Intel Core i3-350m.

BAB I PENDAHULUAN. dengan memanfaatkan ciri wajah yang telah tersimpan pada database atau wajah

PENGAMAN RUMAH DENGAN SISTEM FACE RECOGNITION SECARA REAL TIME MENGGUNAKAN METODE PRINCIPAL COMPONENT ANALYSIS

BAB IV HASIL PENELITIAN DAN PEMBAHASAN. 4.1 Pengembangan Sistem Pengenalan Wajah 2D

BAB 2 LANDASAN TEORI

BAB II KAJIANPUSTAKA

BAB 1 PENDAHULUAN. Sistem Pakar (Expert System), Jaringan Saraf Tiruan (Artificial Neural Network), Visi

BAB I PENDAHULUAN 1.1 Latar Belakang Masalah

Teknik pengenalan wajah berbasis fitur local binary pattern (LBP)

Penerapan Metode Phase Congruency Image (PCI) dalam Pengenalan Citra Wajah secara Otomatis

APLIKASI PENGENALAN DAUN UBI JALAR UNTUK JENIS UBI JALAR UNGU, MERAH, PUTIH DAN KUNING MENGGUNAKAN METODE PRINCIPAL COMPONENT ANALYSIS

BAB 4 HASIL DAN PEMBAHASAN

BAB 2 LANDASAN TEORI

Jurusan Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam Institut Teknologi Sepuluh Nopember Surabaya

BAB II LANDASAN TEORI

BAB II DASAR TEORI. 2.1 Meter Air. Gambar 2.1 Meter Air. Meter air merupakan alat untuk mengukur banyaknya aliran air secara terus

ANALISIS DAN SIMULASI SISTEM PENGENALAN WAJAH DENGAN METODE FISHERFACE BERBASIS OUTDOORVIDEO.

BAB 3. ANALISIS dan RANCANGAN. eigenfaces dan deteksi muka dengan color thresholding akan mempunyai proses

BAB I PENDAHULUAN. 1.1 Latar Belakang

Hasil Ekstraksi Algoritma Principal Component Analysis (PCA) untuk Pengenalan Wajah dengan Bahasa Pemograman Java Eclipse IDE

IMPLEMENTASI ALGORITMA FRACTAL NEIGHBOUR DISTANCE UNTUK FACE RECOGNITION

Pengenalan Wajah Menggunakan Metode Linear Discriminant Analysis dan k Nearest Neighbor

PEMANFAATAN GUI DALAM PENGEMBANGAN PERANGKAT LUNAK PENGENALAN CITRA WAJAH MANUSIA MENGGUNAKAN METODE EIGENFACES

... BAB 2 LANDASAN TEORI. 2.1 Citra

UJI KINERJA FACE RECOGNITION MENGGUNAKAN EIGENFACES

Dosen Program Studi Ilmu Komputer Universitas Pakuan Bogor

Implementasi Principal Component Analysis (PCA) Untuk Pengenalan Wajah Manusia

Bab III ANALISIS&PERANCANGAN

BAB II LANDASAN TEORI

ESTIMASI FUNGSI SPASIAL PADA IDENTIFIKASI FITUR WAJAH

BAB II TI JAUA PUSTAKA

PENGEMBANGAN SISTEM ABSENSI BERBASIS FACE RECOGNITION DENGAN METODE LDA

Pengenalan Bentuk Wajah Manusia Pada Citra Menggunakan Metode Fisherface

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI. fuzzy logic dengan aplikasi neuro computing. Masing-masing memiliki cara dan proses

BAB 3 PROSEDUR DAN METODOLOGI. menawarkan pencarian citra dengan menggunakan fitur low level yang terdapat

BAB II LANDASAN TEORI

Pengenalan Wajah Dengan Algoritma Canonical Correlation Analysis (CCA)

g(x, y) = F 1 { f (u, v) F (u, v) k} dimana F 1 (F (u, v)) diselesaikan dengan: f (x, y) = 1 MN M + vy )} M 1 N 1

BAB 2 LANDASAN TEORI

BAB 1 PENDAHULUAN 1-1

BAB 3 PROSEDUR DAN METODOLOGI

PENGEMBANGAN SISTEM PENGENALAN EKSPRESI WAJAH MENGGUNAKAN JARINGAN SYARAF TIRUAN BACKPROPAGATION (STUDI KASUS PADA DATABASE MUG)

BAB 1 PENDAHULUAN. keakuratan dari penglihatan mesin membuka bagian baru dari aplikasi komputer.

PENGENALAN WAJAH MANUSIA DENGAN METODE PRINCIPLE COMPONENT ANALYSIS (PCA)

BAB IV HASIL PENELITIAN DAN PEMBAHASAN

Pengenalan Wajah Menggunakan Two Dimensional Linier Discriminant Analysis Berbasis Feature Fussion Strategy

BAB 2 LANDASAN TEORI. mencakup teori speaker recognition dan program Matlab. dari masalah pattern recognition, yang pada umumnya berguna untuk

ANALISA PENGUKURAN SIMILARITAS BERDASARKAN JARAK MINIMUM PADA PENGENALAN WAJAH 2D MENGGUNAKAN DIAGONAL PRINCIPAL COMPONENT ANALYSIS

BAB I PENDAHULUAN. 1.1 Latar Belakang

BAB II LANDASAN TEORI. Pengolahan Citra adalah pemrosesan citra, khususnya dengan menggunakan

BAB III PERANCANGAN PERANGKAT LUNAK

BAB II LANDASAN TEORI

PENGENALAN GENDER MEMANFAATKAN WAJAH MANUSIA DENGAN MENGGUNAKAN METODE KLASIFIKASI NEAREST NEIGHBOR

BAB I PERSYARATAN PRODUK

BAB 2 LANDASAN TEORI

IMPLEMENTASI DAN ANALISIS SISTEM PENGENALAN WAJAH DALAM RUANGAN PADA VIDEO MENGGUNAKAN METODE LNMF DAN NMFsc

Muhammad Zidny Naf an, M.Kom. Gasal 2015/2016

BAB I PENDAHULUAN 1.1. Latar Belakang Masalah

PENGENALAN POLA TANDA TANGAN DENGAN MENGGUNAKAN METODE PRINCIPAL COMPONENT ANALYSIS (PCA)

BAB 2 LANDASAN TEORI

BAB 3 IMPLEMENTASI SISTEM

EKSTRAKSI CIRI GEOMETRIS UNTUK APLIKASI IDENTIFIKASI WAJAH. Oleh: Kholistianingsih

PENDAHULUAN. Latar Belakang

BAB II LANDASAN TEORI

BAB 2 TINJAUAN PUSTAKA

PENENTUAN KUALITAS DAUN TEMBAKAU DENGAN PERANGKAT MOBILE BERDASARKAN EKSTRASI FITUR RATA-RATA RGB MENGGUNAKAN ALGORITMA K-NEAREST NEIGHBOR

BAB 3 METODOLOGI PENELITIAN

ANALISIS DAN PERANCANGAN SISTEM

Transkripsi:

BAB 2 TINJAUAN PUSTAKA 2.1 Landasan Teori 2.1.1 Artificial Intelligence Artificial intelligence merupakan salah satu bagian ilmu komputer yang membuat agar mesin (komputer) dapat melakukan pekerjaan seperti dan sebaik yang dilakukan oleh manusia (Kusumadewi, 2003:1). Bertahun-tahun manusia mencoba untuk mengerti bagaimana manusia dapat berpikir, bahkan dapat memahami, memprediksi dan memanipulasi. Artificial intelligence bukan hanya digunakan untuk memahami sesuatu, melainkan juga untuk membangun suatu entitas yang cerdas (Russel dan Norvig, 2003:1). Entitas yang cerdas tersebut dapat bertindak secara rasional dan melakukan tindakan yang benar. Gambar 2.1 Sistem Kecerdasan Buatan (Kusumadewi, 2003:113-114) Mesin artificial intelligence memiliki empat aspek pendekatan, yaitu bertindak seperti manusia, berpikir seperti manusia, bertindak rasional, dan berpikir rasional (Russel dan Norvig, 2003:2). Rasional yang dimaksud berhubungan dengan studi tentang komputasi yang membuat suatu kemungkinan untuk merasakan, menalar dan bertindak. Mesin artificial intelligence mampu mengidentifikasi dan memasukkan masalah sehingga mesin tersebut akan menghasilkan output berupa solusi yang sangat berguna untuk membantu kegiatan dan kinerja manusia sebagai penggunanya. 7

8 Gambar 2.2 Agent & Environment (Russel dan Norvig, 2003:35) Suatu agen cerdas diperlukan untuk menciptakan mesin yang dapat bertindak secara rasional. Suatu agen dapat bertindak seperti halnya program komputer yang melakukan sesuatu. Akan tetapi, agen rasional akan beroperasi secara mandiri, melihat lingkungan, beradaptasi dengan perubahan yang terjadi, menciptakan dan mendapatkan tujuan (Russel dan Norvig, 2003:4). Agen rasional akan bertindak untuk mencapai hasil terbaik, bahkan ketika ada suatu ketidakpastian. Agen tersebut akan mempersepsi lingkungannya sebagai obyek eksternal dari dirinya. Melalui sensor, agen akan mengambil tindakan terhadap lingkungannya. Melalui efektor (alat untuk merespon), agen akan mencapai suatu sasaran atau goal. 2.1.2 Computer Vision Computer vision digunakan untuk menghasilkan keputusan yang berguna mengenai obyek dari dunia nyata (Shapiro dan Stockman, 2001:15). Computer vision juga berhubungan dengan proses ekstraksi dari sebuah gambar nyata atau urutan-urutan gambar (Forsyth dan Ponce, 2003:XVII). Dengan demikian, computer vision akan bergantung pada pemahaman mengenai proses pembentukan citra untuk mendapatkan suatu kesimpulan sederhana dan nilai-nilai setiap piksel. Tujuan dari computer vision adalah mengekstrak informasi yang berguna dari gambar. Bagian dari masalah computer vision adalah kompleksitas data visual (Prince, 2012:15). Pada gambar 2.3, ada ratusan benda yang terdapat disana.

9 Gambar 2.3 Gambar yang Berisi Banyak Objek (Prince, 2012:16) Sebagai contoh, hampir tidak ada perubahan intensitas citra pada perbatasan antara langit dan bangunan putih (lingkaran merah). Namun, ada perubahan intensitas pada jendela belakang kendaraan SUV (lingkaran hijau) meskipun tidak ada batas obyek atau perubahan materi. Manusia dapat menentukan jumlah pohon pada gambar tersebut dengan mudah, tetapi hal tersebut merupakan hal yang sulit jika dilakukan oleh computer vision. Computer vision bukanlah tidak mungkin, tetapi computer vision merupakan sesuatu yang sangat menantang (Prince, 2012:15). 2.1.3 Image Processing / Pengolahan Citra Citra adalah ruang dua dimensi yang umumnya merepresentasikan proyeksi dari beberapa obyek pada ruang tiga dimensi. Citra dapat berupa monokrom atau berwarna, diam atau bergerak, tetapi citra selalu terdapat pada ruang dua dimensi (Trussel dan Vrhel, 2008:8). Citra disusun dari kumpulan elemen yang angkanya dapat ditentukan. Setiap elemen berada pada lokasi yang bersangkutan dan memiliki nilai. Elemen penyusun citra ini disebut picture elements atau piksel. (Gonzales dan Woods, 2008:1-2). Citra yang ditangkap oleh kamera dapat berupa citra RGB. Akan tetapi, citra tersebut terkadang memiliki beberapa gangguan (noise)

10 yang dapat mengurangi kualitas dari citra. Salah satu sumber dari penurunan kualitas gambar berasal dari sistem lensa optik pada kamera digital yang mengakuisisi informasi visual. Jika kamera tidak fokus, maka gambar yang ditangkap dapat menjadi blur (Acharya dan Ray, 2006:106). Gambar 2.4 Contoh Gambar dengan Ukuran 246 x 168 Piksel (Gonzales dan Woods, 2008:256) Pengolahan citra dibutuhkan untuk memanipulasi citra yang ditangkap oleh kamera menjadi citra yang siap dipakai pada proses selanjutnya. Adapun teknik pengolahan citra yang berhubungan dengan penelitian ini adalah cropping, grayscaling, dan resizing. 2.1.3.1 Cropping Cropping akan mengekstrak suatu wilayah persegi yang berasal dari gambar aslinya. Cropping bertujuan untuk mengambil bagian yang spesifik dan membuang area yang berisi informasi yang tidak dibutuhkan (RSI, 2005:20). Pada penelitian ini, bagian spesifik atau informasi yang dibutuhkan adalah wajah yang terdeteksi dalam proses face detection.

11 2.1.3.2 Grayscaling Pada komputasi, grayscale atau greyscale citra digital adalah suatu gambar dimana nilai setiap pikselnya adalah single sample yang memiliki informasi intensitas. Gambar tersebut juga dikenal sebagai gambar hitam-putih yang bervariasi (dari hitam pada intensitas terlemah dan putih pada intensitas terkuat) (Johnson, 2006:11). Proses grayscaling dilakukan dengan mengganti intensitas tiap piksel dalam citra dengan perhitungan sebagai berikut. 2.1.3.3 Resizing Image resizing atau scaling bertujuan untuk menganalisa suatu gambar dengan memperkecil atau memperbesar gambar. Ketika gambar diperbesar, suatu nilai baru diinterpolasi dari sumber gambar untuk menghasilkan piksel tambahan dalam output image. Ketika gambar diperkecil, piksel akan dibentuk kembali untuk menghasilkan jumlah piksel yang lebih sedikit dalam output image (RSI, 2005:26). 2.1.4 Face Recognition atau Pengenalan Wajah Pengenalan wajah adalah suatu masalah yang cukup penting dari bidang computer vision (Zhao, Chellappa, Phillips dan Rosenfeld, 2003:401). Hal tersebut dikarenakan wajah memiliki fungsi untuk mengenali identitas yang dimiliki seseorang. Selain itu, hal yang membuat pengenalan wajah diminati adalah proses akuisisi data yang dapat dikatakan lebih mudah jika dibandingkan pengenalan bagian tubuh lain, seperti mata dan sidik jari. Pengenalan wajah dapat diklasifikasikan kedalam dua tipe berdasarkan skenarionya, yaitu verifikasi dan identifikasi wajah (Lu, 2003:2). Verifikasi wajah adalah pencocokan one-to-one citra wajah

12 dengan template citra wajah yang identitasnya telah disebutkan. Umumnya, verifikasi wajah diperuntukan sebagai kebutuhan akan otentifikasi. Identifikasi wajah adalah proses pencocokan one-to-many citra wajah dengan seluruh template citra yang dalam basis wajah. Identifikasi dari citra pengujian dilakukan dengan mencari citra dalam basis yang memiliki kemiripan paling tinggi. Identifikasi wajah umumnya dikenal dengan pengenalan wajah. Meskipun pengenalan wajah merupakan hal yang mudah dilakukan bagi manusia, namun hal itu belum tentu berlaku bagi mesin, seperti komputer. Banyak faktor yang dapat menurunkan performa dari pengenalan wajah. Beberapa faktor yang menyebabkan penurunan performa tersebut adalah variasi dalam posisi, iluminasi, dan ekspresi dari wajah. Faktor lain adalah faktor yang berhubungan dengan besarnya jumlah data pelatihan, khusunya dalam mencari representasi citra wajah. Pada dasarnya, konsep pengenalan wajah yang digunakan oleh mesin, seperti komputer, meniru kemampuan manusia untuk mengenali wajah seseorang. Wajah akan ditangkap oleh mata, lalu wajah yang ditangkap tersebut akan dikirim ke otak untuk melakukan berbagai proses hingga akhirnya disimpan didalam memori. Kemudian, memori akan dipanggil dari otak untuk dapat mengenali wajah orang-orang yang pernah ditemui sebelumnya. Manusia juga dapat salah mengenali seseorang karena sedikitnya frekuensi bertatap muka terhadap orang tersebut. Ada beberapa tahapan penting agar hasil pengenalan wajah dapat berjalan dengan baik yaitu akuisisi data, pre-processing, representasi data, dan pengambilan keputusan. Proses melihat wajah yang dilakukan pada computer vision dapat disebut sebagai akuisisi data, yang umumnya menggunakan citra. Akuisisi data dapat dilakukan dengan memasukan data baik yang sudah ada maupun data yang diambil secara langsung melalui alat, seperti kamera. Ketika citra wajah sudah diambil, maka proses pre-processing akan dilakukan. Pre-processing adalah cara untuk membuat citra wajah memiliki batasan yang sesuai dengan kebutuhan pada proses selanjutnya.

13 Representasi data umumnya adalah representasi dari fitur-fitur yang diekstraksi dan diseleksi dari citra wajah untuk mengurangi dimensionalitas data. Dalam teknik statistik, representasi data umumnya dilakukan dengan pengekstrasian fitur. Tahap pengambilan keputusan melakukan pengklasifikasian dengan mengukur seberapa mirip data yang digunakan dengan representasi data yang ada dalam database. Pengenalan wajah dapat dibedakan menjadi dua kelompok berdasarkan representasi wajah yang digunakan yaitu appearance based dan feature based. Appearance based menggunakan fitur wajah secara menyeluruh ataupun bagian spesifik dari citra wajah. Berbeda dengan appearance based, feature based menggunakan fitur geometris wajah dan relasi geometrisnya. 2.1.5 Gabor Wavelet Transform Dennis Gabor adalah seorang fisikawan Hungaria yang paling terkenal atas penemuan holografi. Pada tahun 1946, Dennis memperkenalkan time frequency wavelet pertama (wavelet gabor) yang digunakan dalam penelitian teori komunikasi. Representasi gambar dengan gabor wavelet dipilih untuk relevansi biologis dan sifat teknis (Kumar, 2006:5). Metode gabor wavelet transform merupakan metode pemrosesan sinyal yang dapat melakukan analsis multi-resolution (analisis pada keadaan skala atau resolusi yang berbeda). Studi pada bidang psikologi menemukan bahwa sesuatu di dalam sel tubuh manusia dapat dipilih sebagai karakteristik unik dari orang tersebut. Hal tersebut dapat dijadikan karakteristik unik yang dapat dikenali oleh komputer. Karakteristik tersebut dapat dikenali dengan gabor filter dua dimensi. Gabor wavelet menunjukkan pemilihan karakteristik yang kuat dengan tepat (Kar, Bhattacharjee, Kumar, Nasipuri dan Kundu, 2011:179). Gabor wavelet transform dapat didefinisikan dengan rumus sebagai berikut.

14 Pusat frekuensi ke i dari gabor wavelet diberikan dengan karakteristik vektor gelombang sebagai berikut. Keterangan : kv adalah skala. Ѳ µ adalah orientasi. µ dan ν adalah orientasi dan skala dari Gabor Kernel, z = (x,y). adalah norm operator. vektor gelombang k µ,ν didefinisikan dalam persamaan untuk nilai dan nilai. f merupakan faktor jarak antara kernel didalam domain frekuensi. Gabor kernel yang berasal dari persamaan gabor wavelet transform akan memiliki hasil yang mirip satu sama lain karena dapat diturunkan dari rumus yang sama dengan proses scaling dan rotasi melalui vektor gelombang. Pada persamaan gabor wavelet transform, yang berada dalam kurung siku, bagian menyatakan bagian dari kernel yang berosilasi dengan bagian. Hal tersebut berguna untuk membuat kernel bebas dari DC, sehingga proses pengenalan wajah tidak terlalu sensitif terhadap iluminasi (Kar, Bhattacharjee, Kumar, Nasipuri dan Kundu, 2011). Umumnya, gabor wavelet digunakan dengan lima skala yang berbeda, dan delapan orientasi. Ukuran dari gabor kernel dapat ditunjukan dengan parameter σ = 2π, dan. Kernel ini menunjukkan karakteristik kuat dari

15 ruang lokal dalam pemilihan orientasi yang bertujuan untuk mengoptimalkan lokalisasi pada domain ruang dan frekuensi. Representasi gambar dari gabor wavelet adalah gambar yang sudah dikonvolusikan dengan kernel gabor. Jika I(x,y) adalah matrix gambar grayscale, O merupakan hasil dari konvolusi dan gabor kernel ϕ µ,v, maka akan didapatkan persamaan sebagai berikut. dimana z = (x,y) dan tanda * merupakan operator konvolusi. Dengan mengaplikasikan teorema konvolusi, kita dapat menurunkan output dari konvolusi dari persamaan diatas dengan Fast Fourier Transform (FFT), yaitu sebagai berikut. dan dimana I adalah Fourier Transform dan I -1 adalah Fourier Inverse Transform. Hasil output menunjukan karakteristik ruang lokal yang kuat. Karakteristik tersebut memproduksi fitur-fitur lokal yang menonjol seperti mata, hidung dan mulut, yang sesuai untuk pengenalan secara visual. adalah besar ukuran output dari konvolusi karena output (, ) terdiri dari daerah lokal, ukuran dan orientasi yang berbeda-beda, semua fitur disatukan untuk menurunkan Feature Vector χ (Kar, Bhattacharjee, Kumar, Nasipuri dan Kundu, 2011:180). 2.1.6 Non-Negative Matrix Factorization (NMF) Non-Negative Matrix Factorization diusulkan oleh Lee dan Seung sebagai metode untuk dekomposisi sebuah data matriks (Buciu dan Nafornita, 2009:2). Algoritma NMF digunakan untuk menyelesaikan masalah sebagai berikut. Diberikan sebuah matriks non-negative V, faktor W dan H ditemukan dari matriks non-negative.

16 NMF dapat diaplikasikan dalam analisis statistik multivariasi data. Sebuah set data vektor multivariasi dari n-dimensi diberikan. Vektor tersebut diletakkan didalam kolom matriks V yang berdimensi n x m dimana m menunjukkan jumlah data set yang diberikan. Matriks tersebut akan difaktorisasi menjadi matriks W dengan dimensi n x r dan matriks H dengan dimensi r x m. Matriks W dan H diinisialisasi dengan nilai random. Umumnya, nilai r lebih kecil dari n atau m, sehingga matriks W dan H memiliki ukuran yang lebih kecil daripada matriks aslinya, yaitu matriks V. Rumus diatas dapat ditulis per kolom sehingga menjadi dengan dan adalah kolom dari matriks V dan matriks H. Setiap vektor data diperkirakan dengan kombinasi linear dari kolom matriks W yang dikalikan dengan komponen dari. Sehingga W menjadi dasar yang telah dioptimisasi untuk perkiraan linear data didalam matriks V. Umumnya, dasar vektor jarang digunakan pada reprsentasi data vektor yang besar. Oleh karena itu, perkiraan yang baik hanya dapat dicapai apabila dasar vektor menemukan struktur yang tersembunyi dalam data. Pada algoritma NMF, matriks W dan H akan terus diperbaharui. Nilai baru dapat ditemukan dengan mengalikan nilai yang ada dengan faktor tertentu dan dipengaruhi oleh kualitas pemberian nilai random pada rumus awal. Metode pembaharuan matriks W dan H ada dua. Pertama, metode yang berdasarkan Euclidean Distance. Metode tersebut tidak berpengaruh dalam keadaan jika dan hanya jika W dan H terletak pada titik kritis.

17 Metode yang kedua berdasarkan konsep divergensi. Metode ini tidak berpengaruh dalam keadaan jika dan hanya jika W dan H terletak pada titik kritis dari divergensi. Setiap pembaharuan matriks W dan H dilakukan, nilai-nilai tersebut dimasukan kedalam sebuah fungsi objektif untuk memeriksa apakah produksi matriks W dan H sudah mendekati matriks aslinya (matriks V). Fungsi objektif dapat dituliskan secara matematis sebagai berikut. 2.1.7 Classifier 2.1.7.1 Euclidean Distance Salah satu metode klasifikasi yang paling banyak digunakan adalah metode euclidean distance. Metode ini dilakukan dengan menghitung akar dari kuadrat perbedaan antara koordinat dari sepasang objek. Metode ini dapat dituliskan secara matematis sebagai berikut. Titik pusat dari dua grup didapat dari algoritma pengelompokan dan direpresentasikan oleh dan (Madzarov dan Gjorgjevikj, 2010). 2.1.7.2 Standardized Euclidean Distance Kontribusi dari setiap fitur wajah akan berbeda jika jarak dihitung dengan menggunakan euclidean distance. Sebuah

18 standarisasi diperlukan untuk menyeimbangkan kontribusi di setiap fitur. Cara lama yang sering digunakan adalah dengan mentransformasikan fitur sehingga setiap fitur memiliki standar deviasi yang sama. Perhitungan euclidean distance dengan data yang sudah distandarisasi disebut sebagai standardized euclidean distance. Standardized euclidean distance dapat ditulis dengan rumus : dan adalah standar deviasi vektor untuk grup i dan grup j. dan adalah titik pusat dari grup i dan grup j yang didapat dari algoritma pengelompokan (Madzarov dan Gjorgjevikj, 2010). 2.1.7.3 Cosine Similarity Measure Cosine similarity measure merupakan salah satu teknik klasifikasi yang mengukur kesamaan antara dua vektor dengan menghitung nilai cosine dari sudut yang dibentuk oleh kedua vektor tersebut. Apabila diberikan dua buah vektor x dan y, maka CSM ditunjukkan dengan dot product. Secara matematis ditulis sebagai berikut. Pada pengklasifikasian wajah, atribut dari vektor x dan y adalah frekuensi dari vektor gambar. Cosine similarity measure dapat dilihat sebagai metode normalisasi dalam perbandingan wajah. Hasil kesamaan berkisar antara minus satu yang berarti sangat berlawanan sampai satu yang berarti benar-benar sama. Hasil nol menunjukkan adanya kesamaan dan ketidaksamaan yang sama (Mohan, Rao dan Rao, 2013).

19 2.1.7.4 K-Nearest Neighbor Pada bagian pengenalan pola, algoritma KNN termasuk salah satu algoritma non-parameter yang penting dan merupakan supervised algorithm (Suguna dan Thanushkodi, 2010). Aturan klasifikasi dibuat dengan melatih data sampel tersebut tanpa adanya data tambahan. Algoritma KNN memprediksi kategori data sampel yang diuji berdasarkan pelatihan ke-k. Pelatihan tersebut merupakan hasil yang paling dekat dengan sampel uji. Sampel uji merupakan bagian dari kategori yang diprediksi dan memiliki probabilitas yang paling tinggi. Proses dari algoritma KNN dalam mengklasifikasi sampel X adalah sebagai berikut. Misalkan ada j kategori pelatihan C 1, C 2,. C j dan jumlah dari sampel pelatihan adalah N. Reduksi fitur dilakukan terhadap vektor fitur, sehingga vektor fitur akan menjadi vektor berdimensi m. Sampel uji X dibuat menyerupai bentuk vektor fitur (X 1, X 2, X m ). Sampel tersebut digunakan sebagai seluruh sampel pelatihan. Hitung kesamaan antara sampel pelatihan dan sampel uji X dengan mengambil sampel d i ke-i (d i1, d i2,. d im ) maka kesamaan dihitung dengan rumus sebagai berikut. Pilih sampel k yang memiliki kesamaan paling besar dan hitung probabilitasnya dengan rumus sebagai berikut. Dengan adalah atribut dari fungsi kategori dengan syarat sebagai berikut.

20 Masukkan sampel X kedalam kategori yang memiliki paling besar. 2.1.8 Threshold Nilai threshold digunakan untuk membedakan wajah yang sudah diinput (known-face) dengan wajah yang belum diinput (unknown-face). Nilai threshold ditentukan dengan mengambil nilai tertinggi dari jarak terdekat pada setiap gambar training dengan algoritma KNN (K- Nearest Neighbor). Pada saat citra wajah di-input, nilai minimum antara input citra wajah dengan database wajah akan dihitung dengan menggunakan algoritma KNN. Nilai minimum tersebut dibandingkan dengan nilai threshold. Apabila nilai minimum dari input citra wajah lebih besar dari nilai threshold, maka citra wajah dikenali sebagai unknown-face. Sedangkan, apabila nilai minimumnya lebih kecil dari nilai threshold, maka citra wajah dikenali sebagai known-face (Gupta, Sahoo, Goel dan Gupta, 2010:16). 2.2 Related Works 2.2.1 Paper Recognizing Face with PCA and ICA Gambar 2.5 Gambar Delapan Vektor Fitur. Baris Pertama adalah Gambar dengan Nilai Eigen Tertinggi untuk PCA. Baris Kedua untuk ICA dengan Lokalisasi Vektor Fitur. Baris Ketiga adalah Gambar ICVA Tanpa Lokalisasi Vektor Fitur (Draper, Baek, Bartlett dan Beveridge, 2003:122).

21 PCA (Principal Component Analysis) merupakan metode yang sering digunakan pada face recognition. PCA melibatkan perhitungan dekomposisi nilai eigen dari matriks covariance atau dekomposisi nilai satuan dari data matriks. Perhitungan dekomposisi dilakukan setelah pencarian rata-rata titik tengah dari setiap atribut data ditemukan. Setiap wajah dapat direpresentasikan dalam kombinasi linear dari eigenfaces. Eigenfaces dapat diperkirakan dengan menggunakan wajah yang memiliki nilai eigen yang paling besar. PCA merupakan metode unsupervised dalam reduksi dimensional dan klasifikasi. Metode PCA dapat mencapai tingkat akurasi sebesar 57.31% dalam pengenalan wajah. Independent Component Analysis (ICA) merupakan metode pengembangan dari PCA. PCA mendekorelasi data input menggunakan statistik orde dua dan menjabarkan data dengan rata-rata kuadrat kesalahan minimum proyeksi, sedangkan ICA meminimalisasi ketergantungan terhadap orde dua dan orde yang lebih tinggi dalam input. ICA memiliki tingkat akurasi sebesar 64.31% (Draper, Baek, Bartlett dan Beveridge, 2003:126). Tabel 2.1 Hasil Face Recognition untuk ICA dan PCA (Draper, Baek, Bartlett dan Beveridge, 2003:126)

22 2.2.2 Paper Eigenfaces vs Fisherfaces : Recognition Using Class Specific Linear Projection Algoritma linear subspace menggunakan kondisi ideal bahwa kelas yang berbeda dapat dipisah secara linear. Reduksi dimensi dapat dilakukan dengan menggunakan proyeksi linear dan mempertahankan pemisahan secara linear. Gambar 2.6 Perbandingan antara Pengklasifikasian PCA dengan FLD (Belhumeur, Hespanha dan Kriegman, 1996:8) Pengklasifikasian dalam berbagai pencahayaan masih dapat dilakukan tanpa kesalahan dalam ruang dimensi fitur yang rendah dengan menggunakan linear decision boundaries. Hal tersebut menjadi alasan yang kuat untuk menggunakannya karena metode tersebut dapat mengatasi masalah dalam melakukan face recognition.

23 Gambar 2.7 Hasil dari Performa Algoritma yang Diterapkan terhadap Database Wajah YALE (Belhumeur, Hespanha dan Kriegman, 1996:8). Pada paper ini, metode yang digunakan adalah class specific linear. Metode tersebut digunakan untuk mereduksi dimensi dan memberikan hasil yang lebih baik dan cepat dibandingkan dengan metode linear subspace. Salah satu contoh dari metode class specific linear adalah Fisher s Linear Discriminant (FLD). Metode FLD bekerja dengan cara memberikan bentuk pada scatter sehingga proses pengklasifikasian lebih mudah dilakukan. Database wajah YALE digunakan dalam melakukan pengenalan wajah. Pengenalan wajah dengan menggunakan metode FLD memberikan hasil error yang paling kecil, yaitu sekitar 0.6% (Belhumeur, Hespanha dan Kriegman, 1996:13). 2.2.3 Paper Face Recognition using Gabor Filter Paper ini menggunakan gabor filter untuk proses face recognition. Gabor filter merupakan sebuah kernel yang terdiri dari delapan orientasi dan lima skala yang berbeda sehingga tercipta empat puluh kernel dengan sudut kemiringan dan skala yang berbeda (Kar, Bhattacharjee, Basu, Nasipuri dan Kundu, 2011:179).

24 Gambar 2.8 Gabor Filter (Sharif, Khalid, Raza dan Mohsin, 2011:54) Tahap berikutnya adalah mengkonvolusi gambar input dengan kernel (gabor filter), sehingga menghasilkan empat puluh gambar dengan titik intensitas yang berbeda-beda. Gambar 2.9 Gambar Wajah Setelah Dikonvolusikan dengan Gabor Filter (Sharif, Khalid, Raza dan Mohsin, 2011:55) Keempat puluh gambar tersebut disatukan dengan mencari titik maksimum pada setiap gambar. Setelah titik intensitas maksismum ditemukan, jarak antara titik-titik tersebut dihitung untuk meminimalisasi jumlah titik dan menghasilkan sesuatu yang lebih sederhana.

25 Gambar 2.10 Jarak Antar Titik Wajah (Sharif, Khalid, Raza dan Mohsin, 2011:55). Pada proses pengenalan wajah, jarak antar titik akan dihitung dengan Elastic Bounce Graph Matching (EBGM). Tingkat akurasi metode ini mencapai 94.29%. Tabel 2.2 Hasil Face Recognition dengan Gabor Filter (Sharif, Khalid, Raza dan Mohsin, 2011:56).

26 2.2.4 Paper Non-negative Matrix Factorization Methods for Face Recognition Gambar 2.11 Gambar Seluruh Sample dari Hasil Training dengan Urutan a) PCA, b) NMF, c) LNMF dan d) DNMF (Buciu dan Nafornita, 2009:3) Non-negative Matrix Factorization (NMF) adalah sebuah metode dekomposisi data matriks X yang berdimensi m x n menjadi dua faktor W dan H dengan dimensi secara berurutan m x p dan p x n. Pada awalnya, matriks W dan H diinisialisasi dengan nilai secara acak (random). Matriks W dan H melakukan pembaharuan nilai secara berulang-ulang hingga mencapai nilai minimum. Nilai minimum adalah nilai yang equivalen terhadap W H, sehingga nilai tersebut mendekati nilai pada data asli (matriks X). Proses face recognition dimulai dengan cropping gambar input dari database. Cropping bertujuan untuk menghilangkan lingkungan (background) wajah yang tidak dibutuhkan pada proses face recognition. Setelah itu, gambar di-resize dari ukuran 168 x 192 piksel ke 32 x 32 piksel. Hal tersebut dilakukan untuk mengurangi beban pada saat pemrosesan data. Proses training terhadap gambar-gambar input dilakukan untuk memperoleh faktor dekomposisinya.

27 Gambar 2.12 Hasil Face Recognition (Buciu dan Nafornita, 2009:4) Setelah proses training selesai, proses testing dilakukan untuk mengetahui hasil pengenalan wajah. Gambar testing akan diklasifikasikan dengan vektor matriks W dan H dari hasil training dengan menggunakan metode CSM (Cosine Similarity Measure) yang merupakan aturan nearest neighbor dan kesamaan sudut antara dua vektor. Metode NMF dengan menggunakan CSM sebagai klasifikasi memiliki tingkat keakuratan 88.22% (Buciu dan Nafornita, 2009:4). 2.2.5 Summary Banyak metode face recognition yang telah dikembangkan. Metode yang pertama adalah Principal Component Analysis (PCA). PCA bekerja dengan menentukan sebuah set dari kumpulan arah proyeksi dalam ruang sampel yang berguna untuk memaksimalkan keseluruhan bagian dari semua gambar. Metode PCA dapat menghasilkan tingkat ketepatan sebesar 57.31% (Draper, Baek, Bartlett dan Beveridge, 2003:126). Metode lain yang sering digunakan adalah Linear Discriminant Analysis (LDA). LDA menentukan bagian-bagian yang dapat menjadi pembeda antara suatu objek dengan objek lain dengan memaksimalkan

28 jarak antar kelas dan meminimalkan jarak dalam kelas. Proses PCA dan LDA menghasilkan vektor yang disebut eigenvector. Eigenvector pada PCA menghasilkan representasi yang paling mendekati dengan kelas sampel yang terdistribusi, sementara eigenvector pada LDA menghasilkan pemisah bagian kelas yang terbaik. Metode LDA memberikan hasil yang cukup baik dengan tingkat keberhasilan mencapai 88% (Patel, Rathod dan Shah, 2012:56). Pengembangan metode PCA menghasilkan metode Independent Component Analysis (ICA). ICA merupakan sebuah teknik untuk memisahkan variabel independent dari data yang tercampur. Teknik ini merupakan teknik yang cukup baru dan berkembang dari dunia pemrosesan sinyal (Jaiswal, Bhadauria dan Jadon, 2011:176). Metode ICA memberikan hasil yang lebih baik dari PCA dengan tingkat ketepatan 64.31% (Draper, Baek, Bartlett dan Beveridge, 2003:126). Setelah itu, Dennis Gabor mengembangkan sebuah metode untuk mengekstrak fitur yang bernama metode gabor wavelet. Studi psikologis menemukan bahwa sel tubuh manusia dapat menjadi ciri-ciri khusus yang dapat dibedakan dalam ruang frekuensi. Hasil dari sel tersebut dapat diperkirakan melalui 2D gabor filter (Jaiswal, Bhadauria and Jadon, 2011:181). Metode gabor memberikan hasil yang cukup baik dengan tingkat ketepatan 94.29% hanya pada 22 gambar (Sharif, Khalid, Raza dan Mohsin, 2011:56). Lalu, metode Non-Negative Matrix Factorization (NMF) ditemukan. Metode NMF menghasilkan tingkat ketepatan hingga 88.22% (Buciu dan Nafornita, 2009:4).