KLASIFIKASI DENGAN ANALISIS KOMPONEN UTAMA KERNEL WIRDANIA USTAZA

dokumen-dokumen yang mirip
KLASIFIKASI DATA MENGGUNAKAN ANALISIS KOMPONEN UTAMA KERNEL DENGAN FUNGSI ISOTROPIK HANIF KHARISMAHADI

ANALISIS KOMPONEN UTAMA KERNEL: SUATU STUDI EKSPLORASI PEMBAKUAN PEUBAH PUTRI THAMARA

Penggunaan Kernel PCA Gaussian dalam Penyelesaian Plot Multivariat Non Linier. The Use of Gaussian PCA Kernel in Solving Non Linier Multivariate Plot

Plot Multivariate Menggunakan Kernel Principal Component Analysis (KPCA) dengan Fungsi Power Kernel

TINJAUAN PUSTAKA Analisis Biplot Biasa

HASIL DAN PEMBAHASAN. dengan hipotesis nolnya adalah antar peubah saling bebas. Statistik ujinya dihitung dengan persamaan berikut:

BAB 2 LANDASAN TEORI

Penggunaan Kernel Principal Component Analysis Fungsi Polinomial Dalam Menyelesaikan Masalah Pengelompokan Plot Peubah Ganda

BAB III ANALISIS FAKTOR. berfungsi untuk mereduksi dimensi data dengan cara menyatakan variabel asal

SVM untuk Regresi Ordinal

(α = 0.01). Jika D i > , maka x i atau pengamatan ke-i dianggap pencilan (i = 1, 2,..., 100). HASIL DAN PEMBAHASAN

BAB 2 LANDASAN TEORI. Analisis Komponen Utama (AKU, Principal Componen Analysis) bermula dari

Analisis Komponen Utama (Principal component analysis)

TINJAUAN PUSTAKA. Gambar 1 Diagram kotak garis

S 10 Studi Simulasi Tentang Penerapan Grafik Pengendali Berdasarkan Analisis Komponen Utama (Principal Component Analysis)

TINJAUAN PUSTAKA Analisis Gerombol

Metode Kernel. Machine Learning

Minggu XI ANALISIS KOMPONEN UTAMA. Utami, H

Abstract. Abstrak. Keywords : Principal Component Analysis, Agriculture Production and Plantation

ANALISIS BIPLOT UNTUK MEMETAKAN MUTU SEKOLAH YANG SESUAI DENGAN NILAI UJIAN NASIONAL SUJITA

KAJIAN TERHADAP TINGKAT PEMERATAAN PENDIDIKAN MENGGUNAKAN ANALISIS BIPLOT KLASIK DAN BIPLOT KEKAR

TINJAUAN PUSTAKA. Model Regresi Linier Ganda

HASIL DAN PEMBAHASAN

JURNAL MATEMATIKA DAN KOMPUTER Vol. 4. No. 2, 71-81, Agustus 2001, ISSN :

ANALISIS KORELASI KANONIK PERILAKU BELAJAR TERHADAP PRESTASI BELAJAR SISWA SMP (STUDI KASUS SISWA SMPN I SUKASARI PURWAKARTA)

BAB 2 TINJAUAN PUSTAKA

ANALISIS RAGAM SKOR KOMPONEN UTAMA PADA PERCOBAAN RESPONS-GANDA. Bahriddin Abapihi 1)

Analisis Biplot untuk Pemetaan Posisi dan Karakteristik Usaha Pariwisata di Provinsi Bali

Teknik Reduksi Dimensi Menggunakan Komponen Utama Data Partisi Pada Pengklasifikasian Data Berdimensi Tinggi dengan Ukuran Sampel Kecil

Bab 2 LANDASAN TEORI

Oleh: Agus Mohamad Soleh. Departemen Statistika FMIPA IPB. Abstrak

BAB II TINJAUAN PUSTAKA. konsep-konsep dasar pada QUEST dan CHAID, algoritma QUEST, algoritma

TINJAUAN PUSTAKA. dianalisis dan hasilnya ditransformasi menjadi matriks berukuran??

PENANGANAN MULTIKOLINEARITAS (KEKOLINEARAN GANDA) DENGAN ANALISIS REGRESI KOMPONEN UTAMA. Tatik Widiharih Jurusan Matematika FMIPA UNDIP

BAB III PEREDUKSIAN RUANG INDIVIDU DENGAN ANALISIS KOMPONEN UTAMA. Analisis komponen utama adalah metode statistika multivariat yang

SVM untuk Regresi. Machine Learning

PENDAHULUAN LANDASAN ANALISIS

aljabar geo g metr me i

BEBERAPA METODE PENDUGAAN JUMLAH KOMPONEN DALAM CAMPURAN SENYAWA KIMIA MURDAN ALFA SATYAWAN SEKOLAH PASCASARJANA INSTITUT PERTANIAN BOGOR BOGOR 2008

g(x, y) = F 1 { f (u, v) F (u, v) k} dimana F 1 (F (u, v)) diselesaikan dengan: f (x, y) = 1 MN M + vy )} M 1 N 1

PERBANDINGAN ANALISIS BIPLOT KLASIK DAN ROBUST BIPLOT PADA PEMETAAN PERGURUAN TINGGI SWASTA DI JAWA TIMUR

KAJIAN PENGARUH NOISE DALAM ANALISIS KOMPONEN UTAMA UNTUK PEUBAH-PEUBAH YANG BERKORELASI FAJRIANZA ADI NUGRAHANTO

PENERAPAN ANALISIS FAKTOR DAN ANALISIS DISKRIMINAN UNTUK MENENTUKAN KUALITAS PRODUK SUSU BALITA DENGAN GRAFIK KENDALI Z-MR

BAB II TINJAUAN PUSTAKA. level, model regresi tiga level, penduga koefisien korelasi intraclass, pendugaan

BAB. IX ANALISIS REGRESI FAKTOR (REGRESSION FACTOR ANALYSIS)

PENERAPAN REGRESI LINIER MULTIVARIAT PADA DISTRIBUSI UJIAN NASIONAL 2014 (Pada Studi Kasus Nilai Ujian Nasional 2014 SMP Negeri 1 Sayung)

MATRIKS PASCAL DAN SIFAT-SIFATNYA YOGIE BUDHI RANTUNG

III. METODE PENELITIAN

BAB II TINJAUAN PUSTAKA. Dalam bab ini akan dipaparkan beberapa teori pendukung yang digunakan dalam

PENGELOMPOKAN KABUPATEN/KOTA BERDASARKAN FAKTOR-FAKTOR YANG MEMPENGARUHI KEMISKINAN DI JAWA TENGAH MENGGUNAKAN METODE WARD DAN AVERAGE LINKAGE SKRIPSI

PERBANDINGAN METODE INTERPOLASI ABRIDGED LIFE TABLE

PENERAPAN METODE REGRESI GULUD DAN REGRESI KOMPONEN UTAMA DALAM MENGATASI PENYIMPANGAN MULTIKOLINEARITAS PADA ANALISIS REGRESI LINEAR BERGANDA

Analisis Cluster Average Linkage Berdasarkan Faktor-Faktor Kemiskinan di Provinsi Jawa Timur

SELEKSI PEUBAH DENGAN ANALISIS KOMPONEN UTAMA DAN PROCRUSTES ACHMAD MUSLIM

PERBANDINGAN KINERJA BEBERAPA METODE KLASIFIKASI HASIL REDUKSI DATA BERDIMENSI TINGGI

Didin Astriani P, Oki Dwipurwani, Dian Cahyawati (Jurusan Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Sriwijaya)

IDENTIFIKASI FAKTOR PENDORONG PERNIKAHAN DINI DENGAN METODE ANALISIS FAKTOR

ANALISIS REGRESI TERPOTONG BEBERAPA NILAI AMATAN NURHAFNI

Keywords: Factorial Experiment, CRBD, AMMI, Analysis of Variance, PCA, Biplot

BAB III PEMBAHASAN. Analisis cluster merupakan analisis yang bertujuan untuk. mengelompokkan objek-objek pengamatan berdasarkan karakteristik yang

PENERAPAN ANALISIS KOMPONEN UTAMA DALAM PENENTUAN FAKTOR DOMINAN YANG MEMPENGARUHI PRESTASI BELAJAR SISWA (Studi Kasus : SMAN 1 MEDAN)

REDUKSI DIMENSI INPUT PADA JARINGAN SYARAF PCA-RBF DENGAN SINGULAR VALUE DECOMPOSITION

ANALISIS KORELASI KANONIK ANTARA CURAH HUJAN GCM DAN CURAH HUJAN DI INDRAMAYU. Oleh : Heru Novriyadi G

BAB III MODEL STATE-SPACE. dalam teori kontrol modern. Model state space dapat mengatasi keterbatasan dari

(M.6) FUZZY C-MEANS CLUSTERING DENGAN ANALISIS ROBUST

METODE LEAST MEDIAN OF SQUARES (LMS) PADA ANALISIS REGRESI DENGAN PENCILAN AMIR A DALIMUNTHE

Kata Kunci: Analisis Regresi Linier, Penduga OLS, Penduga GLS, Autokorelasi, Regresor Bersifat Stokastik

ANALISIS REGRESI KOMPONEN UTAMA UNTUK MENGATASI MASALAH MULTIKOLINIERITAS SKRIPSI LEONARDO SILALAHI

KETERKONTROLAN BEBERAPA SISTEM PENDULUM SAKIRMAN

BAB III METODE POHON KLASIFIKASI QUEST

Analisis Hibrid Korespondensi Untuk Pemetaan Persepsi. Hybrid Correspondence Analysis for Mapping Perception

II. TINJAUAN PUSTAKA. Dalam bab ini akan dibahas beberapa konsep dasar, definisi-definisi serta teorema

SEBARAN ASIMTOTIK PENDUGA KOMPONEN PERIODIK FUNGSI INTENSITAS PROSES POISSON PERIODIK DENGAN TREN FUNGSI PANGKAT RO FAH NUR RACHMAWATI

BAB 2 LANDASAN TEORI


PENGGUNAAN REGRESI SPLINE ADAPTIF BERGANDA UNTUK DATA RESPON BINER AZWIRDA AZIZ SEKOLAH PASCASARJANA INSTITUT PERTANIAN BOGOR 2005

ANALISIS KETAHANAN DAN APLIKASINYA UNTUK PEMODELAN INTERVAL KELAHIRAN ANAK PERTAMA HARNANTO

PEMODELAN PRINCIPAL COMPONENT REGRESSION DENGAN SOFTWARE R

PERBANDINGAN METODE KDDA MENGGUNAKAN KERNEL RBF, KERNEL POLINOMIAL DAN METODE PCA UNTUK PENGENALAN WAJAH AKIBAT VARIASI PENCAHAYAAN ABSTRAK

BAB 2 LANDASAN TEORI. Analisis regresi (regression analysis) merupakan suatu teknik untuk membangun

METODE PARTIAL LEAST SQUARES UNTUK MENGATASI MULTIKOLINEARITAS PADA MODEL REGRESI LINEAR BERGANDA

BAB II KAJIAN PUSTAKA

BAB II TINJAUAN PUSTAKA. Hal ini sangat membantu dalam proses pembuktian sifat-sifat dan perhitungan

PEMODELAN DAN SIMULASI TINGGI GENANGAN BANJIR DI KECAMATAN GUBENG KOTA SURABAYA MENGGUNAKAN SISTEM INFORMASI GEOGRAFIS

BAB II TINJAUAN PUSTAKA. satu peubah prediktor dengan satu peubah respon disebut analisis regresi linier

ANALISIS KOMPONEN UTAMA PADA PENERAPAN APLIKASI PEMBELAJARAN METODE GLENN DOMAN

BAB II LANDASAN TEORI

BAB III MARKOV SWITCHING AUTOREGRESSIVE (MSAR)

BAB IX ANALISIS REGRESI

PERBANDINGAN REGRESI KOMPONEN UTAMA DAN ROBPCA DALAM MENGATASI MULTIKOLINEARITAS DAN PENCILAN PADA REGRESI LINEAR BERGANDA

Support Vector Machine

PERBANDINGAN ANTARA UNWEIGHTED LEAST SQUARES (ULS) DAN PARTIAL LEAST SQUARES (PLS) DALAM PEMODELAN PERSAMAAN STRUKTURAL MUHAMMAD AMIN PARIS

BAB 2 LANDASAN TEORI. Analisis regresi (regression analysis) merupakan suatu teknik untuk membangun

BAB II LANDASAN TEORI

METODE PENELITIAN Kerangka Pemikiran

TINJAUAN PUSTAKA. Model Linier dengan n pengamatan dan p variable penjelas biasa ditulis sebagai

Analisis Regresi Nonlinear (I)

II LANDASAN TEORI. Contoh. Ditinjau dari sistem yang didefinisikan oleh:

BAB II LANDASAN TEORI. 2.1 Uji Hipotesis

BAB 2 LANDASAN TEORI. disebut dengan bermacam-macam istilah: variabel penjelas, variabel

Transkripsi:

KLASIFIKASI DENGAN ANALISIS KOMPONEN UTAMA KERNEL WIRDANIA USTAZA DEPARTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR BOGOR 2014

PERNYATAAN MENGENAI SKRIPSI DAN SUMBER INFORMASI SERTA PELIMPAHAN HAK CIPTA* Dengan ini saya menyatakan bahwa skripsi berjudul Klasifikasi dengan Analisis Komponen Utama Kernel adalah benar karya saya dengan arahan dari komisi pembimbing dan belum diajukan dalam bentuk apa pun kepada perguruan tinggi mana pun. Sumber informasi yang berasal atau dikutip dari karya yang diterbitkan maupun tidak diterbitkan dari penulis lain telah disebutkan dalam teks dan dicantumkan dalam Daftar Pustaka di bagian akhir skripsi ini. Dengan ini saya melimpahkan hak cipta dari karya tulis saya kepada Institut Pertanian Bogor. Bogor, Maret 2014 Wirdania Ustaza NIM G54090057

ABSTRAK WIRDANIA USTAZA. Klasifikasi dengan Analisis Komponen Utama Kernel. Dibimbing oleh SISWADI dan TONI BAKHTIAR. Analisis komponen utama (AKU) merupakan bentuk khusus dari AKU kernel dengan fungsi kernel linear. Tujuan dari studi ini ialah untuk menyelesaikan permasalahan data yang tak terpisah secara linear dan mengklasifikasikan suatu objek ke dalam suatu kelompok menggunakan AKU kernel sehingga diperoleh salah klasifikasi terkecil. Pengklasifikasian kelompok menggunakan AKU kernel diselesaikan dengan fungsi kernel linear dan Gauss. Hasil untuk data pengenalan anggur menunjukkan bahwa fungsi kernel linear dan Gauss (parameter 2.5) masing-masing memberikan 30.889% dan 17.416% salah klasifikasi. Kata kunci: analisis komponen utama, kernel, salah klasifikasi ABSTRACT WIRDANIA USTAZA. Classification with Kernel Principal Component Analysis. Supervised by SISWADI and TONI BAKHTIAR. Principal component analysis (PCA) is a special case of the kernel PCA with linear kernel function. The aim of this study is to resolve the data problem that is not linearly separated and to classify an object into a group by using kernel PCA to obtain the smallest classification error. Group classification using kernel PCA is performed by the linear and Gaussian kernel function. The result of the study shows for wine recognition data with the linear and Gaussian (parameter 2.5) kernel function produces 30.889% and 17.416% classification error, respectively. Keywords: principal component analysis, kernel, classification error

KLASIFIKASI DENGAN ANALISIS KOMPONEN UTAMA KERNEL Skripsi sebagai salah satu syarat untuk memperoleh gelar Sarjana Sains pada Program Studi Matematika DEPARTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR BOGOR 2014

Judul Skripsi : Klasifikasi dengan Analisis Komponen Utama Kernel Nama : Wirdania Ustaza NIM : G54090057 Disetujui oleh Prof Dr Ir Siswadi, MSc Pembimbing I Dr Toni Bakhtiar, MSc Pembimbing II Diketahui oleh Dr Toni Bakhtiar, MSc Ketua Departemen Tanggal Lulus:

Judul Skripsi : Klasifikasi dengan Analisis Komponen Utama Kernel Nama : Wirdania Ustaza NlM : G54090057 Disetujui oleh Prof Dr Ir Siswadi, MSc Pembimbing I Dr Toni Bakhtiar, MSc Pembimbing II L ' os, - Dr Torti Bakhtiar, MSc Ketua Departemen /,/ Tanggal Lulus: 04 MAR 2014

PRAKATA Puji dan syukur penulis panjatkan kepada Allah subhanahu wa ta ala atas segala karunia-nya sehingga karya ilmiah ini berhasil diselesaikan. Tema yang dipilih dalam penelitian yang dilaksanakan sejak bulan Maret 2013 ini ialah analisis data, dengan judul Klasifikasi dengan Analisis Komponen Utama Kernel. Terima kasih penulis ucapkan kepada Bapak Prof Dr Ir Siswadi MSc yang banyak memberikan saran, waktu, dan arahannya selama ini, terima kasih yaa pak. Terima kasih penulis ucapkan kepada Bapak Dr Toni Bakhtiar MSc selaku dosen pembimbing yang telah banyak memberikan saran dan Bapak Ir Ngakan Komang Khuta Ardana MSc yang telah banyak memberi saran. Ungkapan terima kasih juga disampaikan kepada Ayahku, Emakku, Ayekku, Maktoku seluruh keluarga besarku yang sudah memberikan doa dan semangat, kepada Danty, Meliza, Nindy, Vina, Risa, Ermi, Nisa, Ivon, Dewi, Fitria, Bu Susi, Ratri, Rizka, Nova, Nuke, Tika, Restu, Janah, Leli, Syahibah, Wanda, Ara, Farel, Iham, Ka Lina atas perhatian dan kasih sayangnya, serta kepada Evy, Bari, Rudy, Syukrio dan Meda yang sudah membantu dalam penggunaan software, kepada seluruh sahabat SMP, SMA, dan seluruh keluarga Matematika IPB, terima kasih atas segala doa dan kasih sayangnya. Semoga karya ilmiah ini bermanfaat. Bogor, Maret 2014 Wirdania Ustaza

DAFTAR ISI DAFTAR TABEL DAFTAR GAMBAR DAFTAR LAMPIRAN PENDAHULUAN 1 Latar Belakang 1 Tujuan Penelitian 1 TINJAUAN PUSTAKA 2 Analisis Komponen Utama 2 Analisis Komponen Utama Kernel 5 METODE PENELITIAN 9 Data 9 Prosedur Analisis Data 9 HASIL DAN PEMBAHASAN 10 SIMPULAN DAN SARAN 17 Simpulan 19 Saran 19 DAFTAR PUSTAKA 20 LAMPIRAN 21 RIWAYAT HIDUP 29 vii vii viii

DAFTAR TABEL 1 Klasifikasi kelompok 10 2 Deskripsi data pengenalan anggur 12 3 Fungsi kernel yang diaplikasikan 12 4 Matriks kovarians 12 5 Matriks korelasi 13 6 Hasil salah klasifikasi (SK) fungsi Gauss 17 7 Hasil pengklasifikasian kelompok data dengan fungsi linear 18 8 Hasil pengklasifikasian kelompok data dengan fungsi Gauss 0 =1 18 9 Hasil pengklasifikasian kelompok data dengan fungsi Gauss 0 =2.5 18 10 Hasil pengklasifikasian kelompok data dengan fungsi Gauss 0 =6 19 DAFTAR GAMBAR 1 Ide dasar AKU kernel 5 2 Ide utama metode kernel: memetakan data asal ke dimensi lebih tinggi ruang fitur 6 3 Plot pencar dari beberapa pasang peubah data pengenalan anggur 10 4 AKU atau fungsi linear 13 5 Fungsi Gauss dengan parameter 0 =1 13 6 Fungsi Gauss dengan parameter 0 =1.25 13 7 Fungsi Gauss dengan parameter 0 =1.5 13 8 Fungsi Gauss dengan parameter 0 =1.75 14 9 Fungsi Gauss dengan parameter 0 =2 14 10 Fungsi Gauss dengan parameter 0 =2.25 14 11 Fungsi Gauss dengan parameter 0 =2.5 14 12 Fungsi Gauss dengan parameter 0 =2.75 14 13 Fungsi Gauss dengan parameter 0 =3 14 14 Fungsi Gauss dengan parameter 0 =3.25 14 15 Fungsi Gauss dengan parameter 0 =3.5 14 16 Fungsi Gauss dengan parameter 0 =3.75 15 17 Fungsi Gauss dengan parameter 0 =4 15 18 Fungsi Gauss dengan parameter 0 =4.25 15 19 Fungsi Gauss dengan parameter 0 =4.5 15 20 Fungsi Gauss dengan parameter 0 =4.75 15 21 Fungsi Gauss dengan parameter 0 =5 15 22 Fungsi Gauss dengan parameter 0 =5.25 15 23 Fungsi Gauss dengan parameter 0 =5.5 15 24 Fungsi Gauss dengan parameter 0 =5.75 16 25 Fungsi Gauss dengan parameter 0 =6 16 26 Perbandingan hasil data pengenalan anggur 16 27 Perbandingan hasil data tanaman iris 17 28 Grafik kesalahan klasifikasi 18

DAFTAR LAMPIRAN 1 Data pengenalan anggur 21 2 Data nilai eigen dan vektor eigen 26

PENDAHULUAN Latar Belakang Analisis data adalah proses penyederhanaan data agar lebih mudah dibaca dan diinterpretasikan. Ada banyak alat yang dapat digunakan untuk menganalisis data baik secara manual ataupun dengan bantuan aplikasi komputer. Salah satunya ialah dengan menggunakan analisis statistika peubah ganda, yang sudah banyak berkembang di masyarakat. Analisis statistika peubah ganda mampu mengidentifikasi pola dalam data dan mengekspresikan data sedemikian rupa sehingga menyorot persamaan dan perbedaannya (Shen 2007). Salah satu cara dalam analisis statistika peubah ganda yang dapat digunakan untuk melakukan hal tersebut ialah analisis komponen utama. Analisis komponen utama (AKU) pertama kali diperkenalkan oleh Karl Pearson pada tahun 1901. AKU sering digunakan untuk mereduksi dimensi dari suatu matriks data yang terdiri atas sejumlah besar peubah yang saling berkorelasi menjadi sejumlah kecil peubah dan tidak saling berkorelasi, dengan tetap mempertahankan sebanyak mungkin informasi yang terkandung dalam matriks data baru (Jolliffe 2002). AKU menggunakan kombinasi linear antarpeubah untuk merepresentasikan suatu data. Namun, kombinasi linear ini tidak dapat memodelkan data yang kompleksitasnya tinggi dengan hubungan taklinear antarpeubah. Oleh karena itu diperlukan suatu metode untuk menyelesaikan masalah tersebut yaitu dengan menggunakan AKU kernel. AKU merupakan bentuk khusus dari AKU kernel dengan fungsi kernel linear. Fungsi kernel memetakan data ke dimensi yang lebih tinggi dan membangun fungsi pemisah dalam ruang yang terpisahkan. Hal ini dilakukan dengan menghitung fungsi kernel yang memberikan nilai hasil kali dalam pada ruang fitur tanpa menunjukkan pemetaan secara eksplisit. AKU kernel juga sebagai metode berbasis memori, yaitu jika x adalah suatu objek maka menemukan skor untuk objek tersebut dapat menggunakan nilai eigen dan vektor eigen dari data asal (Nielsen dan Canty 2008). Karena dalam mengklasifikasikan suatu objek ke dalam suatu kelompok diperlukan beberapa peubah penciri yang dapat membedakan antara satu kelompok dengan kelompok lainnya, maka atas dasar inilah AKU kernel dapat digunakan dalam menyelesaikan pengklasifikasian suatu objek ke dalam suatu kelompok untuk memperoleh salah klasifikasi terkecil. Tujuan Karya ilmiah ini bertujuan untuk menyelesaikan permasalahan data yang tak terpisah secara linear dan mengklasifikasikan suatu objek ke dalam suatu kelompok menggunakan AKU kernel dengan fungsi kernel linear dan Gauss sehingga diperoleh salah klasifikasi terkecil.

2 TINJAUAN PUSTAKA Analisis Komponen Utama Analisis komponen utama (AKU) adalah bagian dari analisis statistika peubah ganda yang banyak digunakan sebagai alat analisis pada data. AKU merupakan suatu teknik analisis data untuk mereduksi dimensi peubah asal yang saling berkorelasi menjadi peubah baru yang tidak saling berkorelasi sehingga lebih mudah dalam menjelaskan data yang digunakan. AKU membentuk peubah baru yang merupakan kombinasi linear dari seluruh peubah asal, yang disebut komponen utama. Meskipun dibutuhkan p komponen untuk menunjukkan keseluruhan variasi data, seringkali variasi ini dapat diwakili oleh k komponen utama, dengan k p (Jollife 2002). Sehingga data asal yang mengandung n objek dengan p peubah dapat direduksi menjadi n objek dengan k komponen utama pertama. Misalkan vektor peubah acak X T = X 1, X 2,, X p memunyai matriks kovarians Σ dengan nilai eigen λ 1 λ 2 λ p 0. Misalkan kombinasi linear u T 1 X dari vektor X memiliki varians terbesar, dengan u 1 merupakan vektor koefisien u 11, u 12,, u 1p, sehingga u T p 1 X = u 11 X 1 + u 12 X 2 + + u 1p X p = i=1 u 1i X i. Kombinasi linear kedua, u T 2 X, tidak berkorelasi dengan u T 1 X. Kombinasi linear ini memiliki varians terbesar kedua, dan seterusnya, sehingga kombinasi linear ke-k, u T k X, memiliki varians maksimum ke-k dan tidak berkorelasi dengan u T 1 X, u T 2 X T,, u k 1 X. Dengan demikian terdapat vektor bobot yang tidak diketahui u T i = (u i1, u i2,, u ip ). Misalkan X memiliki matriks kovarians Σ dengan elemen σ ij merupakan kovarians antara peubah ke-i dan peubah ke-j dari X saat i j dan varians peubah ke-j saat i = j. Jika X memiliki nilai harapan E[X] maka kovarians X ialah sebagai berikut cov X = E[ X E X X E X T ] misalkan Y i = u T i X maka E Y i = E[u T i X ]= u T i E[X] dengan varians Y i sebagai berikut var Y i = E Y i E[Y i ] Y i E[Y i ] T = E[ u T i X E u T i X u T i X E u T i X T ] = u T i E[ X E X X E X T ]u i = u T i cov X u i = u T i Σu i. Untuk menentukan komponen utama pertama, pandang kombinasi linear pertama u T 1 X dan vektor u 1 yang memaksimumkan var Y 1 = u T 1 Σu 1. Nilai var Y 1 dapat terus membesar bila u 1 dikalikan dengan suatu konstanta yang lebih besar dari satu maka dibutuhkan batasan u T 1 u 1 = 1, yaitu jumlah kuadrat elemen u 1 sama dengan 1. Untuk komponen utama pertama yang ingin memaksimumkan var Y 1 = var u T i X = u T 1 Σu 1 dengan kendala u T 1 u 1 = 1 dapat diselesaikan melalui persamaan Lagrange berikut L u 1, λ 1 = u T 1 Σu 1 λ 1 u T 1 u 1 1

dengan λ 1 adalah pengganda Lagrange, kemudian mencari titik kritis dari persamaan Lagrange dapat dilakukan dengan cara mencari turunan pertama terhadap u 1 sebagai berikut: L u 1 = 2Σu 1 2λ 1 u 1 = 0 atau Σu 1 λ 1 u 1 = 0 Σ λ 1 I p u 1 = 0 dengan I p merupakan matriks identitas berukuran p p. Dengan demikian λ 1 adalah nilai eigen dari Σ dan u 1 merupakan vektor eigen yang bersesuaian. Untuk menentukan vektor eigen yang memberikan kombinasi linear u 1 T X dengan varians terbesar, kuantitas yang akan dimaksimumkan ialah u 1 T Σu 1 = u 1 T λ 1 u 1 = λ 1 Dengan demikian agar var Y 1 maksimum maka haruslah λ 1 merupakan nilai eigen terbesar dari matriks kovarians Σ dan u 1 merupakan vektor eigen yang bersesuaian dengan nilai eigen λ 1 terbesar dari Σ. Komponen utama kedua, u 2 T X, memaksimumkan u 2 T Σu 2 dengan kendala u 2 T u 2 = 1 dan tidak berkorelasi dengan u 1 T X, atau ekuivalen dengan syarat cov u 1 T X, u 2 T X = 0, dengan cov X 1, X 2 menyatakan kovarians antara peubah X 1 dan peubah X 2. Diperoleh cov u 1 T X, u 2 T X = u 1 T Σu 2 = u 2 T Σu 1 = u 2 T λ 1 u 1 = λ 1 u 2 T u 1 = λ 1 u 1 T u 2 (1) karena λ 1 0 maka u 1 T u 2 = 0. Didefinisikan kembali fungsi Lagrange L u 2, λ 2, α = u 2 T Σu 2 λ 2 u 2 T u 2 1 α u 1 T u 2 0 dengan λ 2 dan α adalah pengganda Lagrange, untuk mencari titik kritis dapat diperoleh sebagai berikut L u 2 = 2Σu 2 2λ 2 u 2 αu 1 = 0 (2) Jika persamaan (2) dikalikan dengan u 1 T didapatkan 2u 1 T Σu 2 2λ 2 u 1 T u 2 αu 1 T u 1 = 0 Persamaan (1) menjadikan u 1 T u 2 = 0 dan karena u 1 T u 1 = 1 maka haruslah α = 0, sehingga persamaan (2) dapat ditulis menjadi Σu 2 λ 2 u 2 = 0 atau Σ λ 2 I p u 2 = 0 merupakan persamaan eigen dari matriks Σ. Dengan demikian λ 2 merupakan nilai eigen Σ dan u 2 merupakan vektor eigen yang bersesuaian. Untuk menentukan vektor eigen yang memberikan kombinasi linear u 2 T X dengan varians terbesar, kuantitas yang akan dimaksimumkan ialah u 2 T Σu 2 = u 2 T λ 2 u 2 = λ 2. Karena nilai eigen terbesar pertama merupakan varians dari komponen utama pertama maka λ 2 dipilih nilai eigen terbesar kedua dari matriks Σ. Demikian juga dengan vektor eigen u 2 merupakan vektor eigen yang bersesuaian dengan nilai eigen terbesar kedua λ 2. Berdasarkan uraian sebelumnya, dapat ditunjukkan bahwa komponen utama ketiga, keempat sampai ke-p, vektor koefisien u 3, u 4,, u p merupakan vektor 3

4 eigen Σ yang bersesuaian dengan nilai eigen λ 3, λ 4,, λ p, secara berturut-turut. Secara umun, komponen utama ke-k dari X adalah u T k X dan var[u T k X ] = λ k untuk k = 1, 2,, p dengan λ k merupakan nilai eigen Σ terbesar ke-k dan u k adalah vektor eigen yang p i=1 λ i bersesuaian. Total varians yang dijelaskan oleh komponen utama adalah sehingga proporsi total varians dari k komponen utama pertama ialah λ 1 +λ 2 + +λ k 100%. Belum ada patokan baku berapa batas minimum banyaknya λ 1 +λ 2 + +λ p komponen utama, sebagian buku menyebutkan 70%, 80%, dan ada yang 90%. Apabila satuan pengukuran untuk setiap peubah yang diamati tidak sama dan varians antarpeubah memiliki perbedaan cukup besar yang mengakibatkan salah satu peubah menjadi dominan dalam menentukan komponen utama maka biasanya digunakan matriks korelasi ρ. Bila peubah telah dibakukan sebagai berikut Z 1 = Z 2 = X 1 E[X] σ 11 X 2 E[X] σ 22 Z p = X p E[X] σ pp maka komponen utama dari Z T = Z 1, Z 2,, Z p adalah kombinasi linear dari p peubah baku Y i = u T i Z = u i1 Z 1 + u i2 Z 2 + + u ip Z p i = 1, 2,, p dalam kasus ini λ 1, u 1, λ 2, u 2,, λ p, u p adalah sepasang nilai eigen dan vektor eigen untuk matriks korelasi ρ = V 1 2 ΣV 1 2, dengan V 1 2 = diag( 1 1 1,,, ) dan λ σ 11 σ 22 σ 1 λ 2 λ p 0 (Johnson dan Wichern pp 2007). Misalkan X adalah matriks data asal dengan n objek dan p peubah. Selanjutnya matriks X dikoreksi terhadap rataanya sehingga diperoleh matiks X, X = I JJ T X dengan J = 1 1, 1,, 1 T dan I matriks identitas. Apabila matriks kovarians n populasi Σ dan matriks korelasi dari populasi ρ tidak diketahui, maka dapat diduga dengan matriks kovarians contoh S = X T X (n 1) dan matriks korelasi contoh R = D 1 2 SD 1 2 dengan D 1 2 = diag( 1 1 1,,, ) yang s 11 s 22 s pp berukuran p p. Permasalahan ini biasa disebut juga sebagai formulasi primal. Formulasi primal sangat baik digunakan saat ukuran n p, sehingga dapat meringkas dalam menyelesaikan masalah persamaan eigen. Selain formulasi primal dijelaskan pula tentang formulasi dual. Formulasi dual dianalisis dengan XX T n 1 yang berukuran n n dalam amatan dapat menjadi sangat besar. Formulasi dual memiliki permasalahan persamaan eigen sebagai berikut: XX T n 1 v i = λ i v i

dengan λ i adalah nilai eigen dan v i adalah vektor eigen yang bersesuaian dengan λ i. Jika persamaan ini dikalikan X T dari kiri maka akan diperoleh X T X n 1 XT v i = λ i X T v i X T X n 1 u i = λ i u i u i proporsional dengan X T v i, u i X T v i adalah sebuah vektor eigen dari matriks kovarians Σ dengan nilai eigen λ i. Sehingga dalam hal ini nilai eigen yang diperoleh dari kedua formulasi adalah sama-sama λ i dan dengan mengasumsikan vektor eigen v i adalah vektor satuan 1 = v T i v i u T i X T Xu i = n 1 λ i u T i u i = 1 diperoleh u i = 1 n 1 λ i X T v i. Jika X T X berpangkat r min (n, p), X T X n 1 dan XX T n 1 memunyai r nilai eigen taknol λ i yang sama dan bahwa vektor eigennya saling terkait yaitu u i = X T v i n 1 λ i dan v i = Xu i n 1 λ i. Formulasi dual akan sangat baik digunakan saat n p. Keuntungan lainnya untuk n p adalah bahwa unsur-unsur dari matriks G = XX T, yang mana diketahui sebagai matriks Gram, terdiri atas produk dalam (inner, dot atau scalar product) dari pengamatan peubah ganda dalam baris dari X, yaitu x i T x j (Nielsen dan Canty 2008). Analisis Komponen Utama Kernel AKU adalah suatu metode yang biasa digunakan untuk mereduksi dimensi dari suatu matriks data. AKU menggunakan kombinasi linear antarpeubah untuk merepresentasikan suatu data, sehingga hanya dapat mengatasi hubungan linear antarpeubah. Namun, pada kenyataannya banyak data yang memiliki hubungan taklinear dan tak terpisah antarpeubah. Diperlukan suatu metode untuk menunjukkan bentuk taklinear dari AKU, yaitu dengan menggunakan AKU kernel. Dengan menggunakan fungsi kernel dapat menghitung komponen utama secara lebih efisien dalam dimensi lebih tinggi ruang fitur (ruang abstrak yang kadang tidak diketahui hasil pemetaannya). Transformasi dari taklinear di ruang input menjadi linear di ruang fitur, dijelaskan pada Gambar 1. 5 Gambar 1 Ide dasar AKU kernel (Sugiyama 2013) Dalam kondisi tertentu, fungsi-fungsi kernel dapat diartikan mewakili hasil kali dalam dari objek data dengan pemetaan taklinear secara implisit pada ruang fitur. Melalui transformasi ini (dari ruang input ke ruang fitur), diharapkan terdeteksi pola tertentu dalam data (Schölkopf dan Smola 2002).

6 Selanjutnya akan diformulasikan metode kernel. Lambangkan pemetaan dari ruang input ke ruang fitur dengan Φ: X H x Φ x ϵ H. Transformasi dari taklinear dan tak terpisah di ruang input menjadi linear terpisah di ruang fitur, dijelaskan pada Gambar 2. Gambar 2 Ide utama metode kernel: memetakan data asal ke dimensi lebih tinggi ruang fitur (Schölkopf dan Smola 2002) Sebuah kernel adalah sebuah fungsi k yang untuk semua x, z ε X memenuhi k x, z = Φ x, Φ z. Misalkan pemetaan fitur diberikan sebagai berikut Φ: x = x 1, x 2 Φ x = x 1 2, x 2 2, 2x 1 x 2 ε H = R 3 atau Φ x = a 1, a 2, a 3 = x 1 2, x 2 2, 2x 1 x 2. Pemetaan fitur mengambil data dari dua dimensi ruang input ke tiga dimensi ruang fitur dengan cara hubungan linear dalam ruang fitur bersesuaian dengan hubungan kuadrat dalam ruang input. Semua fungsi linear yang dapat diterapkan dalam H dapat dinyatakan sebagai f x = w 11 x 1 2 + w 22 x 2 2 + w 12 2x 1 x 2. Komposisi dari pemetaan fitur dengan hasil kali dalam pada ruang fitur dapat dievaluasi sebagai berikut Φ x, Φ(z) = x 1 2, x 2 2, 2x 1 x 2, z 1 2, z 2 2, 2z 1 z 2 = x 1 2 z 1 2 + x 2 2 z 2 2 + 2x 1 x 2 z 1 z 2 = x 1 z 1 + x 2 z 2 2 = x, z 2. Karenanya, fungsi k x, z = x, z 2 adalah sebuah fungsi kernel dengan H sebagai ruang fitur yang bersesuaian. Ini artinya dapat menghitung hasil kali dalam antara proyeksi dari dua titik ke dalam ruang fitur tanpa mengevaluasi koordinatnya secara eksplisit. Sebelum menggunakan fungsi kernel, haruslah ditentukan apa bentuk dari fungsi k x, z untuk memastikan bahwa itu adalah kernel untuk beberapa ruang fitur. Oleh karena itu, perlu diketahui beberapa hal yang berhubungan dengan fungsi kernel 1. Fungsi kernel harus simetrik k x, z = Φ x, Φ z = Φ z, Φ x = k z, x. 2. Memenuhi ketaksamaan Cauchy-Schwarz k x, z 2 = Φ x, Φ z 2

Φ x 2 Φ z 2 = Φ x, Φ x Φ z, Φ z = k x, x k z, z. Diberikan sebuah kernel dan suatu matriks data, yang dapat membentuk matriks Gram, yang mana berisi evaluasi dari fungsi kernel pada semua pasang titik data. Diberikan matriks data, X T = x 1, x 2,, x n, matriks Gram dilambangkan oleh G yang didefinisikan sebagai matriks berukuran n n yang berelemen g ij = k x i, x j. Sehingga digunakan fungsi kernel k untuk mengevaluasi hasil kali dalam pada ruang fitur dengan pemetaan fitur Φ, dihubungkan dengan matriks Gram G yang berelemen g ij = Φ x i, Φ x j = k x i, x j. Dalam kasus ini matriks G disebut juga sebagai matriks kernel K. Lambang standar untuk menggambarkan matriks kernel K adalah sebagai berikut k x 1, x 1 k x 1, x 2 k x 1, x n k x K = 2, x 1 k x 2, x 2 k x 2, x n. k x n, x 1 k x n, x 2 k x n, x n Misalkan matriks data, X T = x 1, x 2,, x n dengan x i = x i1, x i2,, x T ip, terdiri atas n objek dan p peubah. Pemetaan ditunjukkan dengan menggunakan fungsi Φ: R p H, dengan data asal berada dalam ruang R p dan fitur dalam H. Catat bahwa H dapat memunyai perubahan dimensi yang besar dan mungkin tak terbatas (Shen 2007). Transformasi fungsi Φ mungkin taklinear dan mungkin tidak dapat dijelaskan secara eksplisit. Pemetaan oleh fungsi Φ terhadap X sehingga Φ berisi n objek dan q peubah dengan q p menghasilkan matriks data sebagai berikut: φ x T 1 Φ = φ x T 2. φ x T n Asumsikan bahwa data dalam ruang fitur memunyai rata-rata nol, sehingga matriks kovarians memiliki bentuk C = Φ T Φ n 1 = 1 n 1 n i=1 φ x i φ x T i yang bersesuaian dengan formulasi primal sebagai berikut: Φ T Φu i = λ i u i dengan menggunakan kembali simbol λ i dan u i sebagai nilai eigen dan vektor eigen secara berturut-turut dalam ruang H. Untuk formulasi dual yang bersesuaian diperoleh ΦΦ T n 1 v i = λ i v i dengan menggunakan kembali simbol λ i dan v i sebagai nilai eigen dan vektor eigen secara berturut-turut. Seperti pada AKU nilai eigen taknol untuk formulasi primal dan dual adalah sama dan vektor eigen dihubungkan dengan 1 u i = Φ T v i n 1 λ i dan v i = Φu i n 1 λ i. Pada formulasi dual ΦΦ T diketahui bersesuaian dengan matriks Gram atau matriks kernel yang berisi elemen dari fungsi kernel. 7

8 Mengulang kembali masalah persamaan eigen pada formulasi dual, untuk nilai eigen taknol λ i dan vektor eigen yang bersesuaian v i. Dengan mengganti produk dalam φ x T i φ x j dalam ΦΦ T dengan sebuah fungsi kernel k x i, x j = k ij yang berasal dari beberapa pemetaan Φ, diperoleh Kv i = n 1 λ i v i dengan K = ΦΦ T adalah matriks berukuran n n. Permasalahan nilai eigen tersebut normalnya diformulasikan tanpa faktor n 1, Kv i = λ i v i memberikan semua solusi v i dari vektor eigen dan (n 1)λ i dari nilai eigen. Sehingga dalam kasus ini u i = Φ T v i λ i dan v i = Φ u i λ i. Untuk menemukan skor komponen utama kernel dari permasalahan nilai eigen, proyeksikan pemetaan x atas vektor eigen primal u i φ x T u i = φ x T Φ T v i λ i = φ x T φ x 1 φ x 2 φ x n v i λ i = φ x T φ x 1 φ x T φ x 2 φ x T φ x n v i λ i = k x, x 1 k x, x 2 k x, x n v i λ i. Pada kenyataannya tidak dapat diasumsikan bahwa data pada ruang fitur sudah terkoreksi terhadap nilai tengah. Oleh karena itu agar matriks Gram K terkoreksi terhadap nilai tengah gunakan K = I JJ T K I JJ T. Berikut merupakan tiga fungsi kernel yang biasa digunakan Gauss: k x i, x j = exp( x i x j 0 polinom: k x i, x j = x T i x j + d 0 sigmoid: k x i, x j = tanh k x i, x j + θ dengan 0 dan θ adalah parameter. Pada dasarnya ada fungsi kernel yang dapat diketahui jenis pemetaannya pada ruang fitur, misalnya fungsi kernel polinom dengan menggunakan k x, x = x T x + 2 0 dengan vektor 2 dimensi x = x 1 x 2 dan x = x 1 x 2. Diperoleh sebagai berikut k x, x = x T x + 2 0 = (x 1 x 1 + x 2 x 2 + 0 ) 2 = x 2 1 x 2 1 + x 2 2 x 2 2 + 2 0 + 2x 1 x 1 x 2 x 2 + 2x 1 x 1 0 + 2x 2 x 2 0 2 2 = 0 2 0 x 1 2 0 x 2 x 1 x 2 2x 1 x 2 0 2 0 x 1 2 0 x 2 x 2 2 1 x 2 2x 1 x T 2 = φ x T φ x. Terlihat bahwa fungsi kernel memetakan vektor 2 dimensi ke vektor 6 dimensi. Namun, untuk banyak fungsi kernel fungsi balikan ke φ x T φ x tidak mungkin diperoleh (Nielsen dan Canty 2008). Djakaria et al. (2010) menjelaskan bahwa fungsi kernel Gauss dengan parameter 0 = 0.001 2 menghasilkan pemisahan antarkelompok dengan sangat baik untuk data tanaman iris. Sugiyama (2013) menjelaskan bahwa fungsi kernel Gauss dengan parameter 0 = 3 menghasilkan pemisahan antarkelompok dengan cukup baik untuk data pengenalan anggur. 2 )

9 METODE PENELITIAN Data Data yang digunakan dalam penulisan karya ilmiah ini merupakan data sekunder sebagai data asal yang diperoleh melalui internet yaitu data tanaman iris (Fisher 1988) dan data pengenalan anggur (Forina 1991). Matriks data tanaman iris terdiri atas 150 objek dengan 3 kelompok yaitu Iris setosa, Iris virginica, dan Iris versicolor di mana setiap kelompok terdiri atas 50 objek dengan empat peubah yaitu panjang sepal, lebar sepal, panjang petal, dan lebar petal. Matriks data pengenalan anggur terdiri atas 178 objek dengan 3 kelompok di mana setiap kelompok terdiri atas 59, 71, dan 48 objek untuk kelompok 1, 2, dan 3 secara berturut-turut, dengan tiga belas peubah yaitu kadar alkohol, kadar asam malat, banyaknya abu, banyaknya alkali pada abu, kadar magnesium, kadar fenol, kadar flavonoid, kadar fenol yang bukan flavonoid, kadar proanthosianin, dan kadar prolina, intensitas warna dan warna berdasarkan tingkat kecerahannya, dan anggur yang diencerkan pada OD280/OD315 berdasarkan nilai serapannya. Prosedur Analisis Data Data asal merupakan data sekunder yang berasal dari data populasi tanaman iris dan data pengenalan anggur. Analisis data yang pertama dilakukan dalam karya ilmiah ini ialah mengamati plot pencar antarpeubah yang dihasilkan. Kemudian data asal distandarisasi. AKU kernel akan dianalisis menggunakan dua fungsi kernel yaitu linear dan Gauss. Matriks kernel dengan fungsi linear ialah bersesuaian dengan AKU dalam formulasi dual yaitu dalam bentuk XX T. Matriks 2 kernel fungsi Gauss= exp x i x j dengan parameter 0 = 0.001 2 untuk 0 data tanaman iris dan 0 = 1, 1.25,, 6 untuk data pengenalan anggur. Tiga langkah berikut adalah perlu untuk menunjukkan AKU kernel: 1. Menentukan fungsi kernel yang akan digunakan dalam hal ini linear dan Gauss, kemudian menghitung hasil kali dalam matriks kernel K = (k ij ) dengan k ij = k x i, x j = φ x i, φ x j. Matriks kernel juga harus dikoreksi terhadap nilai tengah setiap fungsi dengan K = I JJ T K I JJ T. 2. Menyelesaikan permasalahan nilai eigen dan vektor eigen dari matriks K dengan persamaan K v i = λ i v i. Kemudian dipilih 2 nilai eigen terbesar dan vektor eigen yang bersesuaian. Dua nilai eigen ini adalah varians maksimum dari komponen utama 1 dan komponen utama 2 secara berturut-turut. 3. Untuk menemukan skor komponen utama kernel dari permasalahan nilai eigen, proyeksikan pemetaan x atas vektor eigen primal u i. φ x T u i = φ x T Φ T v i λ i = k x, x 1 k x, x 2 k x, x n v i λ i. Selanjutnya visualisasikan plot pencar 2 komponen utama pertama dari masingmasing fungsi dan parameter.

10 Pengklasifikasian kelompok dengan AKU kernel dilakukan menggunakan kuadrat jarak Euclid untuk ruang dimensi dua dengan menghitung jarak terdekat antara objek dengan rataan dari setiap kelompok sebagai berikut d x 0, x i = x 0 x i T x 0 x i dengan x 0 adalah objek pada skor komponen utama dan x i adalah rata-rata skor komponen utama dari data asal pada setiap kelompok. Evaluasi hasil dapat diperoleh dengan menghitung jumlah salah klasifikasi dari semua kelompok seperti yang diberikan pada Tabel 1. Kelompok asal Tabel 1 Klasifikasi kelompok Kelompok prediksi π 1 π 2 π 3 Total π 1 n 11 n 12 n 13 n 1. π 2 n 21 n 22 n 23 n 2. π 3 n 31 n 32 n 33 n 3. n.1 n.2 n.3 n = n.. Salah klasifikasi (SK) didefinisikan sebagai SK = n - 3 k=1 n n kk 100% dengan n kj = banyaknya anggota kelompok k yang diklasifikasikan menjadi anggota kelompok j. HASIL DAN PEMBAHASAN Analisis dilakukan terhadap data populasi tanaman iris dan data pengenalan anggur. Kedua data digunakan untuk memverifikasi hasil yang diperoleh menggunakan AKU kernel. Selanjutnya data yang memberikan hasil yang sama dengan karya ilmiah ini dipilih untuk dianalisis salah klasifikasinya dalam hal ini data pengenalan anggur. Gambar 3 memvisualisasikan plot pencar dari beberapa pasang peubah untuk data pengenalan anggur, diambil beberapa pasang peubah karena dimensi data yang cukup besar. Pada gambar terlihat bahwa plot pencar hanya terdiri atas satu kelompok yang berisi baik kelompok 1, 2, dan 3 yang tidak dapat dipisahkan dengan beberapa data menjadi pencilan. Hal ini tidak cukup baik bila digunakan dalam menganalisis struktur pada data dan akan menyulitkan dalam pengklasifikasian data objek ke dalam kelompok tersebut, karena akan menyebabkan salah klasifikasi yang cukup besar. Oleh karena itu, AKU kernel akan digunakan untuk menyelesaikan permasalahan ini.

11 Gambar 3 Plot pencar dari beberapa pasang peubah data pengenalan anggur Terlihat dari gambar bahwa hubungan antarpeubah adalah tak terpisah untuk setiap kelompok. Deskripsi data yang digunakan dapat diamati dalam Tabel 2. Pemilihan parameter pada fungsi kernel didasarkan pada plot pencar dari setiap pasang peubah, dengan mencoba-coba beberapa nilai yang berbeda dan dipilih parameter dengan hasil yang lebih baik. Karena pada dasarnya belum ada ketentuan nilai parameter untuk setiap fungsi kernel. Tabel 2 menggambarkan nilai-nilai yang ada dari setiap peubah. Rata-rata dan simpangan baku (SB) dari setiap peubah akan digunakan untuk standarisasi data. Karya ilmiah ini akan menggunakan dua fungsi kernel yaitu linear (sesuai dengan AKU) dan Gauss. Deskripsi kedua fungsi kernel diberikan pada Tabel 3.

12 No. Tabel 2 Deskripsi data pengenalan anggur Peubah Rata-rata Maksimum Minimum SB 1 Alkohol (Al) 13.0036 14.83 11.03 0.809732 2 Asam malat (AM) 3.409831 192 0.74 14.25921 3 Abu (Ab) 2.36618 3.23 1.36 0.274265 4 Alkali pada abu (AA) 19.43876 30 10 3.414296 5 Magnesium (Mg) 99.71348 162 70 14.27937 6 Total fenol (TF) 2.28864 3.88 0.128 0.642152 7 Flavonoid (Fl) 2.023927 5.08 0.099 1.006646 8 Fenol yang bukan flavonoid (FF) 0.372556 2.58 0.13 0.206944 9 Proanthosianin (Pa) 1.590899 3.58 0.41 0.572359 10 Intensitas warna (IW) 5.05809 13 1.28 2.318286 11 Warna (Wa) 0.957506 1.71 0.48 0.228484 12 Anggur yang diencerkan pada OD280/OD315 (OD) 2.611629 4 1.27 0.710065 13 Prolina(Pr) 746.8933 1680 278 314.9075 * SB = simpangan baku Tabel 3 Fungsi kernel yang diaplikasikan No. Jenis fungsi Fungsi Par. 0 1 Linear k x i, x j = x i T x j - 2 Gauss k x i, x j = exp( x i x j 2 0 2 ) 1, 1.25,, 6 Analisis data dilakukan pada data yang telah distandarisasi, atau bersesuaian dengan matriks korelasi. Hal ini dikarenakan varians setiap peubah memiliki nilai yang perbedaannya cukup besar, sehingga tanpa distandarisasi analisis hanya akan terfokus pada peubah dengan varians terbesar. Tabel 4 dan Tabel 5 masing-masig menjelaskan matriks kovarians dan matriks korelasi. Tabel 4 Matriks kovarians No Peubah Al AM Ab AA Mg TF Fl FF Pa IW Wa OD Pr 1 Al 0.656 1.481 0.047-0.852 3.180 0.141 0.198-0.029 0.062 1.022-0.012 0.041 163.394 2 AM 1.481 203.325 0.432 1.654 21.006 0.303 0.744-0.008 0.264 1.871-0.022-0.246 508.050 3 Ab 0.047 0.432 0.075 0.406 1.104 0.023 0.029 0.011 0.001 0.164-0.005 0.001 19.193 4 AA -0.852 1.654 0.406 11.657-5.209-0.655-1.107 0.243-0.370-0.095-0.189-0.600-468.616 5 Mg 3.180 21.006 1.104-5.209 203.900 2.003 2.628-0.540 1.941 6.675 0.176 0.665 1775.845 6 TF 0.141 0.303 0.023-0.655 2.003 0.412 0.554-0.037 0.222-0.090 0.063 0.317 99.648 7 Fl 0.198 0.744 0.029-1.107 2.628 0.554 1.013-0.063 0.374-0.385 0.124 0.560 156.148 8 FF -0.029-0.008 0.011 0.243-0.540-0.037-0.063 0.043-0.024 0.014-0.007-0.046-15.218 9 Pa 0.062 0.264 0.001-0.370 1.941 0.222 0.374-0.024 0.328-0.034 0.039 0.211 59.554 10 IW 1.022 1.871 0.164-0.095 6.675-0.090-0.385 0.014-0.034 5.374-0.276-0.706 230.768 11 Wa -0.012-0.022-0.005-0.189 0.176 0.063 0.124-0.007 0.039-0.276 0.052 0.092 16.999 12 OD 0.041-0.246 0.001-0.600 0.665 0.317 0.560-0.046 0.211-0.706 0.092 0.504 69.923 13 Pr 163.394 508.050 19.193-468.616 1775.845 99.648 156.148-15.218 59.554 230.767 16.999 69.923 99166.720

Tabel 5 Matriks korelasi No Peubah Al AM Ab AA Mg TF Fl FF Pa IW Wa OD Pr 1 Al 1.000 0.128 0.214-0.308 0.275 0.271 0.243-0.174 0.133 0.544-0.064 0.071 0.641 2 AM 0.128 1.000 0.110 0.034 0.103 0.033 0.052-0.003 0.032 0.057-0.007-0.024 0.113 3 Ab 0.214 0.110 1.000 0.433 0.282 0.128 0.106 0.196 0.008 0.258-0.075 0.003 0.222 4 AA -0.308 0.034 0.433 1.000-0.107-0.299-0.322 0.344-0.189-0.012-0.242-0.248-0.436 5 Mg 0.275 0.103 0.282-0.107 1.000 0.218 0.183-0.183 0.237 0.202 0.054 0.066 0.395 6 TF 0.271 0.033 0.128-0.299 0.218 1.000 0.858-0.281 0.605-0.061 0.430 0.695 0.493 7 Fl 0.243 0.052 0.106-0.322 0.183 0.858 1.000-0.300 0.648-0.165 0.539 0.784 0.493 8 FF -0.174-0.003 0.196 0.344-0.183-0.281-0.300 1.000-0.199 0.029-0.150-0.312-0.234 9 Pa 0.133 0.032 0.008-0.189 0.237 0.605 0.648-0.199 1.000-0.025 0.296 0.519 0.330 10 IW 0.544 0.057 0.258-0.012 0.202-0.061-0.165 0.029-0.025 1.000-0.522-0.429 0.316 11 Wa -0.064-0.007-0.075-0.242 0.054 0.430 0.539-0.150 0.296-0.522 1.000 0.565 0.236 12 OD 0.071-0.024 0.003-0.248 0.066 0.695 0.784-0.312 0.519-0.429 0.565 1.000 0.313 13 Pr 0.641 0.113 0.222-0.436 0.395 0.493 0.493-0.234 0.330 0.316 0.236 0.313 1.000 Analisis data menggunakan AKU kernel cukup baik memisahkan antarkelompok dengan menggunakan dua komponen utama pertama. Walaupun masih ada sebagian kecil objek antarkelompok yang bercampur. Dari kedua fungsi yang digunakan terlihat bahwa plot pencar dari dua komponen utama kernel pertama cukup mampu mengambarkan pola yang terpisah pada data. Gambar selanjutnya akan memvisualisasikan plot pencar dari dua komponen utama untuk setiap fungsi kernel. 13 Gambar 4 AKU atau fungsi linear Gambar 5 Fungsi Gauss dengan parameter 0 = 1 Gambar 6 Fungsi Gauss dengan Gambar 7 Fungsi Gauss dengan parameter 0 = 1.25 parameter 0 = 1.5

14 Gambar 8 Fungsi Gauss dengan Gambar 9 Fungsi Gauss dengan parameter 0 = 1.75 parameter 0 = 2 Gambar 10 Fungsi Gauss dengan Gambar 11 Fungsi Gauss dengan parameter 0 = 2.25 parameter 0 = 2.5 Gambar 12 Fungsi Gauss dengan Gambar 13 Fungsi Gauss dengan parameter 0 = 2.75 parameter 0 = 3 Gambar 14 Fungsi Gauss dengan Gambar 15 Fungsi Gauss dengan parameter 0 = 3.25 parameter 0 = 3.5

15 Gambar 16 Fungsi Gauss dengan Gambar 17 Fungsi Gauss dengan parameter 0 = 3.75 parameter 0 = 4 Gambar 18 Fungsi Gauss dengan Gambar 19 Fungsi Gauss dengan parameter 0 = 4.25 parameter 0 = 4.5 Gambar 20 Fungsi Gauss dengan Gambar 21 Fungsi Gauss dengan parameter 0 = 4.75 parameter 0 = 5 Gambar 22 Fungsi Gauss dengan Gambar 23 Fungsi Gauss dengan parameter 0 = 5.25 parameter 0 = 5.5

16 Gambar 24 Fungsi Gauss dengan Gambar 25 Fungsi Gauss dengan parameter 0 = 5.75 parameter 0 = 6 Dengan menggunakan dua komponen utama pertama, fungsi kernel linear dan Gauss memberikan hasil pemisahan antarkelompok yang lebih baik jika dibandingkan dengan plot pencar antarpeubah. Dalam karya ilmiah ini dilakukan perbandingan pada dua buah data yaitu data tanaman iris dan data pengenalan anggur. Keduanya memiliki perbandingan dengan artikel dalam jurnal yang sudah ada, hasilnya dijelaskan dalam Gambar 26 dan 27. Pada data pengenalan anggur yang dijelaskan dalam Lampiran 1 untuk fungsi Gauss dengan parameter 0 = 3 diperoleh hasil yang cukup baik dan relatif sama dengan yang diperoleh pada artikel dalam jurnal. Nilai dan vektor eigen untuk 0 = 3 dijelaskan dalam Lampiran 2. (a) (b) Gambar 26 Perbandingan hasil data pengenalan anggur (a) karya ilmiah (b) Sugiyama (2013) Pemisahan data tanaman iris menggunakan AKU kernel sebelumnya telah dikerjakan dan menghasilkan plot yang berbeda dengan yang dijelaskan oleh Djakaria et al. (2010). Karena jurnal tersebut hanya menggunakan fungsi kernel Gauss dengan tidak menjelaskan setiap parameter yang digunakan, sehingga perbedaan ini sulit diketahui di mana letaknya. Walaupun ada satu parameter yang dijelaskan yaitu untuk parameter 0 = 0.001 2 namun hasilnya tetap sangat berbeda.

17 (a) (b) Gambar 27 Perbandingan hasil data tanaman iris (a) karya ilmiah (b) Djakaria et al. (2010) Karena tidak mungkin kedua hasil benar, maka kemungkinan salah satu ada yang salah atau kedua-duanya salah. Oleh karena itu diperlukan penelusuran selanjutnya yang dapat memberikan hasil yang baik dan benar untuk dalam penggunaan AKU kernel. Setelah diperoleh hasil pemisahan yang cukup baik antarkelompok, selanjutnya akan dibahas tentang pengklasifikasian kelompok menggunakan AKU kernel. Pengklasifikasian ini akan membandingkan dua fungsi kernel yaitu fungsi linear (bersesuaian dengan AKU) dan Gauss. Analisis data yang dilakukan pada prosedur analisis data ialah untuk data yang distandarisasi. Pada Tabel 7, 8, 9, dan 10 dijelaskan hasil yang diperoleh menggunakan fungsi kernel linear dan Gauss. Pada Tabel 6 dijelaskan jumlah kesalahan untuk setiap parameter dari fungsi Gauss, serta grafiknya. Tabel 6 Hasil salah klasifikasi (SK) fungsi Gauss h 0 1 1.25 1.5 1.75 2 2.25 2.5 2.75 3 3.25 3.5 SK 58 65 59 37 53 56 31 61 38 38 41 %SK 32.58% 36.51% 33.15% 20.78% 29.77% 31.46% 17.42% 34.27% 21.35% 21.58% 23.03 h 0 3.75 4 4.25 4.5 4.75 5 5.25 5.5 5.75 6 SK 66 45 45 47 71 73 52 50 51 70 %SK 37.08% 25.3% 25.3% 26.4% 39.88% 41.01% 29.2% 28.09% 28.65% 39.33% Semula diperkirakan ada tren kuadrat dari salah klasifikasi yang dapat digunakan untuk menduga hasil klasifikasi terkecil dengan menggunakan regresi kuadratik untuk nilai parameter 0 yang digunakan. Namun, hasil yang diperoleh terlihat pada Gambar 28 yaitu terjadi perubahan banyaknya salah klasifikasi yang tidak teratur. Selanjutnya akan digunakan AKU kernel untuk menyelesaikan klasifikasi kelompok. Pada dasarnya studi dilakukan pada fungsi Gauss untuk parameter 0 = 1, 1.25,, 6. Namun, untuk memberikan gambaran hasilnya, dipilih tiga parameter dengan nilai kesalahan yang berbeda-beda yaitu untuk 0 = 1, 2.5, 6.

18 Gambar 28 Grafik kesalahan klasifikasi Fungsi linear memiliki salah klasifikasi sebesar 30.89%. Terlihat bahwa salah klasifikasi kelompok menggunakan fungsi ini banyak terdapat pada kelompok 3. Hal ini terjadi karena antarkelompok ini memang sulit dipisahkan secara keseluruhan dan juga karena jarak yang berdekatan antarkelompok. Tabel 7 Hasil pengklasifikasian kelompok data dengan fungsi linear Kelompok Kelompok prediksi asal 1 2 3 Total SK 1 54 0 5 59 5 2 4 47 20 71 24 3 3 23 22 48 26 Fungsi Gauss dengan parameter 0 = 1 memiliki salah klasifikasi sebesar 32.584%. Terlihat bahwa salah klasifikasi kelompok menggunakan fungsi ini banyak terdapat pada kelompok 3. Hal ini juga terjadi karena antarkelompok ini memang sulit dipisahkan secara keseluruhan dan juga karena jarak yang berdekatan antarkelompok. Hasil ini relatif mirip dengan fungsi kernel linear. Tabel 8 Hasil pengklasifikasian kelompok data dengan fungsi Gauss 0 = 1 Kelompok Kelompok prediksi asal 1 2 3 Total SK 1 43 16 0 59 16 2 0 58 13 71 13 3 0 29 19 48 29 Fungsi Gauss dengan parameter 0 = 2.5 memiliki salah klasifikasi sebesar 17.416%. Terlihat bahwa salah klasifikasi kelompok menggunakan fungsi ini banyak terdapat pada kelompok 2. Hal ini berbeda dengan yang hasil diperoleh sebelumnya. Tabel 9 Hasil pengklasifikasian kelompok data dengan fungsi Gauss 0 = 2.5 Kelompok Kelompok prediksi asal 1 2 3 Total SK 1 54 0 5 59 5 2 0 47 24 71 24 3 0 2 46 48 2 Fungsi Gauss dengan parameter 0 = 6 memiliki salah klasifikasi sebesar 39.326%, hasil ini cukup besar bila dibandingkan dengan yang lainnya. Terlihat

bahwa salah klasifikasi kelompok menggunakan fungsi ini banyak terdapat pada kelompok 2. Hasil salah klasifikasi yang dipeoleh cukup besar dan kurang baik digunakan untuk klasifikasi kelompok. Tabel 10 Hasil pengklasifikasian kelompok data dengan fungsi Gauss 0 = 6 Kelompok Kelompok prediksi asal 1 2 3 Total SK 1 32 27 0 59 27 2 41 28 2 71 41 3 0 0 48 48 0 Pengklasifikasian menggunakan fungsi Gauss dengan menggunakan parameter 0 = 1, 2.5, 6 memiliki hasil salah klasifikasi sebesar 32.584%, 17.416% dan 39.326% secara berturut-turut. Terlihat bahwa salah klasifikasi kelompok menggunakan fungsi ini banyak terdapat pada setiap kelompok bergantung pada parameter. Hal ini terjadi karena dalam pemilihan parameter untuk fungsi kernel belum ada ketentuannya, hanya disesuaikan berdasarkan hasil atau tipe plot yang lebih baik. 19 SIMPULAN DAN SARAN Simpulan Visualisasi data menggunakan AKU kernel akan menghasilkan berbagai bentuk plot pencar untuk dua komponen utama pertama bergantung pemilihan fungsi kernelnya. Dalam pemilihan fungsi kernel yang tepat akan memberikan pola linear terpisah pada data sehingga akan mempermudah saat menganalisis. Hasil untuk data pengenalan anggur menunjukkan bahwa fungsi kernel linear dan Gauss (parameter 2.5) masing-masing menghasilkan salah klasifikasi sebesar 30.889% dan 17.416%. Saran AKU kernel sebagai salah satu teknik penyelesaian dari AKU taklinear masih belum dapat memisahkan data kelompok yang digunakan dalam karya ilmiah secara efisien. Karena karya ilmiah ini memiliki perbandingan dengan artikel dalam jurnal, dengan metode analisis yang sama, namun hasilnya sangat berbeda untuk data tanaman iris, disarankan untuk mencoba teknik yang sama untuk menyelesaikan masalah tersebut. Dengan demikian diharapkan dengan pemisahan yang lebih baik akan menghasilkan tingkat kesalahan yang lebih kecil lagi dalam pengklasifikasian kelompok.

20 DAFTAR PUSTAKA Fisher RA. 1988. Iris Plants Database. [Internet]. [diunduh 2014 Jan 20]. Tersedia pada: http://archive.ics.uci.edu/ml/machine-learning-databases/iris/ iris.data. Forina M. 1991. Wine Recognition Data. [Internet]. [diunduh 2014 Jan 20]. Tersedia pada: http://archive.ics.uci.edu/ml/machine-learning-databases/wine/ wine.data. Djakaria I, Guritno S, Kartiko SH. 2010. Visualisasi Data Iris Menggunakan Analisis Komponen Utama dan Analisis Komponen Utama Kernel. Jurnal Ilmu Dasar. 11(1):31-38. Johnson RA, Wichern DW. 2007. Applied Multivariate Statistical Analysis. 6 th ed. New Jersey (US): Pearson Education. Jolliffe IT. 2002. Principal Component Analysis. 2 nd ed. New York (US): Springer-Verlag. Nielsen AA, Canty MJ. 2008. Kernel Principal Component Analysis for Change Detection. Image and Signal for Remote Sensing XIV. 7109. Doi:10.1117 /12.800141. Shen Y. 2007. Outlier Detection Using the Smallest Kernel Principal Component. Philadelphia (US): Temple University. Schölkopf B, Smola AJ. 2002. Learning with Kernels. London (UK): The MIT Press. Sugiyama M. 2013. Advanced Data Analysis: Kernel PCA. [Internet]. [diunduh 2014 Jan 20]. Tersedia pada: www.ocw.titech.ac.jp/index.php.

21 Lampiran 1 Data pengenalan anggur No. Kelompok Al AM Ab AA Mg TF Fl FF Pa WI Wa OD Pr 1 1 14.23 1.71 2.43 15.6 127 2.8 3.06 0.28 2.29 5.64 1.04 3.92 1065 2 1 13.2 1.78 2.14 11.2 100 2.65 2.76 0.26 1.28 4.38 1.05 3.4 1050 3 1 13.16 2.36 2.67 18.6 101 2.8 3.24 0.3 2.81 5.68 1.03 3.17 1185 4 1 14.37 1.95 2.5 16.8 113 3.85 3.49 0.24 2.18 7.8 0.86 3.45 1480 5 1 13.24 2.59 2.87 21 118 2.8 2.69 0.39 1.82 4.32 1.04 2.93 735 6 1 14.2 1.76 2.45 15.2 112 3.27 3.39 0.34 1.97 6.75 1.05 2.85 1450 7 1 14.39 1.87 2.45 14.6 96 2.5 2.52 0.3 1.98 5.25 1.02 3.58 1290 8 1 14.06 3.15 2.61 17.6 121 2.6 2.51 0.31 1.25 5.05 1.06 3.58 1295 9 1 14.83 1.64 2.17 14 97 2.8 2.98 0.29 1.98 5.2 1.08 2.85 1045 10 1 13.86 1.35 2.27 16 98 2.98 3.15 0.22 1.85 7.22 1.01 3.55 1045 11 1 14.1 2.16 2.3 18 105 2.95 3.32 0.22 2.38 5.75 1.25 3.17 1510 12 1 14.12 1.48 2.32 16.8 95 2.2 2.43 0.26 1.57 5 1.17 2.82 1280 13 1 13.75 1.73 2.41 16 89 2.6 2.76 0.29 1.81 5.6 1.15 2.9 1320 14 1 14.75 1.73 2.39 11.4 91 3.1 3.69 0.43 2.81 5.4 1.25 2.73 1150 15 1 14.38 1.87 2.38 12 102 3.3 3.64 0.29 2.96 7.5 1.2 3 1547 16 1 13.63 1.81 2.7 17.2 112 2.85 2.91 0.3 1.46 7.3 1.28 2.88 1310 17 1 14.3 192 2.72 20 120 2.8 3.14 0.33 1.97 6.2 1.07 2.65 1280 18 1 13.83 1.57 2.62 20 115 2.95 3.4 0.4 1.72 6.6 1.13 2.57 1130 19 1 14.19 1.59 2.48 16.5 108 3.3 3.93 0.32 1.86 8.7 1.23 2.82 1680 20 1 13.64 3.1 2.56 15.2 116 2.7 3.03 0.17 1.66 5.1 0.96 3.36 845 21 1 14.06 1.63 2.28 16 126 3 3.17 0.24 2.1 5.65 1.09 3.71 780 22 1 12.93 3.8 2.65 18.6 102 2.41 2.41 0.25 1.98 4.5 1.03 3.52 770 23 1 13.71 1.86 2.36 16.6 101 2.61 2.88 0.27 1.69 3.8 1.11 4 1035 24 1 12.85 1.6 2.52 17.8 95 2.48 2.37 0.26 1.46 3.93 1.09 3.63 1015 25 1 13.5 1.81 2.61 20 96 2.53 2.61 0.28 1.66 3.52 1.12 3.82 845 26 1 13.05 2.05 3.22 25 124 2.63 2.68 0.47 1.92 3.58 1.13 3.2 830 27 1 13.39 1.77 2.62 16.1 93 2.85 2.94 0.34 1.45 4.8 0.92 3.22 1195 28 1 13.3 1.72 2.14 17 94 2.4 2.19 0.27 1.35 3.95 1.02 2.77 1285 29 1 13.87 1.9 2.8 19.4 107 2.95 2.97 0.37 1.76 4.5 1.25 3.4 915 30 1 14.02 1.68 2.21 16 96 2.65 2.33 0.26 1.98 4.7 1.04 3.59 1035 31 1 13.73 1.5 2.7 22.5 101 3 3.25 0.29 2.38 5.7 1.19 2.71 1285 32 1 13.58 1.66 2.36 19.1 106 2.86 3.19 0.22 1.95 6.9 1.09 2.88 1515 33 1 13.68 1.83 2.36 17.2 104 2.42 2.69 0.42 1.97 3.84 1.23 2.87 990 34 1 13.76 1.53 2.7 19.5 132 2.95 2.74 0.5 1.35 5.4 1.25 3 1235 35 1 13.51 1.8 2.65 19 110 2.35 2.53 0.29 1.54 4.2 1.1 2.87 1095 36 1 13.48 1.81 2.41 20.5 100 2.7 2.98 0.26 1.86 5.1 1.04 3.47 920 37 1 13.28 1.64 2.84 15.5 110 2.6 2.68 0.34 1.36 4.6 1.09 2.78 880 38 1 13.05 1.65 2.55 18 98 2.45 2.43 0.29 1.44 4.25 1.12 2.51 1105 39 1 13.07 1.5 2.1 15.5 98 2.4 2.64 0.28 1.37 3.7 1.18 2.69 1020 40 1 14.22 3.99 2.51 13.2 128 3 3.04 0.2 2.08 5.1 0.89 3.53 760

22 41 1 13.56 1.71 2.31 16.2 117 3.15 3.29 0.34 2.34 6.13 0.95 3.38 795 42 1 13.41 3.84 2.12 18.8 90 2.45 2.68 0.27 1.48 4.28 0.91 3 1035 43 1 13.88 1.89 2.59 15 101 3.25 3.56 0.17 1.7 5.43 0.88 3.56 1095 44 1 13.24 3.98 2.29 17.5 103 2.64 2.63 0.32 1.66 4.36 0.82 3 680 45 1 13.05 1.77 2.1 17 107 3 3 0.28 2.03 5.04 0.88 3.35 885 46 1 14.21 4.04 2.44 18.9 111 2.85 2.65 0.3 1.25 5.24 0.87 3.33 1080 47 1 14.38 3.59 2.28 16 102 3.25 3.17 0.27 2.19 4.9 1.04 3.44 1065 48 1 13.9 1.68 2.12 16 101 3.1 3.39 0.21 2.14 6.1 0.91 3.33 985 49 1 14.1 2.02 2.4 18.8 103 2.75 2.95 0.32 2.38 6.2 1.07 2.75 1060 50 1 13.94 1.73 2.27 17.4 108 2.88 3.54 0.32 2.08 8.9 1.12 3.1 1260 51 1 13.05 1.73 2.04 12.4 92 2.72 3.27 0.17 2.91 7.2 1.12 2.91 1150 52 1 13.83 1.65 2.6 17.2 94 2.45 2.99 0.22 2.29 5.6 1.24 3.37 1265 53 1 13.82 1.75 2.42 14 111 3.88 3.74 0.32 1.87 7.05 1.01 3.26 1190 54 1 13.77 1.9 2.68 17.1 115 3 2.79 0.39 1.68 6.3 1.13 2.93 1375 55 1 13.74 1.67 2.25 16.4 118 2.6 2.9 0.21 1.62 5.85 0.92 3.2 1060 56 1 13.56 1.73 2.4 20.5 116 2.96 2.78 0.2 2.45 6.25 0.98 3.03 1120 57 1 14.22 1.7 2.3 16.3 118 3.2 3 0.26 2.03 6.38 0.94 3.31 970 58 1 13.29 1.97 2.68 16.8 102 3 3.23 0.31 1.66 6 1.07 2.84 1270 59 1 13.72 1.43 2.5 16.7 108 3.4 3.67 0.19 2.04 6.8 0.89 2.87 1285 60 2 12.37 0.94 1.36 10.6 88 1.98 0.57 0.28 0.42 1.95 1.05 1.82 520 61 2 12.33 1.1 2.28 16 101 2.05 1.09 0.63 0.41 3.27 1.25 1.67 680 62 2 12.64 1.36 2.02 16.8 100 2.02 1.41 0.53 0.62 5.75 0.98 1.59 450 63 2 13.67 1.25 1.92 18 94 2.1 1.79 0.32 0.73 3.8 1.23 2.46 630 64 2 12.37 1.13 2.16 19 87 3.5 3.1 0.19 1.87 4.45 1.22 2.87 420 65 2 12.7 1.45 2.53 19 104 1.89 1.75 0.45 1.03 2.95 1.45 2.23 355 66 2 12.37 1.21 2.56 18.1 98 2.42 2.65 0.37 2.08 4.6 1.19 2.3 678 67 2 13.11 1.01 1.7 15 78 2.98 3.18 0.26 2.28 5.3 1.12 3.18 502 68 2 12.37 1.17 1.92 19.6 78 2.11 2 0.27 1.04 4.68 1.12 3.48 510 69 2 13.34 0.94 2.36 17 110 2.53 1.3 0.55 0.42 3.17 1.02 1.93 750 70 2 12.21 1.19 1.75 16.8 151 1.85 1.28 0.14 2.5 2.85 1.28 3.07 718 71 2 12.29 1.61 2.21 20.4 103 1.1 1.02 0.375 1.46 3.05 0.906 1.82 870 72 2 13.86 1.51 2.67 25 86 2.95 2.86 0.21 1.87 3.38 1.36 3.16 410 73 2 13.49 1.66 2.24 24 87 1.88 1.84 0.27 1.03 3.74 0.98 2.78 472 74 2 12.99 1.67 2.6 30 139 3.3 2.89 0.21 1.96 3.35 1.31 3.5 985 75 2 11.96 1.09 2.3 21 101 3.38 2.14 0.13 1.65 3.21 0.99 3.13 886 76 2 11.66 1.88 1.92 16 97 1.61 1.57 0.34 1.15 3.8 1.23 2.14 428 77 2 13.03 0.9 1.71 16 86 1.95 2.03 0.24 1.46 4.6 1.19 2.48 392 78 2 11.84 2.89 2.23 18 112 1.72 1.32 0.43 0.95 2.65 0.96 2.52 500 79 2 12.33 0.99 1.95 14.8 136 1.9 1.85 0.35 2.76 3.4 1.06 2.31 750 80 2 12.7 3.87 2.4 23 101 2.83 2.55 0.43 1.95 2.57 1.19 3.13 463 81 2 12 0.92 2 19 86 2.42 2.26 0.3 1.43 2.5 1.38 3.12 278 82 2 12.72 1.81 2.2 18.8 86 2.2 2.53 0.26 1.77 3.9 1.16 3.14 714 83 2 12.08 1.13 2.51 24 78 2 1.58 0.4 1.4 2.2 1.31 2.72 630

23 84 2 13.05 3.86 2.32 22.5 85 1.65 1.59 0.61 1.62 4.8 0.84 2.01 515 85 2 11.84 0.89 2.58 18 94 2.2 2.21 0.22 2.35 3.05 0.79 3.08 520 86 2 12.67 0.98 2.24 18 99 2.2 1.94 0.3 1.46 2.62 1.23 3.16 450 87 2 12.16 1.61 2.31 22.8 90 1.78 1.69 0.43 1.56 2.45 1.33 2.26 495 88 2 11.65 1.67 2.62 26 88 1.92 1.61 0.4 1.34 2.6 1.36 3.21 562 89 2 11.64 2.06 2.46 21.6 84 1.95 1.6 0.48 1.35 2.8 1 2.75 680 90 2 12.08 1.33 2.3 23.6 70 2.2 1.59 0.42 1.38 1.74 1.07 3.21 625 91 2 12.08 1.83 2.32 18.5 81 1.6 1.5 0.52 1.64 2.4 1.08 2.27 480 92 2 12 1.51 2.42 22 86 1.45 1.25 0.5 1.63 3.6 1.05 2.65 450 93 2 12.69 1.53 2.26 20.7 80 1.38 1.46 0.58 1.62 3.05 0.96 2.06 495 94 2 12.29 2.83 2.22 18 88 2.45 2.25 0.25 1.99 2.15 1.15 3.3 290 95 2 11.62 1.99 2.28 18 98 3.02 2.26 0.17 1.35 3.25 1.16 2.96 345 96 2 12.47 1.52 2.2 19 162 2.5 2.27 0.32 3.28 2.6 1.16 2.63 937 97 2 11.81 2.12 2.74 21.5 134 1.6 0.099 0.14 1.56 2.5 0.95 2.26 625 98 2 12.29 1.41 1.98 16 85 2.55 2.5 0.29 1.77 2.9 1.23 2.74 428 99 2 12.37 1.07 2.1 18.5 88 3.52 3.75 0.24 1.95 4.5 1.04 2.77 660 100 2 12.29 3.17 2.21 18 88 2.85 2.99 0.45 2.81 2.3 1.42 2.83 406 101 2 12.08 2.08 1.7 17.5 97 2.23 2.17 0.26 1.4 3.3 1.27 2.96 710 102 2 12.6 1.34 1.9 18.5 88 1.45 1.36 0.29 1.35 2.45 1.04 2.77 562 103 2 12.34 2.45 2.46 21 98 2.56 2.11 0.34 1.31 2.8 0.8 3.38 438 104 2 11.82 1.72 1.88 19.5 86 2.5 1.64 0.37 1.42 2.06 0.94 2.44 415 105 2 12.51 1.73 1.98 20.5 85 2.2 1.92 0.32 1.48 2.94 1.04 3.57 672 106 2 12.42 2.55 2.27 22 90 1.68 1.84 0.66 1.42 2.7 0.86 3.3 315 107 2 12.25 1.73 2.12 19 80 1.65 2.03 0.37 1.63 3.4 1 3.17 510 108 2 12.72 1.75 2.28 22.5 84 1.38 1.76 0.48 1.63 3.3 0.88 2.42 488 109 2 12.22 1.29 1.94 19 92 2.36 2.04 0.39 2.08 2.7 0.86 3.02 312 110 2 11.61 1.35 2.7 20 94 2.74 2.92 0.29 2.49 2.65 0.96 3.26 680 111 2 11.46 3.74 1.82 19.5 107 3.18 2.58 0.24 3.58 2.9 0.75 2.81 562 112 2 12.52 2.43 2.17 21 88 2.55 2.27 0.26 1.22 2 0.9 2.78 325 113 2 11.76 2.68 2.92 20 100 1.75 2.03 0.6 1.05 3.8 1.23 2.5 607 114 2 11.41 0.74 2.5 21 88 2.48 2.01 0.42 1.44 3.08 1.1 2.31 434 115 2 12.08 1.39 2.5 22.5 84 2.56 2.29 0.43 1.04 2.9 0.93 3.19 385 116 2 11.03 1.51 2.2 21.5 85 2.46 2.17 0.52 2.01 1.9 1.71 2.87 407 117 2 11.82 1.47 1.99 20.8 86 1.98 1.6 0.3 1.53 1.95 0.95 3.33 495 118 2 12.42 1.61 2.19 22.5 108 2 2.09 0.34 1.61 2.06 1.06 2.96 345 119 2 12.77 3.43 1.98 16 80 1.63 1.25 0.43 0.83 3.4 0.7 2.12 372 120 2 12 3.43 2 19 87 2 1.64 0.37 1.87 1.28 0.93 3.05 564 121 2 11.45 2.4 2.42 20 96 2.9 2.79 0.32 1.83 3.25 0.8 3.39 625 122 2 11.56 2.05 3.23 28.5 119 3.18 5.08 0.47 1.87 6 0.93 3.69 465 123 2 12.42 4.43 2.73 26.5 100 2.2 2.13 0.43 1.71 2.08 0.92 3.12 365 124 2 13.05 5.8 2.13 21.5 86 2.62 2.65 0.3 2.01 2.6 0.73 3.1 380 125 2 11.87 4.31 2.39 21 82 2.86 3.03 0.21 2.91 2.8 0.75 3.64 380 126 2 12.07 2.16 2.17 21 85 2.6 2.65 0.37 1.35 2.76 0.86 3.28 378