ANALISIS KOMPONEN UTAMA KERNEL: SUATU STUDI EKSPLORASI PEMBAKUAN PEUBAH PUTRI THAMARA

dokumen-dokumen yang mirip
KLASIFIKASI DATA MENGGUNAKAN ANALISIS KOMPONEN UTAMA KERNEL DENGAN FUNGSI ISOTROPIK HANIF KHARISMAHADI

KLASIFIKASI DENGAN ANALISIS KOMPONEN UTAMA KERNEL WIRDANIA USTAZA

PENDAHULUAN LANDASAN ANALISIS

TINJAUAN PUSTAKA Analisis Biplot Biasa

TINJAUAN PUSTAKA. dianalisis dan hasilnya ditransformasi menjadi matriks berukuran??

Plot Multivariate Menggunakan Kernel Principal Component Analysis (KPCA) dengan Fungsi Power Kernel

Penggunaan Kernel PCA Gaussian dalam Penyelesaian Plot Multivariat Non Linier. The Use of Gaussian PCA Kernel in Solving Non Linier Multivariate Plot

ANALISIS BIPLOT UNTUK MEMETAKAN MUTU SEKOLAH YANG SESUAI DENGAN NILAI UJIAN NASIONAL SUJITA

PEMETAAN PROVINSI DI INDONESIA BERDASARKAN LAPANGAN PEKERJAAN UTAMA DENGAN ANALISIS KORESPONDENSI DESTY PUTRI SARI

BAB III PEREDUKSIAN RUANG INDIVIDU DENGAN ANALISIS KOMPONEN UTAMA. Analisis komponen utama adalah metode statistika multivariat yang

BAB 2 LANDASAN TEORI

Bab 2 LANDASAN TEORI

TINJAUAN PUSTAKA. Gambar 1 Diagram kotak garis

SELEKSI PEUBAH DENGAN ANALISIS KOMPONEN UTAMA DAN PROCRUSTES ACHMAD MUSLIM

HASIL DAN PEMBAHASAN

BAB 2 LANDASAN TEORI. Analisis Komponen Utama (AKU, Principal Componen Analysis) bermula dari

UKURAN KESESUAIAN DALAM ANALISIS BIPLOT BIASA DAN ANALISIS BIPLOT IMBUHAN MARIYAM

Penggunaan Kernel Principal Component Analysis Fungsi Polinomial Dalam Menyelesaikan Masalah Pengelompokan Plot Peubah Ganda

BAB III ANALISIS FAKTOR. berfungsi untuk mereduksi dimensi data dengan cara menyatakan variabel asal

BAB 2 TINJAUAN PUSTAKA

BAB II TINJAUAN PUSTAKA

BAB II LANDASAN TEORI

(α = 0.01). Jika D i > , maka x i atau pengamatan ke-i dianggap pencilan (i = 1, 2,..., 100). HASIL DAN PEMBAHASAN

PERBANDINGAN ANALISIS BIPLOT KLASIK DAN ROBUST BIPLOT PADA PEMETAAN PERGURUAN TINGGI SWASTA DI JAWA TIMUR

BAB. IX ANALISIS REGRESI FAKTOR (REGRESSION FACTOR ANALYSIS)

BAB 2 LANDASAN TEORI

UKURAN KESESUAIAN ANALISIS KORESPONDENSI MELALUI ANALISIS PROCRUSTES SARI RAHAYU

g(x, y) = F 1 { f (u, v) F (u, v) k} dimana F 1 (F (u, v)) diselesaikan dengan: f (x, y) = 1 MN M + vy )} M 1 N 1

KONFIGURASI PROGRAM STUDI DI IPB BERDASARKAN PRESTASI MAHASISWA TPB IPB DEVITA HANDAYANI

BIPLOT BIASA DAN KANONIK UNTUK PEMETAAN PROVINSI BERDASARKAN PRESTASI MAHASISWA IPB KUSNANDAR

MATRIKS PASCAL DAN SIFAT-SIFATNYA YOGIE BUDHI RANTUNG

BIPLOT DATA DISAGREGAT DAN AGREGAT DALAM PEMETAAN PROVINSI BERDASARKAN PRESTASI MAHASISWA IPB DEDE SAHRUL BAHRI

TINJAUAN PUSTAKA Analisis Gerombol

Aljabar Linear Elementer

Metode Kernel. Machine Learning

Analisis Komponen Utama (Principal component analysis)

PEMODELAN SISTEM PENDULUM TERBALIK GANDA DAN KARAKTERISASI PARAMETER PADA MASALAH REGULASI OPTIMAL HASBY ASSIDIQI

SVM untuk Regresi Ordinal

DIAGONALISASI MATRIKS KOMPLEKS

Analisis Hibrid Korespondensi Untuk Pemetaan Persepsi. Hybrid Correspondence Analysis for Mapping Perception

BAB III MODEL STATE-SPACE. dalam teori kontrol modern. Model state space dapat mengatasi keterbatasan dari

KETERKONTROLAN BEBERAPA SISTEM PENDULUM SAKIRMAN

Didin Astriani P, Oki Dwipurwani, Dian Cahyawati (Jurusan Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Sriwijaya)

PENGURANGAN PEUBAH DALAM ANALISIS KORELASI KANONIK FANNY NOVIKA

ANALISIS BIPLOT UNTUK MEMETAKAN MUTU SEKOLAH YANG SESUAI DENGAN NILAI UJIAN NASIONAL SUJITA

BAB II KAJIAN PUSTAKA. pemrograman nonlinear, fungsi konveks dan konkaf, pengali lagrange, dan

III. METODOLOGI PENELITIAN

ANALISIS REGRESI TERPOTONG BEBERAPA NILAI AMATAN NURHAFNI

SKRIPSI WANDA SURIANTO

APLIKASI METODE PANGKAT DALAM MENGAPROKSIMASI NILAI EIGEN KOMPLEKS PADA MATRIKS

BAB 2 LANDASAN TEORI

IV. PERBANDINGAN KONFIGURASI MATRIKS INTERAKSI: METODE PROCRUSTES

PENENTUAN NILAI EIGEN DAN VEKTOR EIGEN DARI MATRIKS TRIDIAGONAL 2-TOEPLITZ DENGAN PENDEKATAN POLINOMIAL CHEBYSHEV MELIZA DITA UTAMI

PERBANDINGAN REGRESI KOMPONEN UTAMA DAN ROBPCA DALAM MENGATASI MULTIKOLINEARITAS DAN PENCILAN PADA REGRESI LINEAR BERGANDA

aljabar geo g metr me i

Pertemuan 2 & 3 DEKOMPOSISI SPEKTRAL DAN DEKOMPOSISI NILAI SINGULAR

BAB II TINJAUAN PUSTAKA

KLASIFIKASI WILAYAH DESA-PERDESAAN DAN DESA-PERKOTAAN WILAYAH KABUPATEN SEMARANG DENGAN SUPPORT VECTOR MACHINE (SVM)

BAB III MINIMUM VOLUME ELLIPSOID PADA ANALISIS KOMPONEN UTAMA ROBUST. Pada bab ini akan dikaji bahasan utama yaitu pencilan dan analisis

TINJAUAN PUSTAKA. Model Regresi Linier Ganda

PERBANDINGAN METODE KDDA MENGGUNAKAN KERNEL RBF, KERNEL POLINOMIAL DAN METODE PCA UNTUK PENGENALAN WAJAH AKIBAT VARIASI PENCAHAYAAN ABSTRAK

METODE ITERASI VARIASIONAL PADA MASALAH STURM-LIOUVILLE

TE Teknik Numerik Sistem Linear

ANALISIS KOMPONEN UTAMA PADA PENERAPAN APLIKASI PEMBELAJARAN METODE GLENN DOMAN

Analisis Biplot untuk Pemetaan Posisi dan Karakteristik Usaha Pariwisata di Provinsi Bali

Pertemuan 3 & 4 INTERPRETASI GEOMETRI DAN GENERALISASI VARIANS. Interpretasi Geometri pada Sampel. Generalisasi varians

BAB II TEORI KODING DAN TEORI INVARIAN

BAB II TINJAUAN PUSTAKA. Dalam bab ini dibahas tentang matriks, metode pengganda Lagrange, regresi

PROGRAM STUDI PENDIDIKAN MATEMATIKA FAKULTAS KEGURUAN DAN ILMU PENDIDIKAN UNIVERSITAS VETERAN BANGUN NUSANTARA SUKOHARJO

PENERAPAN METODE REGRESI GULUD DAN REGRESI KOMPONEN UTAMA DALAM MENGATASI PENYIMPANGAN MULTIKOLINEARITAS PADA ANALISIS REGRESI LINEAR BERGANDA

MODEL-MODEL LEBIH RUMIT

BEBERAPA METODE PENDUGAAN JUMLAH KOMPONEN DALAM CAMPURAN SENYAWA KIMIA MURDAN ALFA SATYAWAN SEKOLAH PASCASARJANA INSTITUT PERTANIAN BOGOR BOGOR 2008

POLINOMIAL KARAKTERISTIK MATRIKS DALAM ALJABAR MAKS-PLUS

ANALISIS PROCRUSTES PADA INDIKATOR INDEKS PEMBANGUNAN MANUSIA (IPM) DI KABUPATEN/KOTA PROVINSI JAWA TENGAH (STUDI KASUS IPM TAHUN 2008 DAN 2013)

PENDUGAAN FUNGSI INTENSITAS PROSES POISSON PERIODIK DENGAN TREN FUNGSI PANGKAT MENGGUNAKAN METODE TIPE KERNEL

BAB II LANDASAN TEORI

MENENTUKAN PERPANGKATAN MATRIKS TANPA MENGGUNAKAN EIGENVALUE

BAB II KAJIAN TEORI. linier, varian dan simpangan baku, standarisasi data, koefisien korelasi, matriks

BAB IV HASIL DAN PEMBAHASAN

MA Analisis dan Aljabar Teori=4 Praktikum=0 II (angka. 17 Juli

PENDEKATAN MULTIPLE REGRESI PADA ANALISIS RAGAM KLASIFIKASI DUA ARAH SKRIPSI MARISA INDA PUTRI

KAJIAN TERHADAP TINGKAT PEMERATAAN PENDIDIKAN MENGGUNAKAN ANALISIS BIPLOT KLASIK DAN BIPLOT KEKAR

Analisis Korespondensi Terhadap Persepsi Alumni Program Studi Matematika FMIPA Universitas Sam Ratulangi Mengenai Kurikulum Dan Proses Pembelajaran

ANALISIS REGRESI KOMPONEN UTAMA UNTUK MENGATASI MASALAH MULTIKOLINIERITAS SKRIPSI LEONARDO SILALAHI

8.1 Transformasi Linier Umum. Bukan lagi transformasi R n R m, tetapi transformasi linier dari

SBAB III MODEL VARMAX. Pengamatan time series membentuk suatu deret data pada saat t 1, t 2,..., t n

Perluasan Teorema Cayley-Hamilton pada Matriks

SOLUSI PENDEKATAN TERBAIK SISTEM PERSAMAAN LINEAR TAK KONSISTEN MENGGUNAKAN DEKOMPOSISI NILAI SINGULAR

STK511 Analisis Statistika. Pertemuan 13 Peubah Ganda

II LANDASAN TEORI. Contoh. Ditinjau dari sistem yang didefinisikan oleh:

BAB II LANDASAN TEORI. eigen dan vektor eigen, persamaan diferensial, sistem persamaan diferensial, titik

PEMBENTUKAN MODEL DATA PANEL FIXED EFFECT MENGGUNAKAN GUI MATLAB

Minggu XI ANALISIS KOMPONEN UTAMA. Utami, H

Menurut Ming-Hsuan, Kriegman dan Ahuja (2002), faktor-faktor yang mempengaruhi sebuah sistem pengenalan wajah dapat digolongkan sebagai berikut:

Analisis Peubah Ganda

Analisis Regresi 2. Multikolinier & penanganannya

Kode, GSR, dan Operasi Pada

BAB III. Model Regresi Linear 2-Level. Sebuah model regresi dikatakan linear jika parameter-parameternya bersifat

Transkripsi:

ANALISIS KOMPONEN UTAMA KERNEL: SUATU STUDI EKSPLORASI PEMBAKUAN PEUBAH PUTRI THAMARA DEPARTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR BOGOR 2014

PERNYATAAN MENGENAI SKRIPSI DAN SUMBER INFORMASI SERTA PELIMPAHAN HAK CIPTA Dengan ini saya menyatakan bahwa skripsi berjudul Analisis Komponen Utama Kernel: Suatu Studi Eksplorasi Pembakuan Peubah adalah benar karya saya dengan arahan dari komisi pembimbing dan belum diajukan dalam bentuk apapun kepada perguruan tinggi manapun. Sumber informasi yang berasal atau dikutip dari karya yang diterbitkan maupun tidak diterbitkan dari penulis lain telah disebutkan dalam teks dan dicantumkan dalam Daftar Pustaka di bagian akhir skripsi ini. Dengan ini saya melimpahkan hak cipta dari karya tulis saya kepada Institut Pertanian Bogor. Bogor, November 2014 Putri Thamara NIM G54100050

ABSTRAK PUTRI THAMARA. Analisis Komponen Utama Kernel: Suatu Studi Eksplorasi Pembakuan Peubah. Dibimbing oleh SISWADI dan TONI BAKHTIAR. Analisis Komponen Utama Kernel (AKUK) merupakan perluasan dari Analisis Komponen Utama (AKU) yang berguna untuk menyelesaikan masalah data yang takterpisah atau taklinear. AKUK adalah AKU yang diterapkan di ruang fitur, yang merupakan ruang hasil pemetaan objek-objek dari ruang asal. Pada AKUK, data asal dipetakan ke ruang fitur. Namun tidak semua hasil pemetaannya diketahui, sehingga nilai eigen dan vektor eigen hanya dapat diperoleh dari matriks dual hasil pemetaan tersebut di ruang fitur, tidak dari matriks primalnya. Hasil kali dalam dari pemetaan di ruang fitur disebut dengan fungsi kernel. Fungsi kernel polinom memiliki hasil pemetaan yang jelas sehingga pembakuan peubah di ruang fitur dapat dieksplorasi. Pada karya tulis ini, eksplorasi pembakuan peubah diterapkan pada data pengenalan anggur (Forina 1991). Eksplorasi pembakuan peubah tersebut memberikan gambaran bahwa ada perbedaan pada waktu pembakuan dilakukan terhadap konfigurasi yang terbentuk dan terhadap nilai salah klasifikasinya. Perbedaan hasil pembakuan peubah tercermin dari ukuran kemiripan dan nilai salah klasifikasinya. Kata kunci: Analisis Komponen Utama, Analisis Komponen Utama Kernel, Fungsi Kernel Polinom, Pembakuan Peubah ABSTRACT PUTRI THAMARA. Kernel Principal Component Analysis: an Exploratory Study on Standardization of Variables. Supervised by SISWADI and TONI BAKHTIAR. Kernel Principal Component Analysis (KPCA) is an extension of the Principal Component Analysis (PCA) which are useful to solve the problem of data which are unseparable or nonlinear. The KPCA is also considered as a PCA applied in the feature space. In the KPCA, the original data were mapped into the feature space. However, if they are mapping results are unknown, therefore the eigenvalues and eigenvectors can only be obtained from the dual matrix mapping results in the feature space, not from the primal matrix. An inner product of the mapping in the feature space called the kernel function. The Polynomial kernel function has a clear mapping results, so that standardization of variables in the feature space could be explored. In this paper, exploratory on standardization of variables were applied into the wine recognition datasets (Forina 1991). Exploratory on standardization of the variables illustrate that there is a difference on time of standardization conducted into the configuration and to the missclassification error. The difference in the results of standardization of variables reflected goodness of fit and value of the missclassification error. Keywords: Principal Component Analysis, Kernel Principal Component Analysis, Polynomial Kernel Function, Standardized Variable.

ANALISIS KOMPONEN UTAMA KERNEL: SUATU STUDI EKSPLORASI PEMBAKUAN PEUBAH PUTRI THAMARA Skripsi sebagai salah satu syarat untuk memperoleh gelar Sarjana Sains pada Departemen Matematika DEPARTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR BOGOR 2014

Judul Skripsi : Analisis Komponen Utama Kernel: Suatu Studi Eksplorasi Pembakuan Peubah Nama : Putri Thamara NIM : G54100050 Disetujui oleh Prof Dr Ir Siswadi, MSc Pembimbing I Dr Toni Bakhtiar, MSc Pembimbing II Diketahui oleh Dr Toni Bakhtiar, MSc Ketua Departemen Tanggal Lulus:

PRAKATA Alhamdulillaahirabbil aalamiin. Puji dan syukur Penulis panjatkan ke hadirat Alloh SWT atas segala nikmat dan karunia-nya sehingga karya ilmiah ini dapat diselesaikan. Penulis karya ilmiah ini juga tidak lepas dari bantuan dan dukungan dari berbagai pihak. Untuk itu Penulis mengucapkan terimakasih kepada Prof Dr Ir Siswadi, MSc dan Dr Toni Bakhtiar, MSc sebagai dosen pembimbing I dan dosen pembimbing II, serta kepada Bapak Ir Ni Komang Kutha Ardhana, MSc sebagai dosen penguji atas semua ilmu, nasihat, kesabaran, motivasi, dan bimbingannya selama penulisan skripsi ini. Selain itu, Penulis juga mengucapkan terimakasih kepada Kak Wirdania yang telah bersedia manjadi tempat untuk bertanya, Pak Deni yang membantu menginstal software-software yang diperlukan, dan tentunya kepada Mamah dan Bapak yang setiap hari selalu mengingatkan dan mendoakan agar karya tulis ini dapat segera diselesaikan. Semoga karya ilmiah ini dapat bermanfaat dan menjadi inspirasi bagi penelitian-penelitian selanjutnya. Bogor, November 2014 Putri Thamara

DAFTAR ISI DAFTAR TABEL viii DAFTAR GAMBAR viii DAFTAR LAMPIRAN viii PENDAHULUAN 1 Latar Belakang 1 Tujuan Penelitian 1 TINJAUAN PUSTAKA 2 METODE 11 Sumber Data 11 Prosedur Analisis Data 11 HASIL DAN PEMBAHASAN 13 SIMPULAN DAN SARAN 19 Simpulan 19 Saran 19 DAFTAR PUSTAKA 20 LAMPIRAN 21 RIWAYAT HIDUP 31

DAFTAR TABEL 1 Klasifikasi kelompok 13 2 Deskripsi data pengenalan anggur 13 3 Proporsi total varians yang ditampilkan oleh dua komponen utama pertama15 4 Nilai perbedaan minimum matriks X terhadap matriks Y dari berbagai kondisi dengan seluruh komponen utama 16 5 Nilai perbedaan minimum matriks X terhadap matriks Y dari berbagai kondisi dengan dua komponen utama pertama 16 6 Ukuran kesesuaian matriks X terhadap Y dari berbagai kondisi dengan seluruh komponen utama 17 7 Ukuran kesesuaian matriks X terhadap Y dari berbagai kondisi dengan dua komponen utama pertama 17 8 Klasifikasi kelompok data asal tanpa pembakuan (I) 18 9 Klasifikasi kelompok data asal terkoreksi atau baku (II) 18 10 Klasifikasi kelompok menggunakan metode kernel (III) 18 DAFTAR GAMBAR 1 Ilustrasi pemetaan data ke ruang fitur 6 2 Konfigurasi AKUK primal dengan data asal tanpa pembakuan (I) 14 3 Konfigurasi AKUK primal dengan data asal terkoreksi atau baku (II) 14 4 Konfigurasi AKU Kernel dual dengan data asal baku (III) 15 DAFTAR LAMPIRAN 1 Data Pengenalan Anggur (Wine Recognition Data) 21 2 Data dua komponen utama pertama dari berbagai kondisi 25 3 Fungsi yang digunakan untuk memperoleh nilai perbedaan minimum antarkonfigurasi 29 4 Fungsi yang digunakan untuk memperoleh matriks komponen utama menggunakan metode kernel 30

PENDAHULUAN Latar Belakang Permasalahan yang sering muncul dalam penelitian ialah banyaknya peubah yang terlibat sehingga terlalu kompleks untuk langsung diinterpretasikan. Oleh karena itu, diperlukan suatu teknik untuk menyederhanakannya. Dalam statistika, masalah semacam itu umumnya diselesaikan dengan menggunakan analisis peubah ganda. Salah satu jenis analisis peubah ganda adalah Analisis Komponen Utama (AKU), yaitu suatu analisis statistika yang digunakan untuk mereduksi dimensi data berukuran besar dengan mempertahankan sebanyak mungkin informasi yang terkandung pada data asalnya dengan membentuk peubah baru yang tidak berkorelasi yang merupakan kombinasi linear dari peubah-peubah asalnya dan beragam terurut. Peubah baru ini disebut dengan komponen utama. Meskipun AKU sering dan baik digunakan untuk mereduksi dimensi data, namun AKU juga masih memiliki keterbatasan. Keterbatasan yang paling menonjol dari AKU adalah ketidakmampuannya dalam mengatasi masalah data yang taklinear dan tak terpisah. Untuk itu ditemukan perluasan dari AKU, yaitu AKU Kernel. Pada dasarnya, AKU merupakan AKU Kernel dengan fungsi kernel polinom berderajat satu. Pada AKU Kernel ini, terlebih dahulu dilakukan pemetaan data ke ruang fitur sehingga membentuk vektor-vektor baru di ruang fitur. Hasil kali dalam dari vektor-vektor tersebut disebut dengan fungsi kernel. AKU Kernel ini merupakan AKU yang diterapkan di ruang fitur. Pada AKU Kernel, matriks komponen utama dapat diperoleh dari formula primal dan formula dual. Namun pada fungsi kernel yang hasil pemetaan di ruang fiturnya tidak diketahui, formula primal tidak dapat digunakan. Salah satu fungsi kernel yang sering digunakan adalah fungsi kernel polinom. Untuk fungsi kernel ini, hasil pemetaan di ruang fiturnya jelas, sehingga matriks komponen utama dapat diperoleh melalui formula primalnya. Bila peubah asal memiliki varians yang jauh berbeda akan menyebabkan adanya peubah yang memberikan kontribusi varians yang dominan sebagai penentu komponen utama. Salah satu upaya untuk mengendalikannya adalah dengan melakukan pembakuan peubah. Dalam karya tulis ini, akan dilakukan eksplorasi mengenai pengaruh pembakuan peubah yang dilakukan di ruang asal, atau ruang fitur, atau keduanya (ruang asal dan ruang fitur) terhadap konfigurasi yang terbentuk dan terhadap salah klasifikasi yang diperoleh. Untuk menelusuri seberapa jauh berbeda, konfigurasi titik yang diperoleh dari setiap pembakuan perlu dibandingkan. Salah satu teknik analisis yang digunakan untuk membandingkan suatu konfigurasi terhadap konfigurasi yang lainnya ialah Analisis Procrustes (Procrustes Analysis) sehingga menghasilkan suatu ukuran kesesuaian. Selain itu, pengaruh pembakuan peubah juga akan dilihat dari nilai salah klasifikasinya. Tujuan Penelitian Tujuan penelitian ini ialah menelusuri perbedaan hasil berbagai kemungkinan pembakuan peubah dalam AKU Kernel, menentukan kemiripan konfigurasi, serta menentukan nilai salah klasifikasinya.

2 TINJAUAN PUSTAKA Nilai Eigen dan Vektor Eigen Misalkan adalah suatu matriks. Skalar disebut sebagai nilai eigen atau nilai karakteristik dari jika terdapat suatu vektor taknol, sehingga. Vektor disebut vektor eigen atau vektor karakteristik matriks yang bersesuaian dengan. (Leon 2014) Nilai Singular Misalkan adalah suatu matriks. Nilai-nilai singular dari adalah akar dari nilai eigen yang positif dari matriks atau. (Leon 2014) Teras Misalkan Y ( ) adalah suatu matriks. Teras (trace) dari matriks Y atau ditulis tr Y merupakan jumlah elemen-elemen diagonal utama dari Y: tr Y. (Leon 2014) Jarak Euclid Jarak Euclid antara dan dari matriks ( ) didefinisikan sebagai ( ) ( ) ( ). (Jolliffe 2002) Analisis Komponen Utama Analisis Komponen Utama (AKU) adalah analisis peubah ganda yang paling tua dan sudah banyak digunakan. Analisis ini pertama kali diperkenalkan oleh Pearson pada tahun 1901 kemudian oleh Hotelling pada tahun 1935 (SchÖlkopf dan Smola 2002). Ide pokok analisis ini ialah mereduksi dimensi data berukuran besar dari data dengan p peubah yang saling berkorelasi dengan mempertahankan sebanyak mungkin variasi yang terdapat pada data. Meskipun dibutuhkan p komponen untuk menunjukkan keseluruhan variasi data, namun seringkali variasi ini dapat diwakili oleh k komponen utama pertama, dengan (Jollife 2002), sehingga data asal yang mengandung n objek dengan p peubah dapat direduksi menjadi n objek dengan k komponen utama. Misalkan adalah vektor dengan p peubah acak, ( ) memunyai matriks kovarians Σ dengan nilai eigen. Misalkan kombinasi linear memiliki varians terbesar, dengan merupakan vektor koefisien. Kombinasi linear dapat dituliskan sebagai berikut. Kombinasi linear kedua,, tidak berkorelasi dengan. Kombinasi linear ini memiliki varians terbesar kedua, dan seterusnya, sehingga kombinasi linear ke-k,, memiliki varians maksimum ke-k dan tidak berkorelasi dengan

3,,. Dengan demikian terdapat vektor bobot yang tidak diketahui ( ). Misalkan X memiliki matriks kovarians dengan elemen merupakan kovarians antara peubah ke-i dan peubah ke-j dari X saat dan varians peubah ke-j saat. Jika X memiliki nilai harapan E[X] maka kovarians X ialah sebagai berikut, -,(, -)(, -) -. Misalkan maka, -, ]=, - dengan varians sebagai berikut, -,(, -)(, -) -,( [ ])( [ ]) -,(, -)(, -) -, -. Untuk menentukan komponen utama pertama, pandang kombinasi linear pertama dan vektor yang memaksimumkan, -. Nilai, - dapat terus membesar bila dikalikan dengan suatu konstanta yang lebih besar dari satu maka dibutuhkan batasan, yaitu jumlah kuadrat elemen sama dengan 1. Untuk komponen utama pertama yang ingin memaksimumkan, - [ ] dengan kendala dapat diselesaikan melalui persamaan Lagrange berikut ( ) ( ) ( ) dengan adalah pengganda Lagrange, kemudian mencari titik kritis dari persamaan Lagrange dapat dilakukan dengan cara mencari turunan pertama terhadap sebagai berikut: atau ( ) dengan merupakan matriks identitas berukuran. Dengan demikian adalah nilai eigen dari dan merupakan vektor eigen yang bersesuaian. Untuk menentukan vektor eigen yang memberikan kombinasi linear dengan varians terbesar, kuantitas yang akan dimaksimumkan ialah. Dengan demikian agar, - maksimum maka haruslah merupakan nilai eigen terbesar dari matriks kovarians dan merupakan vektor eigen yang bersesuaian dengan nilai eigen terbesar dari. Komponen utama kedua,, memaksimumkan dengan kendala dan tidak berkorelasi dengan, atau ekuivalen dengan syarat, -, dengan, - menyatakan kovarians antara peubah dan peubah. Diperoleh, - (1)

4 karena maka. Didefinisikan kembali fungsi Lagrange ( ) ( ) ( ) ( ) dengan dan adalah pengganda Lagrange, untuk mencari titik kritis dapat diperoleh sebagai berikut. (2) Jika persamaan (2) dikalikan dengan didapatkan. Persamaan (1) menjadikan dan karena maka haruslah, sehingga persamaan (2) dapat ditulis menjadi atau ( ) merupakan persamaan eigen dari matriks. Dengan demikian merupakan nilai eigen dan merupakan vektor eigen yang bersesuaian. Untuk menentukan vektor eigen yang memberikan kombinasi linear dengan varians terbesar, kuantitas yang akan dimaksimumkan ialah. Karena nilai eigen terbesar pertama merupakan varians dari komponen utama pertama maka dipilih nilai eigen terbesar kedua dari matriks. Demikian juga dengan vektor eigen merupakan vektor eigen yang bersesuaian dengan nilai eigen terbesar kedua. Berdasarkan uraian sebelumnya, dapat ditunjukkan bahwa komponen utama ketiga, keempat sampai ke-p, vektor koefisien merupakan vektor eigen yang bersesuaian dengan nilai eigen, secara berturut-turut. Secara umun, komponen utama ke-k dari X adalah dan, ] untuk,,, dengan merupakan nilai eigen terbesar ke-k dan adalah vektor eigen yang bersesuaian. Apabila varians antarpeubah memiliki perbedaan cukup besar akan mengakibatkan salah satu peubah menjadi dominan dalam menentukan komponen utama, maka biasanya digunakan matriks korelasi ρ. Bila peubah telah dibakukan sebagai berikut, -,, -,..., maka komponen utama dari [ ] adalah kombinasi linear dari p peubah acak baku, yaitu + +...+ di mana i 1,2,..., p. Dalam kasus ini ( ), ( ),..., ( ) adalah pasangan nilai eigen dan vektor eigen untuk matriks korelasi ρ, dengan diag( ) dan λ λ > 0. 1 p Apabila matriks kovarians populasi dan matriks korelasi dari populasi ρ tidak diketahui, maka dapat diduga dengan matriks kovarians contoh S dan matriks korelasi contoh dengan, -

5 ( ), dalam hal ini adalah matriks data yang sudah terkoreksi nilai tengahnya. Formulasi primal dianalisis dengan ( ) yang berukuran ( ). Formulasi primal memiliki permasalahan persamaan eigen sebagai berikut Formulasi primal sangat baik digunakan saat ukuran, sehingga dapat meringkas dalam menyelesaikan masalah persamaan eigen. Selain formulasi primal dijelaskan pula tentang formulasi dual. Formulasi dual dianalisis dengan ( ) yang berukuran ( ) dalam amatan dapat menjadi sangat besar. Formulasi dual memiliki permasalahan persamaan eigen sebagai berikut dengan adalah nilai eigen dan adalah vektor eigen yang bersesuaian dengan. Jika persamaan ini dikalikan dari kiri maka akan diperoleh ( ) ( ) proporsional dengan, atau dilambangkan dengan, yaitu sebuah vektor eigen dari matriks kovarians S dengan nilai eigen. Dalam hal ini nilai eigen yang diperoleh dari kedua formulasi adalah sama-sama, dan dengan mengasumsikan vektor eigen adalah vektor satuan ( ) diperoleh ( ) Jika dan berpangkat * +, ( ) dan ( ) memunyai r nilai eigen taknol yang sama dan bahwa vektor eigennya saling terkait yaitu ( ) dan ( ). Total varians yang dijelaskan oleh komponen utama adalah yang merupakan total varians peubah asal, sehingga proporsi total varians dari k komponen utama pertama (Pk) ialah. di mana k p. Analisis Komponen Utama Kernel Analisis Komponen Utama Kernel (AKUK) adalah suatu analisis yang dapat menunjukkan bentuk taklinear dari AKU. Dengan menggunakan fungsi kernel dapat diperoleh komponen utama secara lebih efisien dalam dimensi yang lebih tinggi di ruang fitur. Dalam AKUK dikenal kernel trick, yaitu suatu cara yang memberikan kemudahan karena hanya cukup mengetahui fungsi kernel yang digunakan dan tidak perlu mengetahui wujud dari fungsi pemetaan taklinearnya. Misalkan dinotasikan pemetaan Φ dari ruang input ke ruang fitur dengan Φ : Ƒ x Φ(x) Ƒ

6 Gambar 1 Ilustrasi pemetaan data ke ruang fitur di mana data asal berada dalam ruang dan fitur dalam Ƒ. Permasalahan muncul karena bentuk konkret dan dimensi dari Ƒ tidak semua diketahui. Namun permasalahan tersebut dapat diselesaikan menggunakan kernel trick. Hasil kali dalam dari pemetaan data merupakan fungsi kernel. Kernel adalah sebuah fungsi k di mana memenuhi k(, ) ( ) ( ). (Shen 2007) Dimensi Ƒ dapat memunyai perubahan dimensi yang besar dan mungkin tak terbatas (Shen 007). Pemetaan Φ mungkin taklinear dan tak dapat dijelaskan secara eksplisit. Matriks data hasil pemetaan di ruang fitur adalah sebagai berikut : ( ) Φ ( ). ( ( ) ) Matriks Φ berisi n objek dan q peubah, di mana q adalah banyaknya peubah di ruang fitur dan nilainya bisa sangat besar atau tak terbatas. Asumsikan bahwa data dalam ruang fitur memunyai rata-rata nol, yaitu ( ) 0, sehingga matriks kovarians memiliki bentuk S ( ) ( ) yang bersesuaian dengan formulasi primal sebagai berikut. Untuk formulasi dual yang bersesuaian diperoleh di mana digunakan kembali simbol sebagai nilai eigen dan vektor eigen secara berturut-turut. Seperti pada AKU, nilai eigen taknol untuk formulasi primal dan dual adalah sama dan vektor eigen dihubungkan dengan ( ) dan ( ). Dengan mengganti hasil kali dalam ( ) ( ) pada dengan sebuah fungsi kernel k(, ) yang berasal dari pemetaan, diperoleh ( ) ( ) ( ) ( ) ( ) ( ), ( ( ) ( ) ( )) dengan adalah matriks berukuran, dengan persamaan nilai eigen sebagai berikut,

7 ( ). Permasalahan nilai eigen tersebut memberikan semua solusi dari vektor eigen dan ( ) dari nilai eigen, sehingga dalam hal ini ( ) dan ( ). Pada kenyataannya tidak dapat diasumsikan bahwa data pada ruang fitur sudah terkoreksi terhadap nilai tengahnya. Oleh karena itu agar matriks terkoreksi nilai tengah, digunakan ( ) ( ) di mana ( ). Untuk mendapatkan skor komponen utama kernel dari permasalahan nilai eigen, proyeksikan pemetaan x atas vektor eigen primal ( ) ( ) ( ) ( ) ( ( ) ( ) ( )) ( ) ( ( ) ( ) ( ) ( ) ( ) ( )) ( ) ( ( ) ( ) ( )) ( ). Berikut merupakan tiga fungsi kernel yang biasa digunakan Gauss : k( ) exp(. / ), Polinom : k( ) ( ), Sigmoid : k( ) tanh(k( ) + θ). Sebelum menggunakan fungsi kernel, harus ditentukan terlebih dahulu fungsi k(, ) untuk memastikan bahwa fungsi tersebut adalah fungsi kernel untuk beberapa ruang fitur. Oleh karena itu, perlu diketahui beberapa hal yang berhubungan dengan fungsi kernel, yaitu: 1. Fungsi kernel harus simetrik (, ) ( ) ( ) ( ) ( ) k(, ). 2. Memenuhi ketaksamaan Cauchy-Schwarz ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ). Misalkan pemetaan ke ruang fitur diberikan sebagai berikut : x = (, ) (x) = ( ). Pemetaan mengambil data dari ruang input dua dimensi dan memetakan ke ruang fitur tiga dimensi. Komposisi dari pemetan fitur dengan hasil kali dalam pada ruang fitur dapat dievaluasi sebagai berikut: ( ) ( ) ( ) ( ) Karenanya, fungsi. k(x, )

8 merupakan sebuah fungsi kernel dengan ruang fitur yang bersesuaian. Hal tersebut berarti dapat menghitung hasil kali dalam antara proyeksi dari dua titik ke dalam ruang fitur tanpa mengevaluasi koordinatnya secara eksplisit. Dekomposisi Nilai Singular (DNS) Setiap matriks yang berdimensi dapat dinyatakan sebagai bentuk Dekomposisi Nilai Singular (DNS) sebagai berikut: (Jolliffe 2002), di mana dan masing-masing dengan kolom ortonormal, merupakan pangkat matriks dengan * +., dengan merupakan matriks identitas berukuran. ( ) dengan dan merupakan nilai singular dari matriks. Matriks ( ) adalah matriks yang kolom-kolomnya terdiri atas vektor eigen yang ortonormal dan berpadanan dengan nilai eigen taknol i dari matriks dalam bentuk ( ) ( ). Matriks ( ) adalah matriks yang kolom-kolomnya merupakan vektor eigen yang ortonormal dan berpadanan dengan nilai eigen taknol i dari matriks dalam bentuk ( ) ( ). Dekomposisi Nilai Singular Bentuk Lengkap (DNSBL) Setiap matriks berdimensi dapat dinyatakan sebagai bentuk Dekomposisi Nilai Singular Bentuk Lengkap (DNSBL) sebagai berikut: di mana dengan adalah matriks identitas berukuran n, 3) dengan adalah matriks identitas berukuran, dan ( ( ) Dalam hal ini merupakan pangkat matriks dengan * +. Matriks ( ) adalah matriks yang kolom-kolomnya terdiri atas vektor eigen yang ortonormal. Vektor eigen berpadanan dengan nilai eigen taknol (i = 1, 2, r) seperti pada DNS matriks Y dan vektor eigen nol (i r+1, r+2,, ) dari matriks. Matriks ( ) adalah matriks yang kolom-kolomnya terdiri atas vektor eigen yang ortonormal. Vektor eigen berpadanan dengan nilai eigen taknol (i = 1, 2, r) seperti pada DNS matriks Y dan vektor eigen nol (i r+1, r+2,, ) dari matriks. Vektor-vektor eigen dan yang berpadanan dengan nilai eigen taknol ( ) memiliki keterkaitan seperti pada DNS, yaitu atau. ).

9 Analisis Procrustes Misalkan adalah matriks berukuran dan berukuran yang masing-masing merupakan representasi konfigurasi yang akan dibandingkan. Koordinat titik ke- pada ruang Euclid diberikan oleh nilai-nilai pada baris kematriks. Konfigurasi pertama berada pada ruang berdimensi dan titik kememiliki koordinat ( ), sedangkan konfigurasi kedua berada pada ruang berdimensi dan titik ke- memiliki koordinat ( ). Jika maka konfigurasi kedua berada dalam subruang dari ruang berdimensi. Perbedaan dimensi ruang ini dapat diselesaikan dengan memasangkan kolom nol di kolom mana saja termasuk memasangkan di kolom terakhir dari sehingga menjadi matriks berukuran (Siswadi et al. 2012). Dengan demikian, tanpa mengurangi keumuman dapat diasumsikan bahwa. Untuk menentukan nilai perbedaan dari konfigurasi dan, jarak Procrustes menggunakan jumlah kuadrat jarak antartitik yang bersesuaian, yaitu: ( ) ( ) ( ) ( ). (3) Nilai perbedaan minimum dihitung dengan menggunakan tiga transformasi geometris yaitu translasi, rotasi, dan dilasi yang diberikan oleh Bakhtiar dan Siswadi (2011). 1. Translasi Misalkan ( ), maka sentroid kolom dari matriks dinotasikan sebagai ( ), di mana,. Dalam analisis Procrustes, translasi diartikan sebagai proses pemindahan seluruh titik dengan jarak yang tetap dan arah yang sama. ( ) [( ) ( )] [( ) ( )] ( ) ( ). (4) Penguraian persamaan (4) menghasilkan ( ) ( ) di mana ( ). dan merupakan konfigurasi dan setelah ditranslasi. dan masing-masing adalah sentroid kolom dari dan, merupakan vektor kolom berukuran yang semua unsurnya bernilai 1, sedangkan merupakan jarak kuadrat dari kedua sentroid kolom dan. Penyesuaian optimal dengan translasi dapat dilakukan dengan menghimpitkan sentroid kolom dan sehingga. Dengan demikian, nilai perbedaan minimum dari konfigurasi dan setelah dilakukan penyesuaian optimal dengan translasi ialah ( ) ( ) [( ) ( )]. 2. Rotasi Rotasi merupakan proses pemindahan seluruh konfigurasi titik dengan sudut yang tetap tanpa mengubah jarak setiap titik terhadap sentroidnya. Rotasi

10 terhadap dilakukan dengan mengalikan matriks dengan matriks ortogonal, dengan. Nilai perbedaan minimum dari konfigurasi dan setelah dilakukan penyesuaian dengan rotasi ialah ( ) ( ). Berdasarkan persamaan (3), nilai perbedaan pada penyesuaian dengan rotasi dapat dituliskan sebagai ( ) ( ) ( ) ( ) ( ) ( ). Nilai ( ) yang maksimum akan meminimumkan ( ). Jadi, harus dipilih matriks ortogonal yang memaksimumkan ( ). adalah matriks ortogonal yang diperoleh dari Dekomposisi Nilai Singular Bentuk Lengkap (DNSBL) matriks. Jika DNSBL matriks adalah, maka Q. Dengan menggunakan matriks Q tersebut, nilai perbedaan minimum dari konfigurasi dan setelah dilakukan penyesuaian optimal dengan rotasi ialah ( ) ( ) ( ) ( ) ( ) ( ) ( ). 3. Dilasi Dilasi merupakan proses penskalaan data melalui pembesaran/pengecilan jarak setiap titik dalam konfigurasi terhadap sentroidnya. Dilasi terhadap dilakukan dengan cara mengalikan konfigurasi dengan suatu skalar. Nilai perbedaan minimum dari dua konfigurasi dan setelah dilakukan penyesuaian dengan dilasi ialah ( ) ( ). Berdasarkan persamaan (3), nilai perbedaan pada penyesuaian dengan dilasi dapat dituliskan sebagai ( ) ( ) ( ) ( ) ( ) ( ). (5) Persamaan (5) merupakan bentuk fungsi kuadrat dengan variabel sehingga untuk meminimumkan nilai ( ), turunan pertamanya harus sama dengan nol dan turunan keduanya lebih besar dari nol. ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ). 8) ( ) minimum pada saat memiliki nilai seperti pada persamaan (6). Dengan menyubstitusikan nilai, nilai perbedaan minimum setelah penyesuaian optimal dengan dilasi menjadi ( ) ( ) ( ) ( ). (6)

11 Dengan menggunakan aljabar sederhana, secara analitik telah dibuktikan bahwa dalam analisis Procrustes, urutan pengerjaan yang menghasilkan jarak paling minimum adalah translasi-rotasi-dilasi. Bukti dapat dilihat di Bakhtiar dan Siswadi (2011). Ukuran kesesuaian analisis Procrustes diberikan sebagai berikut ( ) ( ) dengan ( ) merupakan nilai perbedaan minimum translasi, rotasi dan dilasi dari matriks X terhadap matriks Y. ( ) METODE Sumber Data Data yang digunakan dalam karya ilmiah ini adalah data sekunder yang diperoleh dari internet, yaitu data pengenalan anggur (Forina 1991). Data ini adalah hasil analisis kimia dari anggur yang tumbuh di daerah yang sama di Italia, tetapi berasal dari tiga budidaya/kultivar yang berbeda. Data tersebut terdiri atas 178 objek dan 13 peubah yaitu kadar alkohol (alcohol), kadar asam malat (malic acid), banyaknya abu (ash), banyaknya alkali pada abu (alcanity of ash), kadar magnesium (magnesium), kadar fenol (total phenols), kadar flavonoid (flavonoids), kadar fenol bukan flavonoid (nonflavonoids phenols), kadar proanthosianin (proanthocyanins), intensitas warna (color intensity), warna berdasarkan tingkat kecerahannya (hue), anggur yang diencerkan pada OD280/OD315 (OD280/OD315 of diluted wines), dan kadar prolina (proline). Dari 178 objek terbagi ke dalam 3 kelompok yaitu kelompok anggur yang berasal dari budidaya 1, budidaya 2, dan budidaya 3 yang banyaknya objek dari tiap kelompok berturut-turut adalah 59, 71, dan 48 objek. Prosedur Analisis Data Pada karya tulis ini, matriks data di ruang asal yang bedimensi 178 13 diperluas menjadi matriks data berdimensi 178 105 di ruang fitur. Perluasan ini didasarkan pada pemetaan kernel polinom berderajat 2 dengan parameter. Hal tersebut menyebabkan matriks data hasil pemetaan di ruang fitur merupakan komposisi dari bentuk konstanta, linear, cross product, dan kuadratik dari peubahpeubah asalnya. Secara umum, matriks berukuran 178 105 tersebut dibakukan, selanjutnya dicari model primalnya (bersesuaian dengan matriks korelasi di ruang fitur) kemudian didapatkan nilai eigen dan vektor eigen yang merupakan solusi dari persamaan nilai eigennya. Kemudian untuk menggambarkan konfigurasi, diambil dua komponen utama yang diperoleh dari dua nilai eigen terbesar pertama. Eksplorasi dilakukan terhadap tiga kondisi, yaitu: I. Matriks data asli dipetakan ke ruang fitur kemudian dibakukan di ruang fitur. Selanjutnya matriks data baku di ruang fitur dikerjakan menggunakan AKU.

12 II. Matriks data asli terkoreksi atau baku dipetakan ke ruang fitur. Setelah itu hasil pemetaan di ruang fitur dibakukan. Selanjutnya matriks data baku di ruang fitur dikerjakan menggunakan AKU. (Catatan: Matriks data hasil pembakuan di ruang fitur baik pada matriks data asal terkoreksi maupun matriks data asal baku adalah sama). III. Matriks data asal yang sudah baku dikerjakan menggunakan metode Kernel dengan fungsi kernel polinom berderajat 2 dan parameter. Berikut adalah tahapan yang dilakukan untuk mengerjakan menggunakan metode kernel: 1. Menentukan fungsi kernel yang akan digunakan, dalam hal ini fungsi kernel polinom berderajat 2 dengan parameter. Kemudian menghitung matriks kernel yang elemen-elemennya adalah fungsi kernel = k( ) = ( ) yang merupakan hasil kali dalam dari vektor-vektor di ruang fitur. 2. Mengoreksi matriks kernel dengan ( ) ( ) di mana ( ). 3. Menyelesaikan permasalahan nilai eigen dari matriks dengan persamaan ( ). Dua vektor eigen yang bersesuaian dengan dua nilai eigen terbesar pertama kemudian dijadikan sebagai koefisien-koefisien pada komponen utama 1 dan komponen utama 2. 4. Untuk menemukan skor komponen utama kernel dari permasalahan nilai eigen, proyeksikan pemetaan x atas vektor eigen primal ( ) ( ) / ( ) ( ( ) ( ) ( )) ( ), di mana i 1, 2. Setelah diperoleh matriks-matriks komponen utamanya, kemudian divisualisasikan menjadi konfigurasi atau plot pencaran menggunakan software Minitab. Dari konfigurasi-konfigurasi tersebut akan diperoleh gambaran bagaimana perbedaan plot pencaran dari masing-masing pembakuan secara visual. Untuk memperoleh ukuran kesesuaiannya, pertama-tama dicari terlebih dahulu nilai perbedaan minimum antar konfigurasi dengan melakukan penyesuaian translasi, rotasi, dan dilasi ( ( )). Selanjutnya adalah mencari ukuran kesesuaian (goodness of fit) dari analisis Procrustes yaitu ( ) ( ( ) ( ) ) 100%. Salah satu tolok ukur dalam menentukan keberhasilan suatu klasifikasi adalah dengan melihat nilai salah klasifikasinya (misclassification error). Semakin kecil nilai salah klasifikasinya maka semakin baik. Pengklasifikasian yang dilakukan dalam karya tulis ini menggunakan jarak Euclid untuk ruang dimensi dua dengan menghitung kuadrat jarak terkecil antara objek baru (, ) menggunakan dua komponen utama pertama terhadap rataan dari setiap kelompok, yaitu rataan kelompok 1 ( ), rataan kelompok 2 ( ), dan rataan kelompok 3 ( ) sebagai berikut ( ) ( ) ( ) di mana k =. Objek masuk ke dalam kelompok k jika * +. Hasil klasifikasi kelompok yang diperoleh akan disajikan dalam tabel seperti pada Tabel 1.

13 Tabel 1 Klasifikasi kelompok Kelompok Prediksi (j) Kelompok asal (k) 1 2 3 1 2 3 Total Total Salah Klasifikasi (SK) ( ), dengan banyaknya anggota kelompok k yang diklasifikasikan ke dalam kelompok j. HASIL DAN PEMBAHASAN Data yang digunakan dalam karya ilmiah ini adalah data sekunder yang diperoleh dari internet, yaitu data pengenalan anggur (Forina 1991). Data ini adalah hasil analisis kimia dari anggur yang tumbuh di daerah yang sama di Italia, tetapi berasal dari tiga budidaya/kultivar yang berbeda. Data tersebut terdiri atas 178 objek dan 13 peubah yaitu kadar alkohol (alcohol), kadar asam malat (malic acid), banyaknya abu (ash), banyaknya alkali pada abu (alcanity of ash), kadar magnesium (magnesium), kadar fenol (total phenols), kadar flavonoid (flavonoids), kadar fenol bukan flavonoid (nonflavonoids phenols), kadar proanthosianin (proanthocyanins), intensitas warna (color intensity), warna berdasarkan tingkat kecerahannya (hue), anggur yang diencerkan pada OD280/OD315 (OD280/OD315 of diluted wines), dan kadar prolina (proline). Dari 178 objek terbagi ke dalam 3 kelompok yaitu kelompok anggur yang berasal dari budidaya 1, budidaya 2, dan budidaya 3 yang banyaknya objek dari tiap kelompok berturut-turut adalah 59, 71, dan 48 objek. Berikut ini ditampilkan tabel yang berisi deskripsi data pengenalan anggur secara ringkas. Tabel tersebut menggambarkan nilai minimum, rataan, nilai maksimum, dan simpangan baku (SB) dari setiap peubah. Tabel 2 Deskripsi data pengenalan anggur Peubah Min Rataan Maks SB Alcohol 11.030 13.004 14.830 0.809 Malic Acid 0.740 2.342 5.800 1.119 Ash 1.360 2.366 3.230 0.274 Alcanity of Ash 10.000 19.439 30.000 3.414 Magnesium 70.000 99.714 162.000 14.279 Total Phenols 0.128 2.289 3.880 0.642 Flavanoids 0.099 2.024 5.080 1.007 Nonflavanoids 0.130 0.363 0.660 0.124 Phenols 0.410 1.591 3.580 0.572 Proanthocyanins 1.280 5.058 13.000 2.318

Komponen Utama 2 (proporsi λ_2 = 11.4957%) Komponen Utama 2 (proporsi λ_2 = 18,0016%) 14 Color Intensity 0.480 0.958 1.710 0.229 OD280/OD315 of 1.270 2.612 4.000 0.710 Diluted Wines Proline 278.000 746.893 1680.000 314.908 Tabel tersebut memberikan informasi bahwa peubah proline memiliki simpangan baku paling besar. Simpangan baku antara peubah tersebut dengan peubah yang lain memiliki perbedaan yang cukup besar. Sehingga peubah tersebut akan dominan dalam menentukan komponen utama. Rata-rata dan SB pada tabel tersebut akan digunakan untuk pembakuan pada data asal. Dalam penelitian ini, fungsi kernel yang digunakan adalah fungsi kernel polinom berderajat 2. Alasan pemilihan fungsi kernel tersebut karena hasil pemetaan di ruang fiturnya diketahui dengan jelas sehingga dapat dilakukan eksplorasi pembakuan peubah di ruang fiturnya, yang selanjutnya dapat dijadikan sebagai pembanding dengan hasil yang diperoleh melalui metode kernel untuk melihat seberapa jauh berbeda, karena dengan menggunakan metode kernel artinya nilai eigen dan vektor eigen hanya dapat diperoleh dari matriks yang setara dengan matriks kovarians ruang fiturnya, tidak dari matriks korelasinya. Gambar 2 dan 3 di bawah ini merupakan visualisasi konfigurasi atau plot pencar dari analisis terhadap data asal tanpa pembakuan dan data asal terkoreksi atau baku yang diperluas dan dibakukan di ruang fiturnya. Data Asal Tanpa Pembakuan 10 Kelompok 1 2 3 5 0-5 -10-10 -5 0 5 10 Komponen Utama 1 (proporsi λ_1 = 37.2239%) 15 Gambar 2 Konfigurasi AKUK primal dengan data asal tanpa pembakuan (I) 15 10 Data Asal Terkoreksi atau Baku Kelompok 1 2 3 5 0-5 -10-5 0 5 Komponen Utama 1 (proporsi λ_1 = 12.8488%) 10 Gambar 3 Konfigurasi AKUK primal dengan data asal terkoreksi atau baku (II)

Komponen Utama 2 (proporsi λ_2 = 10.7961%) 15 Konfigurasi yang diperoleh dengan menggunakan metode kernel dapat dilihat pada Gambar 4. 20 15 Metode Kernel Kelompok 1 2 3 10 5 0-5 -10-15 -15-10 -5 0 5 10 Komponen Utama 1 (proporsi λ_1 = 12.7136%) 15 Gambar 4 Konfigurasi AKUK dual dengan data asal baku (III) Berikut ini adalah tabel yang memberikan informasi mengenai proporsi varians yang ditampilkan oleh dua komponen utama pertama. Tabel 3 Proporsi total varians yang ditampilkan oleh dua komponen utama pertama KU 1 KU 2 Total Proporsi I..7 0 55.2255% II. 0 24.3445% III 7.07 7.. 23.5097% Nilai eigen yang diperoleh dari matriks tanpa faktor pembagi ( ) Gambar 2 dan Gambar 3 memberikan gambaran konfigurasi dari data asal tanpa pembakuan dan terkoreksi atau baku yang dikerjakan menggunakan AKU Kernel dalam formula primal baku atau setara dengan matriks korelasi di ruang fiturnya. Berdasarkan Tabel 3, saat data asal tidak dibakukan, proporsi nilai eigen yang ditampilkan adalah 55.2255% sedangkan proporsi nilai eigen yang ditampilkan saat data asal dibakukan adalah sebesar 24.3445%. Gambar 4 merupakan visualisasi dari data asal baku yang dikerjakan menggunakan metode kernel atau sama saja dengan AKU Kernel dalam formula dual di ruang fiturnya. Fungsi kernel yang digunakan adalah fungsi kernel polinom derajat 2 dengan parameter Jika dibandingkan dengan kedua konfigurasi sebelumnya, Gambar 4 ini memiliki pola pencaran data yang relatif mirip dengan Gambar 3. Namun yang membedakan ialah Gambar 4 ini merepresentasikan dua komponen utama pertama yang diperoleh dari matriks kovarians karena data di ruang fiturnya hanya terkoreksi nilai tengah, sedangkan pada Gambar 3 merepresentasikan dua komponen utama pertama dari matriks korelasinya karena dilakukan pembakuan peubah di ruang fiturnya. Proporsi nilai eigen yang ditampilkan saat data asal baku dikerjakan menggunakan metode kernel dapat dilihat pada Tabel 3, yaitu sebesar 23.5097%.

16 Dalam karya tulis ini, setiap konfigurasi titik yang terbentuk dibandingkan menggunakan analisis Procrustes. Sebelum ditemukan ukuran kemiripannya, dicari terlebih dahulu nilai perbedaan minimum antar konfigurasi dengan melakukan penyesuaian konfigurasi dari dua konfigurasi yang akan dibandingkan. Penyesuaian tersebut diawali dengan penyesuaian translasi, rotasi, kemudian dilasi. Berikut ini diberikan tabel-tabel yang berisi informasi mengenai nilai perbedaan minimum dari matriks seluruh komponen utama dan dua komponen utama pertamanya. Tabel 4 Nilai perbedaan minimum matriks X terhadap matriks Y dari berbagai kondisi dengan seluruh komponen utama ( ) Y I II III I 0 10488 10454 X II 10488 0 135.73 III 19985 259.48 0 Namun pada kenyataannya, representasi komponen utama yang dapat digambarkan umumnya hanya dua atau tiga saja. Dalam karya ilmiah ini, konfigurasi hanya digambarkan oleh dua komponen utama pertama. Nilai perbedaan minimum yang digambarkan oleh dua komponen utama pertama ditampilkan dalam tabel di bawah ini. Tabel 5 Nilai perbedaan minimum matriks X terhadap matriks Y dari berbagai kondisi dengan dua komponen utama pertama ( ) Y I II III I 0 4620.9 4687 X II 2037 0 108.5201 III 3814.5 200.3489 0 Tabel 4 dan 5 memberikan informasi mengenai nilai perbedaan minimum antar konfigurasi. Dalam hal ini, semakin kecil nilai perbedaan minimum dan semakin besar matriks pembagi yang bersesuaian maka dapat dikatakan antar konfigurasi tersebut semakin mirip. Pada perbandingan seluruh komponen utama, konfigurasi tanpa pembakuan memiliki nilai perbedaan minimum sebesar 10488 dan 10454 terhadap konfigurasi terkoreksi atau baku dan kernel. Konfigurasi terkoreksi atau baku memiliki nilai perbedaan minimum sebesar 10488 dan 135.73 terhadap konfigurasi tanpa pembakuan dan kernel. Sedangkan konfigurasi kernel memiliki nilai perbedaan minimum sebesar 19985 dan 259.48 terhadap konfigurasi tanpa pembakuan dan terkoreksi atau baku. Pada perbandingan dua komponen utama pertama, konfigurasi tanpa pembakuan memiliki nilai perbedaan minimum sebesar 4620.9 dan 4687 terhadap konfigurasi terkoreksi atau baku dan kernel. Konfigurasi terkoreksi atau baku memiliki nilai perbedaan minimum sebesar 2037 dan 108.5201 terhadap konfigurasi tanpa pembakuan dan kernel. Sedangkan konfigurasi kernel memiliki

17 nilai perbedaan minimum sebesar 3814.5 dan 200.3489 terhadap konfigurasi tanpa pembakuan dan terkoreksi atau baku. Tabel 6 dan Tabel 7 menunjukkan ukuran kesesuaian Procrustes. Ukuran kesesuaian memperlihatkan seberapa besar kemiripan antara dua konfigurasi. Dalam hal ini, jika ukuran kesesuaian semakin besar artinya konfigurasikonfigurasi yang dibandingkan semakin mirip. Berdasarkan pada penelitian ini, jika dua matriks yang dibandingkan telah terkoreksi terhadap rataan kolomnya atau dengan kata lain rataan kolomnya menjadi nol maka ukuran kesesuaian Procrustes yang diperoleh adalah simetrik, artinya ukuran kesesuaian matriks X terhadap matrik Y sama dengan matriks Y terhadap matriks X. Setelah ditelusuri melalui sejumlah percobaan ternyata kesimetrikan ini terjadi jika matriks yang dianggap tetap adalah matriks yang sudah ditranslasikan. Sedangkan matriks yang menyesuaikan telah melalui proses translasi saat mencari nilai perbedaan minimumnya. Tabel 6 Ukuran kesesuaian matriks X dan Y dari berbagai kondisi dengan seluruh komponen utama ( ) Y I II III I 100% 43.02% 43.21% X II 43.02% 100% 99.26% III 43.21% 99.26% 100% Tabel 7 Ukuran kesesuaian matriks X dan Y dari berbagai kondisi dengan dua komponen utama pertama ( ) Y I II III I 100% 54.54% 53.89% X II 54.54% 100% 97.58% III 53.89% 97.58% 100% Dari Tabel 6 dan Tabel 7 dapat dilihat bahwa ukuran kesesuaian antar konfigurasi yang sama bernilai 100%. Semakin mendekati 100% maka semakin mirip. Pada ukuran kesesuaian dari seluruh komponen utama, yang paling mendekati 100% adalah ukuran kemiripan untuk pasangan konfigurasi dengan pembakuan di ruang asal dan ruang fiturnya (II) dengan konfigurasi yang diperoleh menggunakan metode kernel (III), yaitu sebesar 99.26%. Begitu pun pada ukuran kemiripan dari dua komponen utama pertama, yang mendekati nilai 100% adalah pasangan konfigurasi antara primal terkoreksi atau baku dengan konfigurasi yang diperoleh dari metode kernel, yaitu sebesar 97.58%. Dengan menggunakan metode kernel artinya nilai eigen dan vektor eigen pembentuk komponen utama hanya dapat diperoleh dari matriks kernel terkoreksi (dual terkoreksi) atau setara dengan yang diperoleh dari AKU kovarians di ruang fitur. Dengan demikian, eksplorasi ini juga dapat memberikan gambaran seberapa besar data baku yang dikerjakan menggunakan metode kernel dapat menggambarkan data baku yang dikerjakan menggunakan AKU korelasi di ruang fitur. Dengan menggunakan data pengenalan anggur, fungsi kernel polinom derajat 2, dan parameter sebesar 99.26% metode kernel dapat

18 menggambarkan data baku yang dikerjakan menggunakan AKU korelasi di ruang fitur. Nilai persentase tersebut menggambarkan keseluruhan komponen utama. Sedangkan untuk matriks komponen utama yang sudah tereduksi atau dua komponen utama pertamanya saja, metode kernel menggambarkan sebesar 97.58% AKU korelasi di ruang fitur. Salah satu tolok ukur untuk melihat keberhasilan dalam menggunakan AKU Kernel adalah terpisahnya objek ke dalam kelompok aslinya. Oleh karena itu, untuk melihat pembakuan mana yang paling baik, dicari nilai salah klasifikasinya. Tabel 8 Klasifikasi kelompok data asal tanpa pembakuan (I) Kelompok asal Kelompok Prediksi 1 2 3 Total 1 56 3 0 59 2 5 64 2 71 3 0 1 47 48 Total 61 68 49 178 Salah klasifikasi = 6.18% Tabel 9 Klasifikasi kelompok data asal terkoreksi atau baku (II) Kelompok asal Kelompok Prediksi 1 2 3 Total 1 46 13 0 59 2 2 68 1 71 3 0 4 44 48 Total 48 85 45 178 Salah klasifikasi = 12.36% Tabel 11 Klasifikasi kelompok menggunakan metode kernel (III) Kelompok asal Kelompok Prediksi 1 2 3 Total 1 44 15 0 59 2 1 69 1 71 3 0 2 46 48 Total 45 86 47 178 Salah klasifikasi = 10.67% Kemiripan konfigurasi yang ditunjukkan oleh Gambar 3 (kondisi II) dan Gambar 4 (kondisi III) yang memiliki kemiripan sebesar 97.58% tercermin pula pada nilai salah klasifikasi yang relatif mirip, yaitu sebesar 12.36% dan 10.67%. Kemiripan nilai salah klasifikasi tersebut memperlihatkan bahwa dengan melakukan pembakuan peubah di ruang asal (sebelum transformasi) dan pembakuan peubah di ruang fitur atau terkoreksi nilai tengah di ruang fitur akan menghasilkan nilai klasifikasi yang relatif mirip. Hal tersebut terjadi karena pada kondisi III sebenarnya terjadi pembakuan peubah sebagian, sehingga ada beberapa peubah yang sama dengan hasil pembakuan di ruang fiturnya.

19 SIMPULAN DAN SARAN Simpulan Eksplorasi pembakuan peubah dalam Analisis Komponen Utama (AKU) Kernel menggunakan data pengenalan anggur (wine recognition) memberikan gambaran bahwa terdapat perbedaan hasil kapan pembakuan dilakukan terhadap konfigurasi dan salah klasifikasi. Perbedaan hasil pembakuan peubah tercermin dari ukuran kemiripan dan nilai salah klasifikasinya. Kemiripan antara konfigurasi yang dilakukan pembakuan di ruang asal dan ruang fiturnya (II) terhadap konfigurasi yang pembakuannya dilakukan di ruang asal dan hanya terkoreksi nilai tengah di ruang fiturnya (III) adalah sebesar 97.58%. Kemiripan tersebut tercermin pula pada nilai salah klasifikasinya yang relatif mirip, yaitu 12.36% dan 10.67%. Kemiripan antara konfigurasi yang dilakukan pembakuan di ruang asal dan ruang fiturnya (II) terhadap konfigurasi yang pembakuannya hanya dilakukan di ruang fiturnya (I) adalah sebesar 54.54%. Kemiripan yang hanya 54.54% tersebut tercermin pula pada nilai salah klasifikasinya yang relatif berbeda, yaitu 12.36% dan 6.18%. Saran Eksplorasi pembakuan peubah hanya dapat dilakukan pada AKU Kernel dengan fungsi kernel yang hasil pemetaan di ruang fiturnya diketahui, yaitu fungsi kernel polinom. Pada penelitian selanjutnya, diharapkan dapat melakukan pembakuan peubah pada fungsi kernel secara umum. Ukuran kesesuaian Procrustes yang diperoleh pada penelitian ini bersifat simetrik. Menurut penelitian ini, kesimetrikan tersebut terjadi jika matriks yang dianggap tetap adalah matriks yang sudah ditranslasikan. Pada penelitian selanjutnya diharapkan dapat menunjukkan kesimetrikannya melalui perhitungan yang lebih jelas.

DAFTAR PUSTAKA Bakhtiar T, Siswadi. 2011. Orthogonal Procrustes Analysis: Its Transformation Arrangement and Minimal Distance. International Journal of Applied Mathematics and Statistics 20:16 24. Forina M. 1991. Wine Recognition Data. [internet]. Tersedia pada: http://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data. Jolliffe IT. 2002. Principal Component Analysis. New York (US): Springer-Verlag. Leon SJ. 2014. Linear Algebra with Application. 8 th Ed. Edinburg Gate (UK): Pearson. SchÖlkopf B, Smola AJ. 2002. Learning with Kernels. London (UK): The MIT Press. Shen Y. 2007. Outlier Detection Using the Smallest Kernel Principal Component. [Disertasi]. Philadelphia (US): Temple University Graduate Board. Siswadi, Bakhtiar T, Maharsi R. 2012. Procrustes Analysis and the Goodness-offit of Biplots: Some Thoughts and Findings. Applied Mathematical Sciences 6(72): 3579 3590.

21 Lampiran 1 Data Pengenalan Anggur (Wine Recognition Data) Kel P1 P2 P3 P4 P5 P6 P7 P8 P9 P10 P11 P12 P13 1 14.23 1.71 2.43 15.6 127 2.8 3.06 0.28 2.29 5.64 1.04 3.92 1065 1 13.2 1.78 2.14 11.2 100 2.65 2.76 0.26 1.28 4.38 1.05 3.4 1050 1 13.16 2.36 2.67 18.6 101 2.8 3.24 0.3 2.81 5.68 1.03 3.17 1185 1 14.37 1.95 2.5 16.8 113 3.85 3.49 0.24 2.18 7.8 0.86 3.45 1480 1 13.24 2.59 2.87 21 118 2.8 2.69 0.39 1.82 4.32 1.04 2.93 735 1 14.2 1.76 2.45 15.2 112 3.27 3.39 0.34 1.97 6.75 1.05 2.85 1450 1 14.39 1.87 2.45 14.6 96 2.5 2.52 0.3 1.98 5.25 1.02 3.58 1290 1 14.06 3.15 2.61 17.6 121 2.6 2.51 0.31 1.25 5.05 1.06 3.58 1295 1 14.83 1.64 2.17 14 97 2.8 2.98 0.29 1.98 5.2 1.08 2.85 1045 1 13.86 1.35 2.27 16 98 2.98 3.15 0.22 1.85 7.22 1.01 3.55 1045 1 14.1 2.16 2.3 18 105 2.95 3.32 0.22 2.38 5.75 1.25 3.17 1510 1 14.12 1.48 2.32 16.8 95 2.2 2.43 0.26 1.57 5 1.17 2.82 1280 1 13.75 1.73 2.41 16 89 2.6 2.76 0.29 1.81 5.6 1.15 2.9 1320 1 14.75 1.73 2.39 11.4 91 3.1 3.69 0.43 2.81 5.4 1.25 2.73 1150 1 14.38 1.87 2.38 12 102 3.3 3.64 0.29 2.96 7.5 1.2 3 1547 1 13.63 1.81 2.7 17.2 112 2.85 2.91 0.3 1.46 7.3 1.28 2.88 1310 1 14.3 1.92 2.72 20 120 2.8 3.14 0.33 1.97 6.2 1.07 2.65 1280 1 13.83 1.57 2.62 20 115 2.95 3.4 0.4 1.72 6.6 1.13 2.57 1130 1 14.19 1.59 2.48 16.5 108 3.3 3.93 0.32 1.86 8.7 1.23 2.82 1680 1 13.64 3.1 2.56 15.2 116 2.7 3.03 0.17 1.66 5.1 0.96 3.36 845 1 14.06 1.63 2.28 16 126 3 3.17 0.24 2.1 5.65 1.09 3.71 780 1 12.93 3.8 2.65 18.6 102 2.41 2.41 0.25 1.98 4.5 1.03 3.52 770 1 13.71 1.86 2.36 16.6 101 2.61 2.88 0.27 1.69 3.8 1.11 4 1035 1 12.85 1.6 2.52 17.8 95 2.48 2.37 0.26 1.46 3.93 1.09 3.63 1015 1 13.5 1.81 2.61 20 96 2.53 2.61 0.28 1.66 3.52 1.12 3.82 845 1 13.05 2.05 3.22 25 124 2.63 2.68 0.47 1.92 3.58 1.13 3.2 830 1 13.39 1.77 2.62 16.1 93 2.85 2.94 0.34 1.45 4.8 0.92 3.22 1195 1 13.3 1.72 2.14 17 94 2.4 2.19 0.27 1.35 3.95 1.02 2.77 1285 1 13.87 1.9 2.8 19.4 107 2.95 2.97 0.37 1.76 4.5 1.25 3.4 915 1 14.02 1.68 2.21 16 96 2.65 2.33 0.26 1.98 4.7 1.04 3.59 1035 1 13.73 1.5 2.7 22.5 101 3 3.25 0.29 2.38 5.7 1.19 2.71 1285 1 13.58 1.66 2.36 19.1 106 2.86 3.19 0.22 1.95 6.9 1.09 2.88 1515 1 13.68 1.83 2.36 17.2 104 2.42 2.69 0.42 1.97 3.84 1.23 2.87 990 1 13.76 1.53 2.7 19.5 132 2.95 2.74 0.5 1.35 5.4 1.25 3 1235 1 13.51 1.8 2.65 19 110 2.35 2.53 0.29 1.54 4.2 1.1 2.87 1095 1 13.48 1.81 2.41 20.5 100 2.7 2.98 0.26 1.86 5.1 1.04 3.47 920 1 13.28 1.64 2.84 15.5 110 2.6 2.68 0.34 1.36 4.6 1.09 2.78 880 1 13.05 1.65 2.55 18 98 2.45 2.43 0.29 1.44 4.25 1.12 2.51 1105 1 13.07 1.5 2.1 15.5 98 2.4 2.64 0.28 1.37 3.7 1.18 2.69 1020 1 14.22 3.99 2.51 13.2 128 3 3.04 0.2 2.08 5.1 0.89 3.53 760 1 13.56 1.71 2.31 16.2 117 3.15 3.29 0.34 2.34 6.13 0.95 3.38 795 1 13.41 3.84 2.12 18.8 90 2.45 2.68 0.27 1.48 4.28 0.91 3 1035 1 13.88 1.89 2.59 15 101 3.25 3.56 0.17 1.7 5.43 0.88 3.56 1095 1 13.24 3.98 2.29 17.5 103 2.64 2.63 0.32 1.66 4.36 0.82 3 680 1 13.05 1.77 2.1 17 107 3 3 0.28 2.03 5.04 0.88 3.35 885 1 14.21 4.04 2.44 18.9 111 2.85 2.65 0.3 1.25 5.24 0.87 3.33 1080 1 14.38 3.59 2.28 16 102 3.25 3.17 0.27 2.19 4.9 1.04 3.44 1065 1 13.9 1.68 2.12 16 101 3.1 3.39 0.21 2.14 6.1 0.91 3.33 985 1 14.1 2.02 2.4 18.8 103 2.75 2.95 0.32 2.38 6.2 1.07 2.75 1060 1 13.94 1.73 2.27 17.4 108 2.88 3.54 0.32 2.08 8.9 1.12 3.1 1260 1 13.05 1.73 2.04 12.4 92 2.72 3.27 0.17 2.91 7.2 1.12 2.91 1150 1 13.83 1.65 2.6 17.2 94 2.45 2.99 0.22 2.29 5.6 1.24 3.37 1265

22 1 13.82 1.75 2.42 14 111 3.88 3.74 0.32 1.87 7.05 1.01 3.26 1190 1 13.77 1.9 2.68 17.1 115 3 2.79 0.39 1.68 6.3 1.13 2.93 1375 1 13.74 1.67 2.25 16.4 118 2.6 2.9 0.21 1.62 5.85 0.92 3.2 1060 1 13.56 1.73 2.4 20.5 116 2.96 2.78 0.2 2.45 6.25 0.98 3.03 1120 1 14.22 1.7 2.3 16.3 118 3.2 3 0.26 2.03 6.38 0.94 3.31 970 1 13.29 1.97 2.68 16.8 102 3 3.23 0.31 1.66 6 1.07 2.84 1270 1 13.72 1.43 2.5 16.7 108 3.4 3.67 0.19 2.04 6.8 0.89 2.87 1285 2 12.37 0.94 1.36 10.6 88 1.98 0.57 0.28 0.42 1.95 1.05 1.82 520 2 12.33 1.1 2.28 16 101 2.05 1.09 0.63 0.41 3.27 1.25 1.67 680 2 12.64 1.36 2.02 16.8 100 2.02 1.41 0.53 0.62 5.75 0.98 1.59 450 2 13.67 1.25 1.92 18 94 2.1 1.79 0.32 0.73 3.8 1.23 2.46 630 2 12.37 1.13 2.16 19 87 3.5 3.1 0.19 1.87 4.45 1.22 2.87 420 2 12.7 1.45 2.53 19 104 1.89 1.75 0.45 1.03 2.95 1.45 2.23 355 2 12.37 1.21 2.56 18.1 98 2.42 2.65 0.37 2.08 4.6 1.19 2.3 678 2 13.11 1.01 1.7 15 78 2.98 3.18 0.26 2.28 5.3 1.12 3.18 502 2 12.37 1.17 1.92 19.6 78 2.11 2 0.27 1.04 4.68 1.12 3.48 510 2 13.34 0.94 2.36 17 110 2.53 1.3 0.55 0.42 3.17 1.02 1.93 750 2 12.21 1.19 1.75 16.8 151 1.85 1.28 0.14 2.5 2.85 1.28 3.07 718 2 12.29 1.61 2.21 20.4 103 1.1 1.02 0.375 1.46 3.05 0.906 1.82 870 2 13.86 1.51 2.67 25 86 2.95 2.86 0.21 1.87 3.38 1.36 3.16 410 2 13.49 1.66 2.24 24 87 1.88 1.84 0.27 1.03 3.74 0.98 2.78 472 2 12.99 1.67 2.6 30 139 3.3 2.89 0.21 1.96 3.35 1.31 3.5 985 2 11.96 1.09 2.3 21 101 3.38 2.14 0.13 1.65 3.21 0.99 3.13 886 2 11.66 1.88 1.92 16 97 1.61 1.57 0.34 1.15 3.8 1.23 2.14 428 2 13.03 0.9 1.71 16 86 1.95 2.03 0.24 1.46 4.6 1.19 2.48 392 2 11.84 2.89 2.23 18 112 1.72 1.32 0.43 0.95 2.65 0.96 2.52 500 2 12.33 0.99 1.95 14.8 136 1.9 1.85 0.35 2.76 3.4 1.06 2.31 750 2 12.7 3.87 2.4 23 101 2.83 2.55 0.43 1.95 2.57 1.19 3.13 463 2 12 0.92 2 19 86 2.42 2.26 0.3 1.43 2.5 1.38 3.12 278 2 12.72 1.81 2.2 18.8 86 2.2 2.53 0.26 1.77 3.9 1.16 3.14 714 2 12.08 1.13 2.51 24 78 2 1.58 0.4 1.4 2.2 1.31 2.72 630 2 13.05 3.86 2.32 22.5 85 1.65 1.59 0.61 1.62 4.8 0.84 2.01 515 2 11.84 0.89 2.58 18 94 2.2 2.21 0.22 2.35 3.05 0.79 3.08 520 2 12.67 0.98 2.24 18 99 2.2 1.94 0.3 1.46 2.62 1.23 3.16 450 2 12.16 1.61 2.31 22.8 90 1.78 1.69 0.43 1.56 2.45 1.33 2.26 495 2 11.65 1.67 2.62 26 88 1.92 1.61 0.4 1.34 2.6 1.36 3.21 562 2 11.64 2.06 2.46 21.6 84 1.95 1.6 0.48 1.35 2.8 1 2.75 680 2 12.08 1.33 2.3 23.6 70 2.2 1.59 0.42 1.38 1.74 1.07 3.21 625 2 12.08 1.83 2.32 18.5 81 1.6 1.5 0.52 1.64 2.4 1.08 2.27 480 2 12 1.51 2.42 22 86 1.45 1.25 0.5 1.63 3.6 1.05 2.65 450 2 12.69 1.53 2.26 20.7 80 1.38 1.46 0.58 1.62 3.05 0.96 2.06 495 2 12.29 2.83 2.22 18 88 2.45 2.25 0.25 1.99 2.15 1.15 3.3 290 2 11.62 1.99 2.28 18 98 3.02 2.26 0.17 1.35 3.25 1.16 2.96 345 2 12.47 1.52 2.2 19 162 2.5 2.27 0.32 3.28 2.6 1.16 2.63 937 2 11.81 2.12 2.74 21.5 134 1.6 0.099 0.14 1.56 2.5 0.95 2.26 625 2 12.29 1.41 1.98 16 85 2.55 2.5 0.29 1.77 2.9 1.23 2.74 428 2 12.37 1.07 2.1 18.5 88 3.52 3.75 0.24 1.95 4.5 1.04 2.77 660 2 12.29 3.17 2.21 18 88 2.85 2.99 0.45 2.81 2.3 1.42 2.83 406 2 12.08 2.08 1.7 17.5 97 2.23 2.17 0.26 1.4 3.3 1.27 2.96 710 2 12.6 1.34 1.9 18.5 88 1.45 1.36 0.29 1.35 2.45 1.04 2.77 562 2 12.34 2.45 2.46 21 98 2.56 2.11 0.34 1.31 2.8 0.8 3.38 438 2 11.82 1.72 1.88 19.5 86 2.5 1.64 0.37 1.42 2.06 0.94 2.44 415 2 12.51 1.73 1.98 20.5 85 2.2 1.92 0.32 1.48 2.94 1.04 3.57 672 2 12.42 2.55 2.27 22 90 1.68 1.84 0.66 1.42 2.7 0.86 3.3 315 2 12.25 1.73 2.12 19 80 1.65 2.03 0.37 1.63 3.4 1 3.17 510 2 12.72 1.75 2.28 22.5 84 1.38 1.76 0.48 1.63 3.3 0.88 2.42 488 2 12.22 1.29 1.94 19 92 2.36 2.04 0.39 2.08 2.7 0.86 3.02 312 2 11.61 1.35 2.7 20 94 2.74 2.92 0.29 2.49 2.65 0.96 3.26 680

2 11.46 3.74 1.82 19.5 107 3.18 2.58 0.24 3.58 2.9 0.75 2.81 562 2 12.52 2.43 2.17 21 88 2.55 2.27 0.26 1.22 2 0.9 2.78 325 2 11.76 2.68 2.92 20 100 1.75 2.03 0.6 1.05 3.8 1.23 2.5 607 2 11.41 0.74 2.5 21 88 2.48 2.01 0.42 1.44 3.08 1.1 2.31 434 2 12.08 1.39 2.5 22.5 84 2.56 2.29 0.43 1.04 2.9 0.93 3.19 385 2 11.03 1.51 2.2 21.5 85 2.46 2.17 0.52 2.01 1.9 1.71 2.87 407 2 11.82 1.47 1.99 20.8 86 1.98 1.6 0.3 1.53 1.95 0.95 3.33 495 2 12.42 1.61 2.19 22.5 108 2 2.09 0.34 1.61 2.06 1.06 2.96 345 2 12.77 3.43 1.98 16 80 1.63 1.25 0.43 0.83 3.4 0.7 2.12 372 2 12 3.43 2 19 87 2 1.64 0.37 1.87 1.28 0.93 3.05 564 2 11.45 2.4 2.42 20 96 2.9 2.79 0.32 1.83 3.25 0.8 3.39 625 2 11.56 2.05 3.23 28.5 119 3.18 5.08 0.47 1.87 6 0.93 3.69 465 2 12.42 4.43 2.73 26.5 100 2.2 2.13 0.43 1.71 2.08 0.92 3.12 365 2 13.05 5.8 2.13 21.5 86 2.62 2.65 0.3 2.01 2.6 0.73 3.1 380 2 11.87 4.31 2.39 21 82 2.86 3.03 0.21 2.91 2.8 0.75 3.64 380 2 12.07 2.16 2.17 21 85 2.6 2.65 0.37 1.35 2.76 0.86 3.28 378 2 12.43 1.53 2.29 21.5 86 2.74 3.15 0.39 1.77 3.94 0.69 2.84 352 2 11.79 2.13 2.78 28.5 92 2.13 2.24 0.58 1.76 3 0.97 2.44 466 2 12.37 1.63 2.3 24.5 88 2.22 2.45 0.4 1.9 2.12 0.89 2.78 342 2 12.04 4.3 2.38 22 80 2.1 1.75 0.42 1.35 2.6 0.79 2.57 580 3 12.86 1.35 2.32 18 122 1.51 1.25 0.21 0.94 4.1 0.76 1.29 630 3 12.88 2.99 2.4 20 104 1.3 1.22 0.24 0.83 5.4 0.74 1.42 530 3 12.81 2.31 2.4 24 98 1.15 1.09 0.27 0.83 5.7 0.66 1.36 560 3 12.7 3.55 2.36 21.5 106 1.7 1.2 0.17 0.84 5 0.78 1.29 600 3 12.51 1.24 2.25 17.5 85 2 0.58 0.6 1.25 5.45 0.75 1.51 650 3 12.6 2.46 2.2 18.5 94 1.62 0.66 0.63 0.94 7.1 0.73 1.58 695 3 12.25 4.72 2.54 21 89 1.38 0.47 0.53 0.8 3.85 0.75 1.27 720 3 12.53 5.51 2.64 25 96 1.79 0.6 0.63 1.1 5 0.82 1.69 515 3 13.49 3.59 2.19 19.5 88 1.62 0.48 0.58 0.88 5.7 0.81 1.82 580 3 12.84 2.96 2.61 24 101 2.32 0.6 0.53 0.81 4.92 0.89 2.15 590 3 12.93 2.81 2.7 21 96 1.54 0.5 0.53 0.75 4.6 0.77 2.31 600 3 13.36 2.56 2.35 20 89 1.4 0.5 0.37 0.64 5.6 0.7 2.47 780 3 13.52 3.17 2.72 23.5 97 1.55 0.52 0.5 0.55 4.35 0.89 2.06 520 3 13.62 4.95 2.35 20 92 2 0.8 0.47 1.02 4.4 0.91 2.05 550 3 12.25 3.88 2.2 18.5 112 1.38 0.78 0.29 1.14 8.21 0.65 2 855 3 13.16 3.57 2.15 21 102 1.5 0.55 0.43 1.3 4 0.6 1.67 830 3 13.88 5.04 2.23 20 80 0.98 0.34 0.4 0.68 4.9 0.58 1.33 415 3 12.87 4.61 2.48 21.5 86 1.7 0.65 0.47 0.86 7.65 0.54 1.86 625 3 13.32 3.24 2.38 21.5 92 1.93 0.76 0.45 1.25 8.42 0.55 1.62 650 3 13.08 3.9 2.36 21.5 113 1.41 1.39 0.34 1.14 9.4 0.57 1.33 550 3 13.5 3.12 2.62 24 123 1.4 1.57 0.22 1.25 8.6 0.59 1.3 500 3 12.79 2.67 2.48 22 112 1.48 1.36 0.24 1.26 10.8 0.48 1.47 480 3 13.11 1.9 2.75 25.5 116 2.2 1.28 0.26 1.56 7.1 0.61 1.33 425 3 13.23 3.3 2.28 18.5 98 1.8 0.83 0.61 1.87 10.52 0.56 1.51 675 3 12.58 1.29 2.1 20 103 1.48 0.58 0.53 1.4 7.6 0.58 1.55 640 3 13.17 5.19 2.32 22 93 1.74 0.63 0.61 1.55 7.9 0.61 1.48 725 3 13.84 4.12 2.38 19.5 89 1.8 0.83 0.48 1.56 9.01 0.57 1.64 480 3 12.45 3.03 2.64 27 97 1.9 0.58 0.63 1.14 7.5 0.67 1.73 880 3 14.34 1.68 2.7 25 98 2.8 1.31 0.53 2.7 13 0.57 1.96 660 3 13.48 1.67 2.64 22.5 89 2.6 1.1 0.52 2.29 11.75 0.57 1.78 620 3 12.36 3.83 2.38 21 88 2.3 0.92 0.5 1.04 7.65 0.56 1.58 520 3 13.69 3.26 2.54 20 107 1.83 0.56 0.5 0.8 5.88 0.96 1.82 680 3 12.85 3.27 2.58 22 106 1.65 0.6 0.6 0.96 5.58 0.87 2.11 570 3 12.96 3.45 2.35 18.5 106 1.39 0.7 0.4 0.94 5.28 0.68 1.75 675 3 13.78 2.76 2.3 22 90 1.35 0.68 0.41 1.03 9.58 0.7 1.68 615 3 13.73 4.36 2.26 22.5 88 0.128 0.47 0.52 1.15 6.62 0.78 1.75 520 3 13.45 3.7 2.6 23 111 1.7 0.92 0.43 1.46 10.68 0.85 1.56 695 3 12.82 3.37 2.3 19.5 88 1.48 0.66 0.4 0.97 10.26 0.72 1.75 685 23

24 3 13.58 2.58 2.69 24.5 105 1.55 0.84 0.39 1.54 8.66 0.74 1.8 750 3 13.4 4.6 2.86 25 112 1.98 0.96 0.27 1.11 8.5 0.67 1.92 630 3 12.2 3.03 2.32 19 96 1.25 0.49 0.4 0.73 5.5 0.66 1.83 510 3 12.77 2.39 2.28 19.5 86 1.39 0.51 0.38 0.64 9.89 0.57 1.63 470 3 14.16 2.51 2.48 20 91 1.68 0.7 0.44 1.24 9.7 0.62 1.71 660 3 13.71 5.65 2.45 20.5 95 1.68 0.61 0.52 1.06 7.7 0.64 1.74 740 3 13.4 3.91 2.48 23 102 1.8 0.75 0.43 1.41 7.3 0.7 1.56 750 3 13.27 4.28 2.26 20 120 1.59 0.69 0.43 1.35 10.2 0.59 1.56 835 3 13.17 2.59 2.37 10 120 1.65 0.68 0.53 1.46 9.3 0.6 1.62 840 3 14.13 4.1 2.74 24.5 96 2.05 0.76 0.56 1.35 9.2 0.61 1.6 560 Keterangan : Kel : Kelompok P1 : Alcohol P2 : Malic Acid P3 : Ash P4 : Alcanity of Ash P5 : Magnesium P6 : Total phenols P7 : Flavanoids P8 : Nonflavanoids P9 : Phenols P10 : Proanthocyanins P11 : Color Intensity P12 : OD280/OD315 of Diluted Wines P13 : Proline

25 Lampiran 2 Data dua komponen utama pertama dari berbagai kondisi I II III KU 1 KU 2 KU 1 KU 2 KU 1 KU 2 9.786389-1.81589 3.509897 5.836362-6.4456 6.565006 3.753162 2.245728 1.045716 0.267604-1.64299 0.478098 9.157842-3.16716 2.661984 2.342025-4.36572 1.740189 12.83067-6.81858 8.49931 9.889319-13.1684 10.24562 4.170684-1.66059 1.44233-1.98596-1.64859-3.64906 9.84733-4.90858 6.359 6.001295-9.66634 6.803569 6.458679-1.48812 3.818427 2.888127-5.81795 3.197675 5.908853-4.09157 3.823778 0.461816-5.08647-0.34805 5.756098-0.13544 3.730067 2.728816-5.67627 3.516209 7.524987-0.99148 2.765597 3.628286-4.84805 4.335251 11.23893-3.03632 4.492265 7.281643-7.75934 8.190426 4.038562 0.124569 2.638122 0.245714-3.47025 0.19305 5.798488-1.06173 2.852206 1.507656-4.25457 1.799249 10.0722-1.79096 4.542203 7.523731-8.52334 9.846653 13.78086-5.44115 8.159716 13.32057-14.2421 16.1253 7.816128-4.07148 4.077975 2.26208-5.96349 2.076568 8.120226-5.06382 4.82682 1.724442-6.50868 0.929777 7.337359-3.83863 3.330283 0.9205-4.65161 0.29522 12.92816-7.20825 8.285306 9.411611-12.9712 10.32291 5.275166-1.27953 2.434877 0.363835-3.74287 0.207772 8.450815 0.065133 1.785663 4.185577-3.97747 5.229254 3.462376-1.03903 1.103319-2.07465-1.4093-3.03199 6.415332 1.872203 0.58097 1.670586-1.6381 1.946289 3.857621 2.373439 0.362295-1.12744-0.42582-1.32316 4.813543 2.397744 0.313094-0.89191-0.56426-1.42738 5.65528-1.77827 1.393285-2.43846-1.44969-6.48195 4.967659-0.79713 2.265608 0.240825-3.20834 0.12664 2.111381 1.220342 1.496764-1.42153-1.69986-1.90008 7.31549-0.44695 1.575115 0.918585-2.69613 0.071293 5.138291 1.069265 1.783772 1.205832-2.88089 1.502428 9.541004-2.76361 2.97474 2.659342-4.55578 1.894881 8.90675-3.67527 4.363412 4.063686-6.4651 4.287361 4.434526 0.787361 1.343152-0.61296-1.80721-0.5814 7.228097-3.64513 3.26093 0.749859-4.53713-0.37335 3.978303-0.2108 1.871559-0.92357-2.22735-1.41172 5.788391 0.40282 1.096609-0.01408-1.78463-0.39418 3.439736 0.116277 1.722262-1.12614-2.19687-1.53422 2.658114 0.762014 1.402254-1.592-1.52117-1.88036 2.354803 3.134321 0.627242-1.72649-0.46589-2.00235 6.699743-3.28013 4.044426 1.626808-6.42321 1.522337 7.702932-1.22066 2.007432 2.515794-3.72369 2.958446 1.685251-1.07758 1.306755-2.2032-1.41697-2.72448 8.278622-0.92609 3.383029 4.599275-5.87063 5.143971 1.055487-1.15723 1.18535-2.45983-1.14813-2.94861 5.310966 0.792778 1.040063 0.355487-1.73101 0.518205 3.874799-4.65197 2.875684-1.23067-3.50484-1.89009 8.11777-2.89328 3.744275 3.191497-6.22753 3.33706 7.379256-0.39753 2.673844 3.519514-4.64163 4.280945 6.6771-2.7567 3.108715 1.14415-4.48791 1.240112 9.580824-5.28222 4.789673 4.569348-7.52293 5.011538 8.250966-0.63385 2.419496 4.95497-4.69178 6.530223

26 8.626081-0.81446 2.599306 3.857705-4.60236 4.324183 10.90077-3.69627 4.92048 7.730051-8.64357 8.912265 7.76963-4.66161 4.430368 2.149613-6.28841 1.862595 5.274755-0.82884 2.786621 1.17034-3.91547 1.345006 7.999969-2.48625 2.876091 2.292462-4.28798 2.199407 7.67593-2.07435 3.771804 3.555254-5.9483 4.125799 7.124352-2.85633 3.228656 1.653651-4.73241 1.545301 9.584616-3.13329 4.951662 5.795833-7.67881 6.478342-7.21662 8.387039 1.846343-5.49562-1.21749-13.3226-5.62765 3.566384 1.330026-2.05638-1.68139-4.10345-6.23614 2.118151 0.316034-1.10977-0.47079-2.82129-2.24606 4.745041 1.04904-3.76422-0.51121-5.35809 4.338035 5.468632-1.72984-2.12348 2.569721-1.98376-2.57543 5.091537 1.756838-3.19645-1.33605-4.291 2.335796 2.347656 0.715973-2.50611-0.3944-2.96856 3.995804 5.121583-0.93782-1.40911 1.171596-1.4102-1.27688 5.967125 0.882333-4.76782-0.19379-5.84531-3.75896 2.260953 0.673979-2.62813-0.68968-3.93664 2.69167 5.374232-1.6198-3.06748 3.148722-2.17414-5.22922 2.63036 0.633942-1.20368-1.03201-1.92109 4.859102 4.610944-0.58587-2.19167 1.111309-3.28465-2.89288 3.993521 1.304619-2.727-1.02785-3.14166 10.19138 0.630729-0.91064 1.488421 0.6711-1.36642 3.827848 4.33048-1.03143-1.66121 1.703451-1.59048-4.49672 5.586441 2.217855-3.59329-1.70811-5.7387-2.00868 6.320964 0.966724-4.67319-0.12666-6.64018-5.17447 3.154878 1.710179-1.30347-1.78502-1.83774 1.573946 3.201805 0.267018-2.86392 0.424015-2.69247 1.995167 1.560731 0.795725-3.12655-0.32528-4.54037-0.19387 8.822604-0.21555-5.81847 2.110226-6.68791 1.784548 4.032886 0.275583-3.03348 0.228421-3.47389-1.67914 6.02374 2.160682-3.89526-1.58415-4.8532-6.01737-1.81653-1.6421 1.310296 2.090955 2.641012 0.807726 5.050278 0.401633-3.43046 0.262105-3.70533 0.014468 6.647076 0.136494-3.93958 0.928421-4.2778-2.70687 5.419469 2.480014-3.19428-2.14237-4.16194-1.04681 5.405184 2.471915-3.79733-2.01675-4.91583-3.15591 3.454924 2.207558-2.44161-2.18548-2.97244-2.1219 6.37728 2.076645-4.15303-1.6325-5.0359-4.59434 4.832849 2.539667-2.04974-2.49626-3.09119-4.43772 4.020417 2.747029-1.64973-2.97998-2.16918-5.65208 3.659653 1.762424-0.64783-2.1397-1.26251 0.348294 5.990998 0.444748-4.29383 0.631772-5.11752 0.657316 5.912565-0.24977-4.10327 1.419364-4.58013 7.323338 1.012426-0.1851 0.351032 0.389623 1.237349-3.78356 2.583183 0.586327-1.75279-0.82682-2.30327 0.389468 6.840253-0.14057-4.45017 1.532361-5.30726 5.465785 4.07307-1.12574-0.63365 1.491636-0.38427 4.030424 4.307769-0.43124-3.3586 1.725512-4.42405 0.053911 5.498395 0.050449-4.65694 1.174592-6.03615-3.9141 6.485572 1.795254-3.81621-1.29454-5.46774-1.00562 3.37776 1.217378-3.13787-1.02031-3.76496-3.65166 6.313462 2.337409-3.89613-1.87368-5.47089-0.27008 5.3117 0.598061-4.08636 0.021593-4.94708-4.5915 3.340449 2.370414-0.91798-2.70244-1.12904-2.20808 5.214084 1.698043-3.75203-1.21267-4.70248-4.59053 3.385566 1.71795-1.27673-1.89946-1.58896-1.42627 6.024766 1.473593-4.20916-0.73408-5.17348

4.490051 4.205295-0.66563-2.51267 1.49617-3.49431 3.820942 1.650908 0.766229-3.6994 0.045096-5.12259-2.28527 5.515818 1.545936-3.5414-1.08199-4.32112-2.7624 0.797803 1.780198-1.83575-1.71879-2.67467-1.86935 5.615467 2.135787-3.66693-1.58344-4.70447-1.63294 5.082546 1.857439-3.58387-1.51757-4.32293 1.14478 8.205243 0.588463-6.21215 1.806037-7.94934-2.48767 7.044489 1.835468-4.50847-1.20937-5.50395-1.33183 5.810454 1.473056-3.55765-0.93533-4.15813-8.08961 2.971579 0.211381 1.350726-0.43717 0.323952-2.79471 4.589654 1.863681-3.45256-1.35317-4.55474 2.084442 2.867921 0.489961-3.39166 0.024425-4.40051 9.662481-2.15353 0.034233-2.36167-0.45401-10.9886-1.84825 0.665443 1.521648-1.78407-1.48795-3.03548-1.02752 0.002271 0.827025-2.75938-0.4903-3.81961 3.253316 2.219348 0.645838-4.07992-0.4004-6.56973-0.96894 5.057609 1.409847-3.93827-0.90893-4.81348 0.045545 3.448048 1.274998-3.48148-0.78356-4.33599-2.21796 1.668448 2.609628-1.80771-2.80735-3.23091-1.41588 5.194775 2.044396-3.45089-1.69261-4.38095-4.61705 1.096814 1.127726-0.56936-1.18788-0.23082-5.52991 2.201567-0.97508-1.52257 0.692606-2.68874-7.23395 0.088331-2.59581 1.284551 2.538054 1.608778-8.01002 0.148173-3.0253 2.885614 2.632688 3.941408-6.52877-0.30058-2.30001 0.757324 2.191953 1.156283-7.10296 0.710548-1.15505 0.339417 0.896971-0.46561-8.2768-2.42232-3.94212 2.354189 4.392313 3.034818-10.1692-2.31563-4.92998 7.227996 4.388443 10.5497-9.40313-5.18882-5.48947 6.803315 6.059021 11.13208-8.70874-1.95209-4.11862 3.1353 4.721276 4.386751-6.00856-1.71189-1.10599 0.614368 1.288964 1.650518-7.56199-0.85982-1.90619 2.01399 1.953638 3.240822-6.90704-0.42303-2.06403 0.505712 2.534071 0.831671-8.01752-1.01707-2.50192 2.859553 2.668673 4.517318-6.81496-2.36677-2.70374 1.30066 3.537772 2.72582-6.17489-4.3417-3.77962 0.069972 5.064322 0.756676-7.50814-1.71772-3.63447 1.525225 3.799733 2.50634-11.8569-1.48634-8.92145 9.614967 9.404829 12.60309-8.97921-5.28417-7.54975 4.530728 9.294386 8.039356-7.12252-5.05063-6.16377 1.148916 8.131156 3.010398-7.24849-6.02888-7.55357 1.45392 9.849141 3.508944-5.71802-5.10724-6.16083-0.46477 8.092538 0.595153-6.36313-5.20103-6.59552 0.188302 8.939415 1.519094-4.37786-2.73764-2.98867-1.36395 3.970807-1.28935-6.6468-8.15667-7.99183 0.268703 11.13395 2.201244-7.572-1.46683-3.37427 1.096807 3.83681 1.110961-8.57795-8.31335-9.66496 3.816318 12.33954 7.977949-7.47698-6.22832-7.82582 1.49145 10.59463 3.72416-7.18287-6.55269-5.66687 2.316314 6.944948 5.334298 0.10083-11.6223-4.29222-4.72933 8.574922-4.55718-2.53567-8.22134-4.54149-2.99253 7.808878-2.29855-7.86382-4.0855-4.8314 2.914776 6.007733 5.126414-6.35725-3.14826-3.01289 0.042166 3.896979 0.837322-7.30763-2.74069-2.58956 2.014544 2.954849 3.55819-7.66-1.65032-3.50594 1.52728 3.910587 2.26263-7.68501-4.45623-6.61324 1.624559 8.737821 3.249791-11.0377-3.08523-8.27061 8.564782 9.181175 12.24453-5.18511-9.00717-6.69336-0.89886 9.574166 0.973 27

28-7.61339-5.05479-6.11426 1.90962 8.032526 3.459621-4.81442-5.86675-4.62163-1.14705 6.658241-0.06718-5.25738-7.80065-6.12354-0.56362 8.620186 1.038686-9.20117 0.291269-2.32738 4.1434 1.778966 4.97418-9.35597-2.40632-6.27633 3.893597 7.567508 5.101489-6.50623-5.54072-6.49305-0.32853 9.196301 0.921084-8.51972-8.27104-9.81871 3.059414 12.85547 7.063796-6.32788-5.87549-5.64901 0.566728 7.384555 2.565667-6.67803-9.24573-8.44689-0.18001 11.80274 1.971595-5.61076-5.94205-4.55176-2.19442 6.381587-2.86632-7.24153-9.12541-9.89146 0.924442 13.7471 4.244518

29 Lampiran 3 Fungsi yang digunakan untuk memperoleh nilai perbedaan minimum antarkonfigurasi function E=eproc(X,Y) E=sum(sum((X-Y).^2)); function E=TRD(X,Y) [rx,cx]=size(x); [ry,cy]=size(y); CX=mean(X); CY=mean(Y); X=X-ones(rx,1)*CX; Y=Y-ones(ry,1)*CY; [U,S,V]=svd(X'*Y); Q=V*U'; Y=Y*Q; c=trace(x *Y)/trace(Y *Y); Y=c*Y; E=eproc(X,Y)

30 Lampiran 4 Fungsi yang digunakan untuk memperoleh matriks komponen utama menggunakan metode kernel function Z = polinom2(x,r,ho) [rx,cx] = size(x); if r > cx error('number of principal component must be smaller than that of variables.') end K = zeros (rx,rx); for i = 1:rx, for j=1:i, K(i,j) = (X(i,:)*X(j,:)'+ho).^2; K(j,i)=K(i,j); end end vector1 = ones (size(k))/rx; K = K - repmat(mean(k),rx,1); [v,lambda]=eig(k); for j = 1:size(v,2) v(:,j)=v (:,j)./(sqrt(lambda(j,j))); end [l,k] = sort(diag(lambda),'descend'); v = v(:,k); Z = zeros(rx,r); for j = 1:r Z(:,j) = K*v(:,j); end

31 RIWAYAT HIDUP Penulis dilahirkan di Sumedang, Jawa Barat pada tanggal 28 April 1992 sebagai anak pertama dari tiga bersaudara dari pasangan Wawan Rohendi dan Yeni Widayani. Pendidikan formal yang ditempuh penulis yaitu di TK Gelatik Kabupaten Sumedang lulus tahun 1998, SD Negeri Cikubang Kabupaten Sumedang lulus pada tahun 2004, SMP Negeri 1 Tanjungsari Kabupaten Sumedang lulus pada tahun 2007, dan SMA Negeri Tanjungsari lulus pada tahun 2010 kemudian di tahun yang sama penulis diterima di Departemen Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam Institut Pertanian Bogor melalui jalur USMI. Selama menuntut ilmu di Institut Pertanian Bogor, penulis mendapatkan beasiswa penuh dari Bidikmisi dan penulis juga aktif di organisasi kemahasiswaan Gugus Mahasiswa Matematika (GUMATIKA) pada periode kepengurusan 2012-2013 sebagai staf PSDM. Penulis pernah menjadi Asisten Praktikum Fisika Dasar pada tahun 2011.