BAB 2 LANDASAN TEORI

dokumen-dokumen yang mirip
BAB 2 TINJAUAN PUSTAKA

Minggu XI ANALISIS KOMPONEN UTAMA. Utami, H

Bab 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI. Analisis Komponen Utama (AKU, Principal Componen Analysis) bermula dari

BAB III PEREDUKSIAN RUANG INDIVIDU DENGAN ANALISIS KOMPONEN UTAMA. Analisis komponen utama adalah metode statistika multivariat yang

BAB II KAJIAN TEORI. linier, varian dan simpangan baku, standarisasi data, koefisien korelasi, matriks

BAB III ANALISIS FAKTOR. berfungsi untuk mereduksi dimensi data dengan cara menyatakan variabel asal

BAB 2 LANDASAN TEORI

BAB III PEMBAHASAN. Analisis cluster merupakan analisis yang bertujuan untuk. mengelompokkan objek-objek pengamatan berdasarkan karakteristik yang

BAB II LANDASAN TEORI. yang biasanya dinyatakan dalam bentuk sebagai berikut: =

TINJAUAN PUSTAKA Analisis Gerombol

SATUAN ACARA PERKULIAHAN MATA KULIAH : ALJABAR LINIER JURUSAN : TEKNIK KOMPUTER JUMLAH SKS : Definisi, Notasi, dan Operasi Vektor 2.

BAB II TINJAUAN PUSTAKA. tegak, perlu diketahui tentang materi-materi sebagai berikut.

aljabar geo g metr me i

SATUAN ACARA PERKULIAHAN MATA KULIAH : ALJABAR LINIER KODE / SKS : IT / 2 SKS

1.1. Definisi, Notasi, dan Operasi Vektor 1.2. Susunan Koordinat Ruang R n 1.3. Vektor di dalam R n 1.4. Persamaan garis lurus dan bidang rata

Analisis Tingkat Kepuasan Mahasiswa Terhadap Kualitas Pelayanan Akademik Menggunakan Analisis Faktor

BAB 2 LANDASAN TEORI

BAB III ANALISIS KORELASI KANONIK ROBUST DENGAN METODE MINIMUM COVARIANCE DETERMINAN

BAB II TINJAUAN PUSTAKA

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB II TINJAUAN PUSTAKA. dari variabel-variabel yang saling berkorelasi. Analisis peubah ganda dapat

BAB II TINJAUAN PUSTAKA. Dalam bab ini dibahas tentang matriks, metode pengganda Lagrange, regresi

Matriks adalah susunan segi empat siku-siku dari objek yang diatur berdasarkan baris (row) dan kolom (column). Objek-objek dalam susunan tersebut

BAB 2 LANDASAN TEORI

TINJAUAN PUSTAKA. bebas digunakan jarak euclidean - sedangkan bila terdapat. korelasi antar peubah digunakan jarak mahalanobis - -

PENERAPAN ANALISIS KOMPONEN UTAMA DALAM PENENTUAN FAKTOR DOMINAN YANG MEMPENGARUHI PRESTASI BELAJAR SISWA (Studi Kasus : SMAN 1 MEDAN)

GARIS-GARIS BESAR PROGRAM PEMBELAJARAN

TINJAUAN PUSTAKA Analisis Biplot Biasa

BAB 2 LANDASAN TEORI. 2.1 Faktor - Faktor yang Mempengaruhi Hasil Produksi Kentang

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

Analisis Faktor dan Pengelompokan Kecamatan berdasarkan Indikator Mutu Pendidikan Jenjang Pendidikan Dasar di Kabupaten Sidoarjo

Analisis Cluster, Analisis Diskriminan & Analisis Komponen Utama. Analisis Cluster

BAB II TINJAUAN PUSTAKA. penelitian ini, yaitu analisis peubah ganda, analisis gerombol (cluster analysis),

BAB II TINJAUAN PUSTAKA. Dalam bab ini akan dipaparkan beberapa teori pendukung yang digunakan dalam

BAB 2 LANDASAN TEORI

IV METODE PENELITIAN 4.1. Lokasi dan Waktu penelitian 4.2. Data dan Metode Pengambilan Sampel

Analisis Cluster Average Linkage Berdasarkan Faktor-Faktor Kemiskinan di Provinsi Jawa Timur

SILABUS PERKULIAHAN METODE STATISTIKA MULTIVARIAT 3 SKS KODE :

MATEMATIKA INFORMATIKA 2 TEKNIK INFORMATIKA UNIVERSITAS GUNADARMA FENI ANDRIANI

BAB II KAJIAN TEORI. Bab ini berisi teori-teori pendukung Analisis Profil dengan

ALJABAR LINIER MAYDA WARUNI K, ST, MT ALJABAR LINIER (I)

6 Sistem Persamaan Linear

BAB II LANDASAN TEORI

BAB II KAJIAN PUSTAKA. operasi matriks, determinan dan invers matriks), aljabar max-plus, matriks atas

Analisis Komponen Utama (Principal component analysis)

BAB II TINJAUAN PUSTAKA

Pertemuan 3 & 4 INTERPRETASI GEOMETRI DAN GENERALISASI VARIANS. Interpretasi Geometri pada Sampel. Generalisasi varians

BAB III METODE PENELITIAN. September). Data yang dikumpulkan berupa data jasa pelayanan pelabuhan, yaitu

Pertemuan 4 Aljabar Linear & Matriks

Cluster Analysis. Hery Tri Sutanto. Jurusan Matematika MIPA UNESA. Abstrak

Sistem Persamaan Linier dan Matriks

BAB 2 LANDASAN TEORI

Aljabar Linear Elementer

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI

TINJAUAN PUSTAKA. dianalisis dan hasilnya ditransformasi menjadi matriks berukuran??

KAJIAN FAKTOR PENYEBAB PENDERITA HIPERTENSI DENGAN MENGGUNAKAN ANALISIS FAKTOR DI KOTAMADYA MEDAN (Studi Kasus : RSUP H.

BAB. IX ANALISIS REGRESI FAKTOR (REGRESSION FACTOR ANALYSIS)

BAB II TEORI KODING DAN TEORI INVARIAN

BAB I MATRIKS DEFINISI : NOTASI MATRIKS :

& & # = atau )!"* ( & ( ( (&

BAB III K-MEDIANS CLUSTERING

BAB III MINIMUM VOLUME ELLIPSOID PADA ANALISIS KOMPONEN UTAMA ROBUST. Pada bab ini akan dikaji bahasan utama yaitu pencilan dan analisis

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI. memperlakukan sekelompok variabel kriteria yang saling berkorelasi sebagai satu

Rotasi Varimax dan Median Hirarki Cluster Pada Program Raskin di Kabupaten Lombok Barat

Togu P. Marpaung, Normalina Napitupulu, Rachmad Sitepu

FAKTOR FAKTOR YANG MEMENGARUHI MINAT MAHASISWA ASAL LUAR BALI KULIAH DI FMIPA UNIVERSITAS UDAYANA BALI

Pertemuan 1 Sistem Persamaan Linier dan Matriks

ANALISIS KANONIK MELALUI PENDEKATAN RUANG DUAL. (Skripsi) Oleh. Dwi Mayasari

BAB III K-MEANS CLUSTERING. Analisis klaster merupakan salah satu teknik multivariat metode

ANALISIS FAKTOR YANG MEMPENGARUHI TINGKAT PRODUKSI PADI SAWAH DI KABUPATEN PADANG LAWAS

TINJAUAN PUSTAKA. Matriks adalah suatu susunan bilangan berbentuk segi empat. Bilangan-bilangan

BAB II KAJIAN TEORI. Sebuah Matriks adalah susunan segi empat siku-siku dari bilangan-bilangan.

Klasifikasi Kecamatan Berdasarkan Nilai Akhir SMA/MA di Kabupaten Aceh Selatan Menggunakan Analisis Diskriminan

BAB I PENDAHULUAN 1.1 Latar Belakang

MODUL E LEARNING SEKSI -1 MATA KULIAH : ALJABAR LINIER KODE MATA KULIAH : ESA 151 : 5099 : DRA ENDANG SUMARTINAH,MA

BAB III METODE SERVQUAL. Secara umum alur penelitian yang dilakukan, disajikan pada diagram berikut. start

II. TINJAUAN PUSTAKA. Suatu matriks didefinisikan dengan huruf kapital yang dicetak tebal, misalnya A,

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI

BAB I PENDAHULUAN. Ruang lingkup analisis multivariat adalah terdiri dari analisis statistika

ANALISIS KOMPONEN UTAMA PADA PENERAPAN APLIKASI PEMBELAJARAN METODE GLENN DOMAN

BAB III METODE FULL INFORMATION MAXIMUM LIKELIHOOD (FIML)

Minggu II STATISTIKA MULTIVARIATE TERAPAN

Trihastuti Agustinah

Teknik Reduksi Dimensi Menggunakan Komponen Utama Data Partisi Pada Pengklasifikasian Data Berdimensi Tinggi dengan Ukuran Sampel Kecil

PERBANDINGAN ANALISIS FAKTOR KLASIK DAN ANALISIS FAKTOR ROBUST UNTUK DATA INFLASI KELOMPOK BAHAN MAKANAN DI JAWA TENGAH

S 10 Studi Simulasi Tentang Penerapan Grafik Pengendali Berdasarkan Analisis Komponen Utama (Principal Component Analysis)

MATRIKS VEKTOR DETERMINAN SISTEM LINEAR ALJABAR LINEAR

TINJAUAN PUSTAKA. Model Regresi Linier Ganda

Tujuan. Mhs dapat mendemonstrasikan operasi matriks: penjumlahan, perkalian, dsb. serta menentukan matriks inverse

ANALISIS BIPLOT UNTUK PEMETAAN KARAKTERISTIK KEMISKINAN PADA KABUPATEN/KOTA DI JAWA TIMUR. Gangga Anuraga ABSTRAK

Analisis Pengendalian Kualitas Multivariate Air Minum (Studi Kasus di PDAM Gresik)

Transkripsi:

BAB 2 LANDASAN TEORI Pada bab ini akan diuraikan mengenai landasan teori yang akan digunakan dalam bab selanjutnya. 2.1 Matriks Sebuah matriks, biasanya dinotasikan dengan huruf kapital tebal seperti A, B, dan sebagainya, yang merupakan susunan segiempat dari bilangan-bilangan dengan n baris dan p kolom (Johnson dan Wichern, 2007). Matriks A dengan n baris dan p kolom dapat ditulis sebagai berikut: [ ] Atau dapat ditulis juga, -, di mana untuk menyatakan entri yang terdapat di dalam baris i dan kolom j dari A. a. Operasi pada Matriks Berikut ini beberapa bentuk operasi pada matriks: 1. Kesamaan Matriks Dua matriks, - dan, - dikatakan sama, ditulis A = B, jika,, (Johnson dan Wichern, 2007). Jadi dua matriks dikatakan sama jika: a. Ukuran kedua matriks sama, b. Setiap elemen yang bersesuaian pada kedua matriks tersebut sama. 2. Penjumlahan dan Pengurangan Matriks Jika A dan B adalah sebarang dua matriks dengan ukuran sama, maka jumlah adalah adalah matriks yang diperoleh dengan menambahkan setiap entri pada entri...yang bersesuaian, dan pengurangan

adalah matriks yang diperoleh dengan mengurangkan entri dari entri yang bersesuaian. Matriks dengan ukuran yang berbeda tidak bisa di jumlahkan atau dikurangkan (Johnson dan Wichern, 2007). Misalkan, [ ] dan [ ] Maka [ ] Dengan notasi matriks, -. [ ] Dengan notasi matriks, -. 3. Perkalian Matriks dengan Skalar Misalkan, - adalah suatu matriks dan c adalah skalar, maka hasil kali adalah matriks yang diperoleh dengan mengalikan setiap entri dari matriks oleh c. Matriks dikatakan perkalian skalar pada matriks, dinotasikan dengan, -. 4. Perkalian Matriks dengan Matriks Jika adalah matriks ( ) dan adalah matriks ( ), maka hasil kali matriks adalah matriks ( ) di mana entri pada baris ke-i dan kolom ke-j adalah hasil dari perkalian baris ke-i pada matriks dan kolom ke-j pada matriks. 5. Transpose Matriks Jika adalah suatu matriks ( ), maka transpose dinotasikan dengan adalah matriks yang diperoleh dengan mempertukarkan baris dan

kolom matriks, yaitu kolom pertama adalah baris pertama pada matriks, kolom kedua adalah baris kedua dari matriks, dan seterusnya. [ ] maka [ ] b. Matriks Khusus Matriks khusus adalah matriks yang mempunyai sifat tertentu sedemikian hingga dalam operasi pada matriks menghasilkan sifat-sifat khusus (Suryanto, 1988). Beberapa matriks khusus antara lain: 1. Matriks Persegi Matriks persegi adalah matriks dengan banyak kolom dan baris sama, secara matematis dapat ditulis: ( ) [ ] Barisan entri-entri yang nomor kolomnya sama dengan nomor barisnya ( ) disebut diagonal utama. Entri-entri yang nomor kolomnya lebih besar daripada nomor barisnya disebut unur-unsur diatas diagonal utama, sedangkan unsur-unsur yang nomor kolompoknya lebih kecil daripada barisnya disebut unsur-unsur di bawah diagonal utama (Suryanto, 1988). 2. Matriks Diagonal Matriks persegi yang semua entrinya nol kecuali pada diagonal utama disebut matriks diagonal. Suatu matriks diagonal dapat ditulis sebagai berikut: [ ]

Matriks diagonal yang setiap unsur diagonal utamanya adalah 1 disebut matriks identitas, misalkan [ ] 3. Matriks Simetris Suatu matriks persegi dikatakan simetris jika. Dengan kata lain, jika ( ) simetris maka dan. 2.2 Trace Matriks Trace dari sebuah matriks berukuran ditulis ( ) dan didefinisikan sebagai jumlah dari elemen-elemen diagonal, yaitu ( ) (Rencher, 2002). Jika dan matriks berukuran dan c adalah skalar, maka: a. ( ) ( ) b. ( ) ( ) ( ) c. ( ) ( ) d. ( ) ( ) 2.3 Eigenvalue dan Eigenvector Jika adalah matriks dan I merupakan matriks identitas. Maka skalar yang memenuhi persamaan polinomial dikatakan eigenvalue (akar karakteristik) dari matriks. Jika adalah matriks dan jika λ merupakan eigenvalue dari matriks. Jika x adalah vektor taknol sehingga, Maka x dikatakan eigenvector (vektor karakteristik) dari matriks yang terkait dengan eigenvalue λ.

2.4 Analisis Komponen Utama (Principal Component Analysis) Metode Analisis Komponen Utama bermula dari Karl Pearson pada tahun 1901 untuk peubah non-stokastik. Analisis ini kemudian ditetapkan menjadi peubah stokastik oleh Harold Hotelling pada tahun 1933. Analisis ini merupakan analisis tertua. Perhitungan dalam analisis ini pada waktu tersebut merupakan pekerjaan yang sukar walaupun hanya menggunakan beberapa peubah. Analisis ini baru berkembang penggunaannya setelah tersedia fasilitas komputasi elektronik (Jolliffe, 2002). Analisis Komponen Utama merupakan suatu teknik analisis statistik untuk mentransformasikan variabel-variabel asli yang masih berkorelasi satu dengan yang lain menjadi suatu variabel baru yang tidak berkorelasi lagi (Johnson dan Wichern, 2007). Analisis Komponen Utama bertujuan untuk menyederhanakan variabel yang diamati dengan cara menyusutkan dimensinya. Hal ini dilakukan dengan menghilangkan korelasi variabel melalui transformasi variabel asal ke variabel baru yang tidak berkorelasi. Variabel hasil mereduksi tersebut dinamakan principal component atau komponen utama (Aroef, 1991). Komponen utama adalah kombinasi linear dari variabel acak atau statistik yang memiliki sifat khusus dalam hal variasi (Anderson, 1984). Secara aljabar linier, komponen utama merupakan kombinasi-kombinasi linier dari p peubah acak. Secara geometri, kombinasi linier ini merupakan sistem koordinat baru yang diperoleh dari rotasi sistem semula dengan sebagai sumbu koordinat. Misalkan vektor acak, - merupakan matriks kovarian dengan eigenvalue λ 1 λ 2 λ p 0. Perhatikan kombinasi linier: dengan:

: kombinasi linier dari variabel X : variabel ke p : bobot atau koefisien untuk variabel ke p Var ( ) = Cov ( ) = Komponen utama adalah kombinasi linier di mana variansi pada ( ) = sebesar mungkin. Komponen utama pertama adalah kombinasi linier dengan variansi maksimum. Yang memaksimumkan ( ). Jelas ( ) dapat meningkat dengan mengalikan dengan konstanta. Berdasarkan kenyataan di atas, maka dapat dibuat pernyataan umum yang berkaitan dengan konsep analisis komponen utama sebagai berikut: Komponen utama ke-1 : kombinasi linier yang memaksimumkan ( ) serta Komponen utama ke-2 : kombinasi linier yang memaksimumkan ( ) serta dan ( ) Komponen utama ke-i : kombinasi linier yang memaksimumkan ( ) serta dan ( ) untuk k < i. Misalkan matriks kovarian yang bersesuaian dengan vektor acak [ ]. Misalkan memiliki pasangan eigenvalue eigenvector ( ) ( ) ( ) dimana. Komponen utama ke-i diberikan oleh Dengan, ( ) Cov ( ) = Jika beberapa λ i sama, dengan vektor koefisien e i yang bersesuaian, maka Y i tidak tunggal. Bukti. B =,

(diperoleh ketika ) karena eigenvector dinormalkan. Dengan demikian, ( ) Dengan cara yang sama, Untuk, dengan, untuk dan ( ) Karena ( ) = maka ( ). Tinggal menunjukkan bahwa e i tegak lurus terhadap ( ) memberikan Cov(Y i Y k ) = 0. Eigenvector dari orthogonal jika semua eigenvalue berbeda. Jika eigenvalue tidak berbeda semuanya, maka eigenvector yang bersesuaian dengan eigenvalue dapat dipilih supaya orthogonal. Dengan demikian, untuk setiap dua eigenvector e i dan. Karena, perkalian dengan memberikan, ( ) untuk setiap. (terbukti) Komponen utama tidak berkorelasi dan memiliki variansi sama dengan eigenvalue dari (Johnson dan Wichern, 2007). Misalkan [ ] memiliki matriks kovarians, dengan pasangan eigenvalue eigenvector ( ) ( ) ( ) di mana. Misalkan adalah komponen utama. Maka, ( ) ( ) Bukti. Dari ( ) dengan, dapat ditulis dimana adalah matriks diagonal dari eigenvalue dan [ ]

sedemikian sehingga. Dapat diperoleh ( ) ( ) ( ) ( ) maka, ( ) ( ) ( ) ( ) Total variansi populasi = Dan sebagai akibatnya, proporsi variansi total dari komponen utama ke-k adalah ( ) Misal apabila p berukuran besar, sedangkan diketahui bahwa sekitar 80% - 90% variansi populasi total telah mampu diterangkan oleh satu, dua, atau tiga komponen utama yang pertama, maka komponen-komponen utama itu telah dapat mengganti p buah varabel asal tanpa mengurangi informasi yang banyak. Setiap komponen dari vektor koefisien [ ] juga harus diperiksa. Besar diukur dari variabel ke-k ke komponen utama ke-i, tanpa memperhatikan variabel yang lain. Secara khusus proporsional terhadap koefisien korelasi antara Y i dan X k (Johnson dan Wichern, 2007). Misalkan diperoleh dari matriks kovarians, maka adalah komponen utama yang adalah koefisien korelasi antara komponen Y i dan variabel X k. Disini ( ) ( ) ( ) adalah pasangan eigenvalue eigenvector dari. Bukti. Ambil, - sedemikian sehingga dan ( ) ( ). Karena ( ). Maka ( ) dan ( ) menghasilkan: ( ) ( ) ( )

Di dalam proses mereduksi, diperoleh variabel yang lebih sedikit akan tetapi masih mengandung informasi atau karakteristik yang termuat dalam data awal secara signifikan. Tujuan utamanya adalah untuk menjelaskan sebanyak mungkin jumlah varian data awal dengan sedikit mungkin komponen utama. Sebagian besar variasi dalam himpunan variabel yang diamati cenderung berkumpul pada komponen utama pertama dan semakin sedikit informasi dari variabel awal yang terkumpul pada komponen utama terakhir. Hal ini berarti bahwa komponen-komponen utama pada urutan terakhir dapat diabaikan tanpa kehilangan banyak informasi. Dengan cara ini analisis komponen utama dapat digunakan untuk mereduksi variabel-variabel. Komponen utama bersifat ortogonal yang artinya bahwa setiap komponen utama merupakan wakil dari seluruh variabel asal sehingga komponen-komponen utama tersebut dapat dijadikan pengganti variabel asal apabila analisis terhadap variabel tersebut membutuhkan ortogonalitas. Penetapan banyaknya komponen utama untuk dapat ditafsirkan dengan baik dapat dilihat dari: a. Proporsi keragaman kumulatif dari komponen utama Menurut Morrison (1990), banyaknya komponen utama yang dipilih sudah cukup memadai apabila komponen utama tersebut mempunyai persentase keragaman kumulatif tidak kurang dari 75% dari total keragaman data. Sedangkan Johnson dan Wichern (2007) mengatakan bahwa komponen utama deng an kondisi persentase keragaman kumulatif sebesar 80-90%, dapat menggambarkan data asalnya. b. Nilai dari eigenvalue Pemilihan komponen utama yang digunakan, didasarkan ada nilai eigenvaluenya. Aturan yang digambarkan pada bagian ini khusus digunakan untuk matriks korelasi, meskipun dapat digunakan juga untuk beberapa jenis matriks kovarians. Ide dibalik aturan ini bahwa jika semua elemen x adalah independen, maka komponen utama sama dengan variabel asli dan semua memiliki unit varians pada kasus matriks korelasi. Sehingga setiap komponen utama dengan varians kurang dari 1 mengandung sedikit informasi dari salah

satu variabel asli jadi tidak dapat dipertahankan. Dalam bentuk sederhana terkadang disebut aturan Kaiser (Kaiser s rule) dan hanya mempertahankan komponen utama dengan varians lebih dari 1 (Jolliffe, 2002). Melakukan pengujian terhadap matriks korelasi dari data yang menjadi objek pengamatan. Matriks korelasi digunakan untuk melihat keeratan hubungan antara peubah yang satu dengan peubah yang lain. Ada dua macam pengujian yang dapat dilakukan terhadap matriks korelasi, yaitu: a. Uji Bartlett Pengujian ini dilakukan untuk melihat apakah matriks korelasinya bukan merupakan suatu matriks identitas, jika matriks korelasinya merupakan matriks identitas, maka tidak ada korelasi antarpeubah yang digunakan. Uji ini dipakai bila sebagian besar dari koefisien korelasi kurang dari 0,5. Hipotesis: H 0 : Matriks korelasi merupakan matriks identitas H 1 : Matriks korelasi bukan merupakan matriks identitas [( ) ( ) ] Keterangan: N : Jumlah observasi p : Jumlah peubah : Determinan dari matriks korelasi Uji Bartlett akan menolak H 0 jika nilai ( ) b. Uji Kaiser Meyer Olkin (KMO) Uji KMO digunakan untuk mengetahui apakah metode penarikan sampel yang digunakan memenuhi syarat atau tidak. Di samping itu, uji KMO berguna untuk mengetahui apakah data yang digunakan dapat dianalisis lebih lanjut atau tidak. Rumusan uji KMO adalah: Keterangan:

r ij a ij i,j : Koefisien korelasi sederhana antara peubah i dan j : Koefisien korelasi parsial antara peubah i dan j : 1,2,,p Apabila nilai KMO lebih besar dari 0,5 maka jumlah data telah cukup untuk dianalisis lebih lanjut. 2.5 Analisis Cluster Analisis cluster merupakan salah satu teknik statistik multivariat yang tujuan utamanya adalah untuk mengidentifikasi kelompok dari objek berdasarkan karakteristik yang mereka miliki, sehingga objek-objek dalam satu kelompok (cluster) akan memiliki kemiripan karakteristik (Hair, 2010). Analisis cluster melakukan sebuah usaha untuk menggabungkan keadaan atau objek ke dalam suatu kelompok, di mana anggota kelompok itu tidak diketahui sebelumnya untuk dianalisis. Menambahkan penjelasan di atas, Supranto (2004) mengatakan bahwa di dalam analisis cluster tidak ada pembedaan variabel bebas dan variabel tak bebas karena analisis cluster mengkaji hubungan interdependensi antara seluruh set variabel. Tujuan utamanya ialah mengelompokkan objek (kasus/elemen) ke dalam kelompok-kelompok yang relatif homogen didasarkan pada suatu set variabel yang dipertimbangkan untuk diteliti. Karena yang diinginkan adalah untuk mendapatkan cluster yang sehomogen mungkin, maka yang digunakan sebagai dasar untuk mengclusterkan adalah kesamaan skor nilai yang dianalisis. Sesuai prinsip dasar cluster yaitu mengelompokkan objek yang mempunyai kemiripan, maka proses pertama adalah mengukur seberapa jauh ada kesamaan antar objek. Dengan memiliki sebuah ukuran kuantitatif untuk mengatakan bahwa dua objek tertentu lebih mirip dibandingkan dengan objek lain, akan mempermudah proses pengelompokan. Pengelompokan dilakukan berdasarkan kemiripan antar objek. Kemiripan diperoleh dengan meminimalkan jarak antar objek dalam kelompok dan memaksimalkan jarak antar kelompok. Salah satu yang biasa digunakan dalam analisis cluster adalah jarak euclidean. Jarak euclidean dapat digunakan jika variabel-variabel yang digunakan tidak

terdapat korelasi dan memiliki satuan yang sama. Jarak euclidean diperoleh dengan rumus sebagai berikut: ( ) ( ) dengan: d = jarak euclidean x i, y i = skor komponen utama ke-i 2.2.1 Analisis Cluster Metode K-Means Metode non hierarki dengan K-Means merupakan metode yang berusaha mempartisi data yang ada ke dalam bentuk satu atau lebih cluster. Metode ini mempartisi data ke dalam cluster sehingga data yang memiliki karakteristik sama dikelompokkan ke dalam satu cluster yang sama dan data yang mempunyai karakteristik yang berbeda dikelompokkan ke dalam kelompok yang lain. K- Means bertujuan untuk mengelompokkan data sedemikian hingga jarak tiap-tiap data ke pusat kelompok dalam satu kelompok minimum. Dasar pengelompokkan dalam metode ini adalah menempatkan objek berdasarkan rata-rata (mean) cluster terdekat (Johnson dan Wichern, 2007). Metode K-Means digunakan sebagai alternatif metode cluster untuk data dengan ukuran yang besar karena memiliki kecepatan yang lebih tinggi dibandingkan metode hierarki. Mac Queen menyarankan bahwa penggunaan K-Means untuk menjelaskan algoritma dalam penentuan suatu objek ke dalam cluster tertentu berdasarkan rataan terdekat. Metode K-Means ini secara umum dilakukan dengan algoritma dasar sebagai berikut: 1. Tentukan jumlah cluster 2. Alokasikan data ke dalam cluster secara random 3. Hitung centroid (rata-rata) dari data yang ada di masing-masing cluster 4. Alokasikan masing-masing data ke centroid (rata-rata) terdekat 5. Kembali ke langkah 3, apabila masih ada data yang berpindah cluster atau apabila perubahan nilai centroid.