BAB IV HASIL PENELITIAN DAN PEMBAHASAN

dokumen-dokumen yang mirip
PENERAPAN DATA MINING UNTUK REKOMENDASI BEASISWA PADA SMA MUHAMMADIYAH GUBUG MENGGUNAKAN ALGORITMA C4.5

ALGORITMA C4.5. Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan. Tabel 3.1. Keputusan Bermain Tenis

BAB IV METODOLOGI PENELITIAN. Penelitian ini dilakukan dengan melalui empat tahap utama, dimana

Universitas Putra Indonesia YPTK Padang Fakultas Ilmu Komputer Program Studi Teknik Informatika. Classification Decision Tree

BAB III METODE PENELITIAN

PENERAPAN ALGORITMA C5.0 DALAM PENGKLASIFIKASIAN DATA MAHASISWA UNIVERSITAS NEGERI GORONTALO

BAB 3 ALGORITMA C4.5. Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan.

PREDIKSI KEBANGKRUTAN PERUSAHAAN MENGGUNAKAN ALGORITMA C4.5 BERBASIS FORWARD SELECTION

Algoritma C4.5. Untuk memudahkan penjelasan mengenai algoritma C4.5 berikut ini disertakan contoh kasus yang dituangkan dalam Tabel 1.

KLASIFIKASI PENENTUAN TIM UTAMA OLAHRAGA HOCKEY MENGGUNAKAN ALGORITMA C4.5 (Study Kasus : Hockey Kabupaten Kendal)

Algoritma Data Mining (2) Tugas Klasifikasi

JURNAL IMPLEMENTASI DATA MINING DENGAN ALGORITMA C4.5 UNTUK MEMPREDIKSI PRESTASI SISWA

BAB 2 TINJAUAN PUSTAKA

BAB II TINJAUAN PUSTAKA DAN LANDASAN TEORI. yang tepat. Sistem data mining mampu memberikan informasi yang tepat dan

PENERAPAN METODE POHON KEPUTUSAN DENGAN ALGORITME ITERATIVE DYCHOTOMISER 3 (ID3) PADA DATA PRODUKSI JAGUNG DI PULAU JAWA

BAB II TINJAUAN PUSTAKA Indeks Prestasi Kumulatif dan Lama Studi. menggunakan dokumen/format resmi hasil penilaian studi mahasiswa yang sudah

BAB II TINJAUAN PUSTAKA

Belajar Mudah Algoritma Data Mining : C4.5

Jurnal String Vol. 1 No. 1 Tahun 2016 ISSN:

BAB II TINJAUAN PUSTAKA DAN LANDASAR TEORI

BAB 2 TINJAUAN PUSTAKA

KLASIFIKASI PENENTUAN TIM UTAMA OLAHRAGA HOCKEY MENGGUNAKAN ALGORITMA C4.5 (STUDI KASUS : HOCKEY KABUPATEN KENDAL)

BAB II LANDASAN TEORI

TINJAUAN PUSTAKA. Definisi Data Mining

BAB IV HASIL DAN PEMBAHASAN

BAB 2 TINJAUAN PUSTAKA

PROGRAM BANTU PEMILIHAN PAKAIAN DAN BAHAN BATIK BAGI KONSUMEN DENGAN PENDEKATAN DECISION TREE Studi Kasus : Toko InBATIK

Jurnal Informatika Mulawarman Vol. 12, No. 1, Februari ISSN

DATA MINING KLASIFIKASI BERBASIS DECISION TREE. Ramadhan Rakhmat Sani, M.Kom

Burhanudin Junardi Karim Dr. Lintang Yuniar Banowosari, S.Kom., M.Sc

Penerapan Algoritma C4.5 Untuk Menentukan Kesesuaian Lensa Kontak dengan Mata Pasien

Analisis Perbandingan Algoritma ID3 Dan C4.5 Untuk Klasifikasi Penerima Hibah Pemasangan Air Minum Pada PDAM Kabupaten Kendal

PENENTUAN PENERIMAAN SISWA BARU MENGGUNAKAN DECISION TREE

BAB 2 LANDASAN TEORI

PERANCANGAN APLIKASI PEMILIHAN MITRA KERJA

Abstrak. Kata Kunci : pohon keputusan, data mining, kepuasan pelanggan, C4.5

Analisis Algoritma Decision Tree untuk Prediksi Mahasiswa Non Aktif

POHON KEPUTUSAN DENGAN ALGORITMA C4.5

Decision Tree Learning Untuk Penentuan Jalur Kelulusan Mahasiswa

Majalah Ilmiah UPI YPTK, Volume 20, No. 1, Maret

IMPLEMENTASI TEKNIK DATA MINING UNTUK MEMPREDIKSI TINGKAT KELULUSAN MAHASISWA PADA UNIVERSITAS BINA DARMA PALEMBANG

Manfaat Pohon Keputusan

BAB IV HASIL DAN PEMBAHASAN. Data yang digunakan dalam penelitian ini adalah data warehouse

PEMBENTUKAN DECISION TREE DATA LAMA STUDI MAHASISWA MENGGUNAKAN ALGORITMA NBTREE DAN C4.5

BAB III METODE PENELITIAN

BAB III METODOLOGI PENELITIAN. Dataset

Decision Tree Learning Untuk Penentuan Jalur Kelulusan Mahasiswa

BAB III ANALISIS DAN DESAIN SISTEM

EKSPLORA INFORMATIKA 127

IMPLEMENTASI DATA MINING PADA PENENTUAN JUMLAH SKS MENGGUNAKAN DECISION TREE

HASIL DAN PEMBAHASAN. Setiap tahapan di dalam penelitian ini akan ditunjukkan di dalam Tabel 2.

BAB III METODOLOGI PENELITIAN

BAB II TINJAUAN PUSTAKA

BAB 2 TINJAUAN PUSTAKA

PENERAPAN ALGORITMA KLASIFIKASI C4.5 UNTUK DIAGNOSIS PENYAKIT KANKER PAYUDARA

BAB II TINJAUAN PUSTAKA

DECISION TREE BERBASIS ALGORITMA UNTUK PENGAMBILAN KEPUTUSAN

LEARNING ARTIFICIAL INTELLIGENT. Dr. Muljono, S.Si, M. Kom

Model Data Mining sebagai Prediksi Penyakit Hipertensi Kehamilan dengan Teknik Decision Tree

BAB II LANDASAN TEORI

4.1. Pengambilan Data

Kecerdasan Buatan Materi 6. Iterative Dichotomizer Three (ID3)


IMPLEMENTASI ALGORITMA C4.5 UNTUK KLASIFIKASI BIDANG KERJA ALUMNI DI STMIK LPKIA BANDUNG

TEKNIK KLASIFIKASI POHON KEPUTUSAN UNTUK MEMPREDIKSI KEBANGKRUTAN BANK BERDASARKAN RASIO KEUANGAN BANK

ALGORITMA C4.5 UNTUK SIMULASI PREDIKSI KEMENANGAN DALAM PERTANDINGAN SEPAKBOLA

BAB III ANALISA DAN DESAIN SISTEM

BAB IV HASIL DAN PEMBAHASAN. dan fakor-faktor penyebab masalah tersebut bisa terjadi diantaranya. dimanfaatkan dan dikelola dengan baik.

JURNAL IMPLEMENTASI ALGORITMA C4.5 DALAM PENENTUAN JURUSAN DI SMK PEMUDA PAPAR KEDIRI

Penerapan Fungsi Data Mining Klasifikasi untuk Prediksi Masa Studi Mahasiswa Tepat Waktu pada Sistem Informasi Akademik Perguruan Tinggi

PENGAMBILAN KEPUTUSAN UNTUK PENENTUAN BEASISWA TEPAT SASARAN MENGGUNAKAN METODE DECISION TREE DI SMK TARUNA BAKTI KERTOSONO

SISTEM PENUNJANG KEPUTUSAN PENERIMA BEASISWA DENGAN METODE DESCISION TREE C4.5 Pada SMAK YOS SUDARSO BATU

KOMPARASI DATA MINING UNTUK MEMPREDIKSI MINAT KLIEN DALAM MEMILIH PRODUK ASURANSI PENDIDIKAN (Studi pada PT. AJB Bumiputera 1912 Karanganyar)

PROGRAM BANTU SELEKSI AWAL DOSEN BERPRESTASI MENGGUNAKAN METODE ITERATIVE DICHOTOMISER 3

TUGAS DATA MINING. Nama Kelompok : I Putu Ari Ratna Pratama ( ) Putu Mega Suryawan ( ) Ida Bagus Surya Winantara ( )

ALGORITMA C4.5 UNTUK PEMODELAN DAERAH RAWAN BANJIR STUDI KASUS KABUPATEN KARAWANG JAWA BARAT

BAB IV HASIL DAN UJI COBA

PENERAPAN ALGORITMA C4.5 DALAM PENERIMAAN CALON KARYAWAN PT. TELKOM AKSES AREA LAMPUNG BERBASIS WEBSITE

IMPLEMENTASI DATA MINING DENGAN ALGORITMA C4.5 UNTUK PENJURUSAN SISWA (STUDI KASUS: SMA NEGERI 1 PONTIANAK)

PENERAPAN ALGORITMA KLASIFIKASI DATA MINING C4.5 PADA DATASET CUACA WILAYAH BEKASI

IMPLEMENTASI METODE NAIVE BAYES CLASSIFICATION DALAM KLASIFIKASI KELAYAKAN CALON PENDONOR DARAH (STUDI KASUS PMI KAB. DEMAK)

IMPLEMENTASI DECISION TREE UNTUK MEMPREDIKSI JUMLAH MAHASISWA PENGAMBIL MATAKULIAH DENGAN MENGGUNAKAN STUDI KASUS DI JURUSAN TEKNIK INFORMATIKA ITS

APLIKASI KLASIFIKASI PEMENUHAN GIZI PADA LANSIA MENGGUNAKAN METODE DECISION TREE ID3

Supervised Learning Misalkan kita ingin membuat suatu program komputer yang ketika diberi gambar seseorang, dapat menentukan apakah orang dalam

Versi Online tersedia di : JURNAL TECH-E (Online)

PENERAPAN ALGORTIMA C4.5 UNTUK PENENTUAN KELAYAKAN KREDIT

60 Register: Jurnal Ilmiah Teknologi Sistem Informasi, Juli 2016, Volume 2, Nomor 2

DATA DAN METODE Data

IMPLEMENTASI ALGORITMA FUZZY SEBAGAI PENGGALIAN INFORMASI KETERLAMBATAN KELULUSAN TUGAS AKHIR MAHASISWA DENGAN METODE DECISION TREE

BAB II TINJAUAN PUSTAKA

PENERAPAN TEKNIK DATA MINING UNTUK MENENTUKAN HASIL SELEKSI MASUK SMAN 1 GIBEBER UNTUK SISWA BARU MENGGUNAKAN DECISION TREE

Pemanfaatan Metode K-Means Clustering dalam Penentuan Penjurusan Siswa SMA

SISTEM PENDUKUNG KEPUTUSAN BERBASIS DECISION TREE DALAM PEMBERIAN BEASISWA STUDI KASUS: AMIK BSI YOGYAKARTA


Bab 2 Tinjauan Pustaka 2.1 Penelitian Sebelumnya

BAB IV HASIL DAN PEMBAHASAN

BAB 2 LANDASAN TEORI

BAB I PENDAHULUAN 1.1 Latar Belakang

KLASIFIKASI PELANGGAN DENGAN ALGORITME POHON KEPUTUSAN DAN PELUANG PELANGGAN YANG MERESPONS PENAWARAN DENGAN REGRESI LOGISTIK

Transkripsi:

BAB IV HASIL PENELITIAN DAN PEMBAHASAN 1.1 Data Training Data training adalah data yang digunakan untuk pembelajaran pada proses data mining atau proses pembentukan pohon keputusan.pada penelitian ini data training mempunyai presentase 80% dari 537 data siswa. Berikut merupakan tabel hasil total data training Total Kasus Jumlah (Ya) Jumlah (Tidak) 430 133 297 4.1 Tabel total data training Atribut yang digunakan dalam penentuan rekomendasi beasiswa adalah Jumlah Nilai, Pekerjaan Orangtua, Penghasilan Orangtua, Jumlah Saudara Kandung. Atribut tersebut juga digunakan pihak sekolah untuk menentukan siswa yang akan mendapatkan rekomendasi beasiswa. 1.2 Pemodelan Menggunakan Algoritma C4.5 Berikut ini merupakan uraian langkah-langkah perhitungan dalam algoritma C4.5 dalam penyelesaian kasus penentuan rekomendasi beasiswa yang tepat sasaran yang akan di bagi menjadi label iya (diterima) atau tidak (tidak diterima).

a. Perhitungan Mencari Entropy Proses pertama algoritma C4.5 adalah menentukan nilai entropy. Langkah pertama, tentukan entropy total kasus terlebih dahulu. Rumus untuk mencari entropy dari data siswa tersebut yaitu : Entropy (S)= n i =1 pi.log 2 pi... (4.1) Keterangan : S = himpunan kasus n = jumlah partisi S pi = proporsi S i terhadap S Maka : Entropy(S) = (-( ( Sum (tidak ) Total )) Sum (ya ) Total ) x log 2 ( Sum (ya ) Total )) + (-( Sum (tidak ) Total Jadi Entropy (133,297) = (-( 133 ) x log 2 ( 133 )) + (-(297 ) x log 2 ( 297 )) = 430 430 430 430 = 0,8924 ) x log 2 Tabel 4.2 Perhitungan Entropy Total Kasus Jumlah (Ya) Jumlah (Tidak) Entropy 430 133 297 0,8924 a. Perhitungan Mencari Gain Setelah nilai entropy sudah diketahui, maka langkah selanjutnya adalah mencari nilai gain pada atribut jurusan, maka gunakan rumus : Gain (S,A) = Entropy (S) n Si S i=1 Entropy (Si)...(4.2)

Keterangan : S = Himpunan Kasus A = fitur n = jumlah partisi atribut A Si = proporsi Si terhadap S S = jumlah kasus dalam S Maka : Gain (S,A) = Entropy (total) (( = 0,8924 (( 280 150 ) x 0,894 + 430 430 = 0,0001 Sum (total ) )) jumlah h kasus x 0,8893) = Tabel 4.3 Perhitungan Gain Jurusan Atribut Nilai Sum Sum Sum Entropy Gain Atribut Total (Tidak) (Ya) Total Total 430 297 133 0,8924 Jurusan Akuntansi 280 193 87 0,894 0,0001 Mekanik 150 104 46 0,8893 Kemudian Hitung pula nilai gain pada atribut Kelas, Jumlah Kategori, Penghasilan Orangtua dan Jumlah Saudara kandung. Maka hasil perhitungan nilai gain akan tampak pada tabel 4.4

Tabel 4.4 Entropy dan Gain Atribut Nilai Sum Sum Sum Entropy Gain Atribut Total (Tidak) (Ya) Total Total 430 297 133 0,8924 Jurusan Akuntansi 280 193 87 0,894 0,0001 Mekanik 150 104 46 0,8893 Jumlah Diatas 197 64 133 0,9096 0,4757 kategori rata-rata Dibawah 233 233 0 0 rata-rata Penghasilan 1 22 19 3 0,5746 0,015 orang tua 2 320 227 93 0,8695 3 88 51 37 0,9817 Jumlah 1-2 285 229 56 0,7149 0,0918 saudara 3-4 136 67 69 0,9998 kandung >4 9 1 8 0,5033 a. Menentukan Pohon Keputusan Pada Tabel 4.4 Cari nilai Gain terbesar. Berdasarkan table tersebut atribut Jumlah Kategori mempunyai gain terbesar, maka atribut jumlah kategori menjadi node akar (root node).

Gambar 4.1 Akar pertama Berdasarkan pohon keputusan node 1 (root node) yang telah terbentuk, node 1.1 akan dilanjutkan ke tahap selanjutnya. Kemudian pada tabel training difilter dengan mengambil data kategori nilai diatas rata-rata saja, Kemudian tentukan atribut yang mempunyai gain tertinggi untuk membentuk node pohon keputusan berikutnya. Tabel 4.5 Hasil Analisis Node 1.1 Atribut Nilai Sum Sum Sum Entropy Gain Atribut Total (Tidak) (Ya) Total Total 197 64 133 0.9096 Jurusan Akuntansi 125 38 87 0.8861 0.0025 Mekanik 72 26 46 0.9436 Penghasilan 1 9 6 3 0.9183 0.0549 orangtua 2 146 53 93 0.9452 3 42 5 37 0.5266 Jumlah 1-2 116 60 56 0.9991 0.2078 saudara 3-4 73 4 69 0.3064 kandung <5 8 0 8 0

Pada tabel 4.5 gain yang tertinggi dimiliki oleh atribut Jumlah Saudara Kandung. Maka Jumlah Saudara Kandung dijadikan sebagai node akar 1.1. Nilai yang dijadikan leaf (cabang) adalah kategori 1,2 dan 3. Maka Pohon Keputusan akan terlihat seperti gambar 4.2 Gambar 4.2 Pohon keputusan Keterangan : Pada gambar 4.1 belum diketahui node 1.1. Kemudian pada tabel 4.5 ditemukan nilai gain terbesar yaitu pada atribut Jumlah Saudara Kandung, Maka Node 1.1 adalah Jumlah Saudara Kandung.

Kemudian lakukan filter Data Training yang mempunyai atribut Jumlah Saudara dengan kategori 1 dan 2. Kemudian data pada Tabel 4.6 lakukan perhitungan entropy pada setiap nilai atribut dan hitung pula gain pada setiap atribut. Sehingga hasilnya seperti Tabel 4.6. Kemudian tentukan atribut yang mempunyai gain tertinggi untuk membentuk node pohon keputusan berikutnya. Tabel 4.6 Hasil Analisi Node 1.2 Atribut Nilai Sum Sum Sum Entropy Gain Atribut Total (Tidak) (Ya) Total Total 116 60 56 0.9991 Jurusan Akuntansi 75 36 39 0.9988 0.0073 Mekanik 41 24 17 0.9789 Penghasilan 1 4 4 0 0 0.1511 Orangtua 2 88 53 35 0.9696 3 24 3 21 0.5436 Pada Tabel 4.6 gain yang tertinggi dimiliki oleh atribut Penghasilan Orangtua. Maka atribut kelas akan dijadikan sebagai node akar 1.2. Nilai yang dijadikan leaf adalah kategori Penghasilan Orangtua. Maka Pohon Keputusan akan terlihat seperti gambar 4.3

Gambar 4.3 pohon keputusan Node 1.2 Keterangan : Pada gambar 4.2 belum diketahui node 1.2. Kemudian pada tabel 4.6 ditemukan nilai gain terbesar yaitu pada atribut Penghasilan Orangtua, maka Node 1.2 adalah atribut Penghasilan Orangtua. Dan Node 1.2.1 adalah Penghasilan Orangtua. Kemudian pada tabel tersebut, hitung nilai gain dan entropy. Hasilnya akan tampak pada tabel 4.7.

Tabel 4.7 Hasil filter Penghasilan Orangtua Atribut Nilai Sum Sum Sum Entropy Gain Atribut Total (Tidak) (Ya) Total Total 88 53 35 0.9696 Jurusan Akuntansi 57 32 25 0.9891 0.0094 Mekanik 31 21 10 0.9072 Pada Tabel hasil filter Penghasilan Orangtua, menunjukan bahwa gain tertinggi adalah atribut Jurusan. Maka node 1.3 adalah atribut Jurusan. Maka selanjutnya menentukan akar selanjutnya. Kemudian hasil pohon keputusan akan tampak pada gambar 4.4 Gambar 4.4 Pohon Keputusan Terakhir

Dari pohon keputusan tersebut didapat rules sebagai berikut : Tabel 4.8 rules yang terbentuk Rules 1. if (jumlah_kategori == Diatas rata-rata AND jumlah_saudara_kandung_kategori == 1-2 AND penghasilan_orangtua == 1) then Ya 2. if (jumlah_kategori == Diatas rata-rata AND jumlah_saudara_kandung_kategori == 1-2 AND penghasilan_orangtua == 2 AND jurusan == Akuntansi) then Tidak 3. if (jumlah_kategori == Diatas rata-rata AND jumlah_saudara_kandung_kategori == 1-2 AND penghasilan_orangtua == 2 AND jurusan == Mekanik) then Tidak 4. if (jumlah_kategori == Diatas rata-rata AND jumlah_saudara_kandung_kategori == 1-2 AND penghasilan_orangtua == 3) thenya 5. if (jumlah_kategori == Diatas rata-rata AND jumlah_saudara_kandung_kategori == 3-4) then Ya 6. if (jumlah_kategori == Diatas rata-rata AND jumlah_saudara_kandung_kategori == > 4) then Ya 7. if (jumlah_kategori == Dibawah rata-rata) then Tidak 1.3 Implementasi terhadap Data Siswa Pada penelitian ini, peneliti menggunakan bahasa pemrograman PHP untuk menguji bagaimana proses klasifikasi data siswa. Dibawah ini merupakan uraian bagaimana menentukan keputusan apakah siswa tersebut layak mendapatkan rekomendasi beasiswa.

a. Tampilan Form Input Untuk menentukan keputusan, input data suswa yaitu Nomor Induk Siswa, Nama Siswa, Jurusan, Kelas Siswa, Jumlah Nilai Rata-Rata, Penghasilan Orangtua, dan Jumlah Saudara Kandung. Gambar 4.5 Tampilan Input Data Training 1.4 Evaluasi dan Validasi Pengujian terhadap validitas sistem bertujuan untuk mengetahui apakah solusi yang dihasilkan oleh pohon keputusan tersebut valid atau tidak. Rules akan dikatakan valid jika jumlah yang mendapatkan rekomendasi beasiswa sama dengan dataset. Dataset dibagi menjadi dua bagian, yaitu data training dan data testing. Pengujian dilakukan sekali dengan jumlah data training dan data testing yang berbeda.

4.5.1 Pengujian Data Data set dibagi menjadi dua bagian yaitu 430 data training dan 107 data testing. Keseluruhan data berjumlah 537, maka data training berjumlah 430, dan data testing berjumlah 107 data. Tabel 4.9 Tabel Data testing 107 Data NIS Jurusan/ Kelas Jumlah Nilai Penghasilan Orangtua Jumlah Saudara Rekomendasi 1314308 MI.4/XII 919 2 3 YA 1314310 MI.4/XII 879 2 2 TIDAK 1314311 MI.4/XII 883 2 2 TIDAK 1314312 MI.4/XII 894 3 3 TIDAK 1314314 MI.4/XII 910 3 2 YA 1314268 MI.4/XII 903 2 2 YA 1314269 MI.4/XII 913 1 4 YA 1314270 MI.4/XII 889 2 4 TIDAK 1314316 MI.4/XII 866 3 3 TIDAK 1314317 MI.4/XII 896 2 3 TIDAK 1314272 MI.4/XII 864 3 3 TIDAK 1314318 MI.4/XII 908 2 3 YA 1314273 MI.4/XII 902 2 2 YA 1314274 MI.4/XII 856 3 2 TIDAK 1314275 MI.4/XII 900 2 2 YA 1314277 MI.4/XII 892 1 4 TIDAK 1314278 MI.4/XII 899 2 4 TIDAK

1314280 MI.4/XII 879 2 2 TIDAK 1314282 MI.4/XII 901 2 3 TIDAK 1314283 MI.4/XII 902 1 2 YA 1314284 MI.4/XII 887 3 2 TIDAK 1314285 MI.4/XII 890 2 3 TIDAK 1314286 MI.4/XII 910 2 2 YA 1314287 MI.4/XII 901 2 4 YA 1314209 MI.5/XII 902 2 2 YA 1314210 MI.5/XII 889 2 3 TIDAK 1314169 MI.5/XII 892 3 3 TIDAK 1314170 MI.5/XII 899 1 2 TIDAK 1314171 MI.5/XII 907 2 2 YA 1314211 MI.5/XII 904 2 3 YA 1314173 MI.5/XII 900 2 4 YA 1314174 MI.5/XII 887 3 2 TIDAK 1314212 MI.5/XII 889 2 3 TIDAK 1314213 MI.5/XII 903 3 2 YA 1314215 MI.5/XII 887 2 2 TIDAK 1314216 MI.5/XII 893 2 2 TIDAK 1314175 MI.5/XII 907 2 3 YA 1314176 MI.5/XII 904 3 3 YA 1314217 MI.5/XII 902 3 3 YA 1314177 MI.5/XII 894 1 2 TIDAK 1314178 MI.5/XII 903 2 3 YA 1314218 MI.5/XII 889 2 4 TIDAK 1314179 MI.5/XII 900 2 2 YA

1314180 MI.5/XII 883 2 3 TIDAK 1314181 MI.5/XII 889 1 2 TIDAK 1314182 MI.5/XII 906 1 2 YA 1314220 MI.5/XII 902 2 2 YA 1314221 MI.5/XII 882 3 3 TIDAK 1314222 MI.5/XII 890 2 2 TIDAK 1314136 MI.5/XII 894 1 2 TIDAK 1314150 MI.5/XII 907 3 2 YA 1314151 MI.5/XII 905 2 3 YA 1314152 MI.5/XII 897 2 2 TIDAK 1314154 MI.5/XII 902 2 2 YA 1314155 MI.5/XII 906 2 2 YA 1314156 MI.5/XII 864 2 3 TIDAK 1314158 MI.5/XII 885 3 3 TIDAK 1314159 MI.5/XII 879 2 2 TIDAK 1314160 MI.5/XII 864 3 3 TIDAK 1314161 MI.5/XII 893 2 4 TIDAK 1314162 MI.5/XII 906 2 3 YA 1314163 MI.5/XII 910 2 5 YA 1314164 MI.5/XII 894 3 3 TIDAK 1314165 MI.5/XII 900 1 3 TIDAK 1314166 MI.5/XII 859 2 2 TIDAK 1314167 MI.5/XII 900 3 2 YA 1314329 MI.6/XII 864 2 3 TIDAK 1314330 MI.6/XII 905 2 2 YA

1314331 MI.6/XII 890 2 1 TIDAK 1314332 MI.6/XII 863 2 1 TIDAK 1314183 MI.6/XII 911 3 4 YA 1314334 MI.6/XII 860 2 4 TIDAK 1314184 MI.6/XII 879 2 3 TIDAK 1314335 MI.6/XII 889 3 2 TIDAK 1314336 MI.6/XII 862 2 2 TIDAK 1314337 MI.6/XII 864 3 2 TIDAK 1314186 MI.6/XII 890 2 3 TIDAK 1314339 MI.6/XII 908 1 2 YA 1314340 MI.6/XII 903 2 3 YA 1314187 MI.6/XII 906 1 5 TIDAK 1314341 MI.6/XII 911 3 2 YA 1314188 MI.6/XII 864 2 2 TIDAK 1314342 MI.6/XII 861 2 2 TIDAK 1314343 MI.6/XII 906 2 2 YA 1314344 MI.6/XII 911 2 4 YA 1314345 MI.6/XII 866 1 2 TIDAK 1314189 MI.6/XII 908 3 3 YA 1314346 MI.6/XII 889 2 3 TIDAK 1314347 MI.6/XII 863 2 2 TIDAK 1314348 MI.6/XII 878 2 2 TIDAK 1314349 MI.6/XII 861 1 2 TIDAK 1314190 MI.6/XII 905 3 1 TIDAK 1314351 MI.6/XII 914 2 3 YA

1314191 MI.6/XII 897 2 2 TIDAK 1314192 MI.6/XII 863 1 2 TIDAK 1314194 MI.6/XII 879 2 3 TIDAK 1314198 MI.6/XII 907 2 2 YA 1314199 MI.6/XII 899 1 2 TIDAK 1314200 MI.6/XII 921 2 2 YA 1314201 MI.6/XII 863 2 1 TIDAK 1314202 MI.6/XII 863 1 4 TIDAK 1314203 MI.6/XII 860 2 2 TIDAK 1314204 MI.6/XII 905 2 3 YA Penghasilan orangtua *1 >= Rp. 2.000.000 *2 = Rp. 1.000.000-1.999.999 *3 <= Rp.999.999 Tabel 4.10 Klasifikasi dan Prediksi NIS Jurusan/ Jumlah Penghasilan Jumlah Kelas Nilai Orangtua Saudara Rekomendasi Klasifikasi 1314308 MI.4/XII 919 2 3 YA YA 1314310 MI.4/XII 879 2 2 TIDAK TIDAK 1314311 MI.4/XII 883 2 2 TIDAK TIDAK 1314312 MI.4/XII 894 3 3 TIDAK TIDAK 1314314 MI.4/XII 910 3 2 YA YA 1314268 MI.4/XII 903 2 2 YA TIDAK 1314269 MI.4/XII 913 1 4 YA YA 1314270 MI.4/XII 889 2 4 TIDAK TIDAK 1314316 MI.4/XII 866 3 3 TIDAK TIDAK

1314317 MI.4/XII 896 2 3 TIDAK TIDAK 1314272 MI.4/XII 864 3 3 TIDAK TIDAK 1314318 MI.4/XII 908 2 3 YA YA 1314273 MI.4/XII 902 2 2 YA TIDAK 1314274 MI.4/XII 856 3 2 TIDAK TIDAK 1314275 MI.4/XII 900 2 2 YA TIDAK 1314277 MI.4/XII 892 1 4 TIDAK TIDAK 1314278 MI.4/XII 899 2 4 TIDAK TIDAK 1314280 MI.4/XII 879 2 2 TIDAK TIDAK 1314282 MI.4/XII 901 2 3 TIDAK YA 1314283 MI.4/XII 902 1 2 YA TIDAK 1314284 MI.4/XII 887 3 2 TIDAK TIDAK 1314285 MI.4/XII 890 2 3 TIDAK TIDAK 1314286 MI.4/XII 910 2 2 YA TIDAK 1314287 MI.4/XII 901 2 4 YA YA 1314209 MI.5/XII 902 2 2 YA TIDAK 1314210 MI.5/XII 889 2 3 TIDAK TIDAK 1314169 MI.5/XII 892 3 3 TIDAK TIDAK 1314170 MI.5/XII 899 1 2 TIDAK TIDAK 1314171 MI.5/XII 907 2 2 YA TIDAK 1314211 MI.5/XII 904 2 3 YA YA 1314173 MI.5/XII 900 2 4 YA YA 1314174 MI.5/XII 887 3 2 TIDAK TIDAK 1314212 MI.5/XII 889 2 3 TIDAK TIDAK 1314213 MI.5/XII 903 3 2 YA YA 1314215 MI.5/XII 887 2 2 TIDAK TIDAK

1314216 MI.5/XII 893 2 2 TIDAK TIDAK 1314175 MI.5/XII 907 2 3 YA YA 1314176 MI.5/XII 904 3 3 YA YA 1314217 MI.5/XII 902 3 3 YA YA 1314177 MI.5/XII 894 1 2 TIDAK TIDAK 1314178 MI.5/XII 903 2 3 YA YA 1314218 MI.5/XII 889 2 4 TIDAK TIDAK 1314179 MI.5/XII 900 2 2 YA TIDAK 1314180 MI.5/XII 883 2 3 TIDAK TIDAK 1314181 MI.5/XII 889 1 2 TIDAK TIDAK 1314182 MI.5/XII 906 1 2 YA TIDAK 1314220 MI.5/XII 902 2 2 YA TIDAK 1314221 MI.5/XII 882 3 3 TIDAK TIDAK 1314222 MI.5/XII 890 2 2 TIDAK TIDAK 1314136 MI.5/XII 894 1 2 TIDAK TIDAK 1314150 MI.5/XII 907 3 2 YA YA 1314151 MI.5/XII 905 2 3 YA YA 1314152 MI.5/XII 897 2 2 TIDAK TIDAK 1314154 MI.5/XII 902 2 2 YA TIDAK 1314155 MI.5/XII 906 2 2 YA TIDAK 1314156 MI.5/XII 864 2 3 TIDAK TIDAK 1314158 MI.5/XII 885 3 3 TIDAK TIDAK 1314159 MI.5/XII 879 2 2 TIDAK TIDAK 1314160 MI.5/XII 864 3 3 TIDAK TIDAK 1314161 MI.5/XII 893 2 4 TIDAK TIDAK 1314162 MI.5/XII 906 2 3 YA YA

1314163 MI.5/XII 910 2 5 YA YA 1314164 MI.5/XII 894 3 3 TIDAK TIDAK 1314165 MI.5/XII 900 1 3 TIDAK YA 1314166 MI.5/XII 859 2 2 TIDAK TIDAK 1314167 MI.5/XII 900 3 2 YA YA 1314329 MI.6/XII 864 2 3 TIDAK TIDAK 1314330 MI.6/XII 905 2 2 YA TIDAK 1314331 MI.6/XII 890 2 1 TIDAK TIDAK 1314332 MI.6/XII 863 2 1 TIDAK TIDAK 1314183 MI.6/XII 911 3 4 YA YA 1314334 MI.6/XII 860 2 4 TIDAK TIDAK 1314184 MI.6/XII 879 2 3 TIDAK TIDAK 1314335 MI.6/XII 889 3 2 TIDAK TIDAK 1314336 MI.6/XII 862 2 2 TIDAK TIDAK 1314337 MI.6/XII 864 3 2 TIDAK TIDAK 1314186 MI.6/XII 890 2 3 TIDAK TIDAK 1314339 MI.6/XII 908 1 2 YA TIDAK 1314340 MI.6/XII 903 2 3 YA YA 1314187 MI.6/XII 906 1 5 TIDAK YA 1314341 MI.6/XII 911 3 2 YA YA 1314188 MI.6/XII 864 2 2 TIDAK TIDAK 1314342 MI.6/XII 861 2 2 TIDAK TIDAK 1314343 MI.6/XII 906 2 2 YA TIDAK 1314344 MI.6/XII 911 2 4 YA YA 1314345 MI.6/XII 866 1 2 TIDAK TIDAK 1314189 MI.6/XII 908 3 3 YA YA

1314346 MI.6/XII 889 2 3 TIDAK TIDAK 1314347 MI.6/XII 863 2 2 TIDAK TIDAK 1314348 MI.6/XII 878 2 2 TIDAK TIDAK 1314349 MI.6/XII 861 1 2 TIDAK TIDAK 1314190 MI.6/XII 905 3 1 TIDAK YA 1314351 MI.6/XII 914 2 3 YA YA 1314191 MI.6/XII 897 2 2 TIDAK TIDAK 1314192 MI.6/XII 863 1 2 TIDAK TIDAK 1314194 MI.6/XII 879 2 3 TIDAK TIDAK 1314198 MI.6/XII 907 2 2 YA TIDAK 1314199 MI.6/XII 899 1 2 TIDAK TIDAK 1314200 MI.6/XII 921 2 2 YA TIDAK 1314201 MI.6/XII 863 2 1 TIDAK TIDAK 1314202 MI.6/XII 863 1 4 TIDAK TIDAK 1314203 MI.6/XII 860 2 2 TIDAK TIDAK 1314204 MI.6/XII 905 2 3 YA YA 1314205 MI.6/XII 910 3 3 YA YA 1314206 MI.6/XII 900 2 3 TIDAK YA 1314207 MI.6/XII 887 2 3 TIDAK TIDAK 1314208 MI.6/XII 884 1 2 TIDAK TIDAK Penghasilan orangtua *1 >= Rp. 2.000.000 *2 = Rp. 1.000.000-1.999.999 *3 <= Rp.999.999

Tabel 4.11 Hasil Confusion Matrix Jumlah Data Testing True Positif (TP) False Positif (FP) True Negatif (TN) False Negatif (FN) 107 25 5 60 17 Pada Tabel diatas dengan perbandingan data 80:20 menghasilkan true positif (TP) sebanyak 25, false positif (FP) sebanyak 5, true negatve (TN) sebanyak 60 data, dan false negative (FN) sebanyak 17 data. Jika confusion matrix sudah diketahui maka selanjutnya menghitung Akurasi, Tabel 4.12 Evaluasi dan Validasi Presentase Data Data Akurasi Data Training Testing 80%:20% 340 107 79% Pada tabe di atas data dengan perbandingan 80%:20% memiliki akurasi sebesar 79%, Perhitungan akurasi dilakikan dengan cara membagi jumlah data yang diklasifikasi secara benar dengan toal sample data testing yang diuji. Akurasi = jumla h data yang benar = 85 = 0,79x100% = 79% jumla h data testing yang dilakukan 107