POHON KEPUTUSAN DENGAN ALGORITMA C4.5

dokumen-dokumen yang mirip
ALGORITMA C4.5 UNTUK SIMULASI PREDIKSI KEMENANGAN DALAM PERTANDINGAN SEPAKBOLA

Universitas Putra Indonesia YPTK Padang Fakultas Ilmu Komputer Program Studi Teknik Informatika. Classification Decision Tree

BAB II LANDASAN TEORI

BAB 2 TINJAUAN PUSTAKA

Manfaat Pohon Keputusan

BAB II TINJAUAN PUSTAKA DAN LANDASAN TEORI. yang tepat. Sistem data mining mampu memberikan informasi yang tepat dan

BAB II TINJAUAN PUSTAKA

JURNAL IMPLEMENTASI DATA MINING DENGAN ALGORITMA C4.5 UNTUK MEMPREDIKSI PRESTASI SISWA

BAB 2 LANDASAN TEORI

Jurnal Informatika Mulawarman Vol. 12, No. 1, Februari ISSN

BAB I PENDAHULUAN 1.1 Latar Belakang

Metode Iterative Dichotomizer 3 ( ID3 ) Untuk Penyeleksian Penerimaan Mahasiswa Baru

IMPLEMENTASI ALGORITMA C4.5 UNTUK KLASIFIKASI BIDANG KERJA ALUMNI DI STMIK LPKIA BANDUNG

BAB 2 TINJAUAN PUSTAKA

BAB 2 LANDASAN TEORI

BAB II TINJAUAN PUSTAKA

LAPORAN TUGAS AKHIR IMPLEMENTASI DATA MINING ALGORITMA C4

IMPLEMENTASI ALGORITMA FUZZY SEBAGAI PENGGALIAN INFORMASI KETERLAMBATAN KELULUSAN TUGAS AKHIR MAHASISWA DENGAN METODE DECISION TREE

BAB II LANDASAN TEORI

BAB IV HASIL PENELITIAN DAN PEMBAHASAN

BAB I PENDAHULUAN. waktu mendatang. Perkembangan teknologi informasi membuat pencarian. data data sangat mudah bahkan cenderung berlebihan.

Belajar Mudah Algoritma Data Mining : C4.5

BAB 2 LANDASAN TEORI

LEARNING ARTIFICIAL INTELLIGENT. Dr. Muljono, S.Si, M. Kom

BAB II DASAR TEORI. untuk memenuhi berbagai kebutuhan. Kumpulan file/table/arsip yang saling berhubungan yang disimpan dalam

IMPLEMENTASI ALGORITMA C4.5 UNTUK MENENTUKAN PENERIMA BEASISWA DI STT HARAPAN MEDAN

PROGRAM BANTU SELEKSI AWAL DOSEN BERPRESTASI MENGGUNAKAN METODE ITERATIVE DICHOTOMISER 3

BAB II LANDASAN TEORI

BAB III METODE PENELITIAN

ABSTRAKSI 2 DECISION TREE 1 PENDAHULUAN

Penggunaan Pohon Keputusan untuk Data Mining

APLIKASI DATA MINING DENGAN METODE CLASSIFICATION BERBASIS ALGORITMA C4.5

PENERAPAN TEKNIK DATA MINING UNTUK MENENTUKAN HASIL SELEKSI MASUK SMAN 1 GIBEBER UNTUK SISWA BARU MENGGUNAKAN DECISION TREE

TEKNIK KLASIFIKASI POHON KEPUTUSAN UNTUK MEMPREDIKSI KEBANGKRUTAN BANK BERDASARKAN RASIO KEUANGAN BANK

BAB 2 TINJAUAN PUSTAKA

IMPLEMENTASI DATA MINING PADA PENENTUAN JUMLAH SKS MENGGUNAKAN DECISION TREE

HASIL DAN PEMBAHASAN. Setiap tahapan di dalam penelitian ini akan ditunjukkan di dalam Tabel 2.

Kecerdasan Buatan Materi 6. Iterative Dichotomizer Three (ID3)

IMPLEMENTASI DECISION TREE UNTUK MEMPREDIKSI JUMLAH MAHASISWA PENGAMBIL MATAKULIAH DENGAN MENGGUNAKAN STUDI KASUS DI JURUSAN TEKNIK INFORMATIKA ITS

DATA MINING KLASIFIKASI BERBASIS DECISION TREE. Ramadhan Rakhmat Sani, M.Kom

PENERAPAN DECISION TREEALGORITMA C4.5 DALAM PENGAMBILAN KEPUTUSAN HUNIAN TEMPAT TINGGAL

PEMBENTUKAN DECISION TREE DATA LAMA STUDI MAHASISWA MENGGUNAKAN ALGORITMA NBTREE DAN C4.5

SOLUSI PREDIKSI MAHASISWA DROP OUT PADA PROGRAM STUDI SISTEM INFORMASI FAKULTAS ILMU KOMPUTER UNIVERSITAS BINA DARMA

Lingkungan Pengembangan HASIL DAN PEMBAHASAN

BAB 2 TINJAUAN PUSTAKA

Metode Iterative Dichotomizer 3 ( ID3 ) Untuk Penerimaan Mahasiswa Baru

Educational Data Mining untuk Mengetahui Pola Minat Kerja Mahasiswa

Pohon Keputusan. 6.1 Inductive Learning

BAB IV HASIL DAN PEMBAHASAN. Data yang digunakan dalam penelitian ini adalah data warehouse

DECISION TREE BERBASIS ALGORITMA UNTUK PENGAMBILAN KEPUTUSAN

ARTIKEL SISTEM PAKAR PENDETEKSI GIZI BURUK PADA ANAK MENGGUNAKAN METODE DECISSION TREEC4.5

PROGRAM BANTU PEMILIHAN PAKAIAN DAN BAHAN BATIK BAGI KONSUMEN DENGAN PENDEKATAN DECISION TREE Studi Kasus : Toko InBATIK

PENENTUAN PENERIMA BEASISWA PENINGKATAN PRESTASI AKADEMIK DENGAN ALGORITME C5.0

BAB II TINJAUAN PUSTAKA Indeks Prestasi Kumulatif dan Lama Studi. menggunakan dokumen/format resmi hasil penilaian studi mahasiswa yang sudah

BAB III ANALISIS DAN DESAIN SISTEM

Bab 2 Tinjauan Pustaka 2.1 Penelitian Sebelumnya

BAB 3 ALGORITMA C4.5. Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan.

JURNAL IMPLEMENTASI ALGORITMA C4.5 DALAM PENENTUAN JURUSAN DI SMK PEMUDA PAPAR KEDIRI

IMPLEMENTASI DATA MINING ALGORITMA C4.5 UNTUK MEMPREDIKSI PEMBAYARAN PINJAMAN PADA KOPERASI SIMPAN PINJAM PRIMKOVERI BINA BAKTI PEMALANG

TINJAUAN PUSTAKA. Definisi Data Mining

BAB 1 PENDAHULUAN 1-1

PENERAPAN DATA MINING UNTUK MENGANALISA JUMLAH PELANGGAN AKTIF DENGAN MENGGUNAKAN ALGORITMA C4.5

LANDASAN TEORI Data Mining

PENERAPAN ALGORITMA C4.5 DALAM PENERIMAAN CALON KARYAWAN PT. TELKOM AKSES AREA LAMPUNG BERBASIS WEBSITE

ALGORITMA C4.5. Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan. Tabel 3.1. Keputusan Bermain Tenis

BAB IV METODOLOGI PENELITIAN. Penelitian ini dilakukan dengan melalui empat tahap utama, dimana

PENERAPAN ALGORITMA C5.0 DALAM PENGKLASIFIKASIAN DATA MAHASISWA UNIVERSITAS NEGERI GORONTALO

SISTEM PENUNJANG KEPUTUSAN PENERIMA BEASISWA DENGAN METODE DESCISION TREE C4.5 Pada SMAK YOS SUDARSO BATU

Penerapan Algoritma C4.5 Untuk Menentukan Kesesuaian Lensa Kontak dengan Mata Pasien

APLIKASI KLASIFIKASI PEMENUHAN GIZI PADA LANSIA MENGGUNAKAN METODE DECISION TREE ID3

PENERAPAN ALGORITMA C4.5 UNTUK KLASIFIKASI PREDIKAT KEBERHASILAN MAHASISWA DI AMIK TUNAS BANGSA. Abstrak

Klasifikasi Data Karyawan Untuk Menentukan Jadwal Kerja Menggunakan Metode Decision Tree

Penerapan Pohon Keputusan dalam Pengambilan Keputusan Terbaik dibidang Pemasaran Produk

Model Data Mining sebagai Prediksi Penyakit Hipertensi Kehamilan dengan Teknik Decision Tree

Versi Online tersedia di : JURNAL TECH-E (Online)

IMPLEMENTASI DATA MINING UNTUK MENGETAHUI PERILAKU SESEORANG DALAM MEMBELI ALAT PANAHAN

SATIN Sains dan Teknologi Informasi

BAB I PENDAHULUAN. ada tiga, yaitu association rules, classification dan clustering.

Penggunaan Pohon Keputusan untuk Klasifikasi Tingkat Kualitas Mahasiwa Berdasarkan Jalur Masuk Kuliah

PENERAPAN ALGORITMA C4.5 UNTUK MENGETAHUI POLA MINAT KERJA DAN BAKAT MAHASISWA DI STMIK LPKIA BANDUNG

PENERAPAN METODE POHON KEPUTUSAN DENGAN ALGORITME ITERATIVE DYCHOTOMISER 3 (ID3) PADA DATA PRODUKSI JAGUNG DI PULAU JAWA

SISTEM REKOMENDASI PEMILIHAN TIKET PESAWAT ONLINE MENGGUNAKAN METODE DECISION TREE DI PT. ANTA UTAMA KEDIRI

Implementasi Model Pohon Kepututusan Untuk Mengklasifikasi Masa Studi Mahasiswa Menggunakan Algoritma C4.5 [Universitas Diponegoro]

4.1. Pengambilan Data

DATA MINING POTENSI AKADEMIK SISWA BERBASIS ONLINE

PRAKTIKUM KE-5 KLASIFIKASI I

BAB 2 TINJAUAN PUSTAKA

Sebelumnya... Sistem Pakar berbasis Logika Fuzzy

ISSN: JURNAL GAUSSIAN, Volume 3, Nomor 4, Tahun 2014, Halaman Online di:

Supervised Learning Misalkan kita ingin membuat suatu program komputer yang ketika diberi gambar seseorang, dapat menentukan apakah orang dalam

Ika Widiastuti, Decision Tree Dengan Algoritma C-45 Untuk Identifikasi Hama dan Penyakit Bunga Krisan (Chrysantheum Morfilium)

KLASIFIKASI PENENTUAN TIM UTAMA OLAHRAGA HOCKEY MENGGUNAKAN ALGORITMA C4.5 (STUDI KASUS : HOCKEY KABUPATEN KENDAL)

ALGORITMA C4.5 UNTUK PENILAIAN KINERJA KARYAWAN

BAB II TINJAUAN PUSTAKA DAN LANDASAN TEORI

APLIKASI PENENTUAN CALON PENDONOR DARAH MENGGUNAKAN METODE ALGORITMA ID3 ( STUDI KASUS PMI KOTA KEDIRI )

PEMBENTUKAN MODEL KLASIFIKASI DATA LAMA STUDI MAHASISWA STMIK INDONESIA MENGGUNAKAN DECISION TREE DENGAN ALGORITMA NBTREE

Algoritma C4.5. Untuk memudahkan penjelasan mengenai algoritma C4.5 berikut ini disertakan contoh kasus yang dituangkan dalam Tabel 1.

Decision Tree Learning Untuk Penentuan Jalur Kelulusan Mahasiswa

PENERAPAN METODE DECISION TREE UNTUK PENENTUAN NILAI PRINSIP-PRINSIP E-PROCUREMENT

Penerapan Data Mining dalam Memprediksi Pembelian cat

Transkripsi:

POHON KEPUTUSAN DENGAN ALGORITMA C4.5 1. Pengantar Algoritma C4.5 Klasifikasi merupakan salah satu proses pada data mining yang bertujuan untuk menemukan pola yang berharga dari data yang berukuran relatif besar hingga sangat besar. Data tersebut saat ini kebanyakan dikelola menggunakan Database Management System (DBMS) baik sebagai database maupun data warehouse. Algoritma C4.5 merupakan salah satu algoritma klasifikasi yang populer pada kelompok algoritma pohon keputusan. Pada tahap belajar dari data pelatihan, algoritma C4.5 mengkonstruksi pohon keputusan. Pada tahap klasifikasi, pohon keputusan digunakan untuk memprediksi kelas dari sebuah kasus yang kelasnya belum diketahui. Prinsip kerja algoritma ini dalam proses belajar adalah membaca seluruh sampel/kasus dari storage dan memuatnya ke memori, kemudian melakukan komputasi dengan membaca sampel-sampel di memori untuk mengkonstruksi pohon (yang juga disimpan di memori). Dengan pendekatan ini, salah satu kelemahan algoritma C4.5 yang termasuk dalam kategori skalabilitas adalah algoritma tersebut hanya dapat digunakan untuk menangani sampel-sampel yang dapat disimpan secara keseluruhan dan pada waktu yang bersamaan di memori. 2. Pohon Keputusan (Decision Tree) Pohon keputusan yaitu pohon dalam analisis pemecahan masalah pengambilan keputusan mengenai pemetaan mengenai alternatif-alternatif pemecahan masalah yang dapat diambil dari masalah tersebut. Pohon tersebut juga memperlihatkan faktor-faktor kemungkinan/probablitas yang akan mempengaruhi alternatif-alternatf keputusan tersebut, disertai dengan estimasi hasil akhir yang akan didapat bila kita mengambil alternatif keputusan tersebut. Decision tree menggunakan struktur hierarki untuk pembelajaran supervised. Proses dari decision tree dimulai dari root node hingga leaf node yang dilakukan secara rekursif. Di mana setiap percabangan menyatakan suatu kondisi yang harus dipenuhi dan pada setiap ujung pohon menyatakan kelas dari suatu data. Proses dalam pohon keputusan yaitu mengubah bentuk data (tabel) menjadi model pohon (tree) kemudian mengubah model pohon tersebut menjadi aturan

(rule). Metode pohon keputusan digunakan untuk memperkirakan nilai diskret dari fungsi target yang mana fungsi pembelajaran direpresentasikan oleh sebuah pohon keputusan (decision tree). Pohon keputusan terdiri dari himpunan IF THEN. Setiap path dalam tree dihubungkan dengan sebuah aturan, dimana premis terdiri atas sekumpulan node-node yang ditemui dan kesimpullannya dari aturan atas kelas yang terhubung dengan leaf node dari path. 2.1 Kelebihan Pohon Keputusan Metode pohon keputusan mempunyai beberapa kelebihan, diantaranya sebagai berikut : 1. Daerah pengambilan keputusan yang sebelumnya kompleks dan sangat global, dapat diubah menjadi simple dan spesifik. 2. Eliminasi perhitungan-perhitungan yang tidak diperlukan, karena ketika menggunakan metode pohon keputusan maka contoh diuji hanya berdasarkan kriteria atau kelas-kelas tertentu. 3. Fleksibel untuk memilih fitur dari internal node yang berbeda, fitur yang terpilih akan membedakan suatu kriteria dibandingkan kriteria yang lain dalam node yang sama. 4. Metode pohon keputusan dapat menghindari munculnya permasalahan ini dengan menggunakan kriteria yang jumlahnya lebih sedikit pada setiap node internal tanpa banyak mengurangi kualitas keputusan yang dihasilkan.

2.2 Kekurangan Pohon Keputusan Selain kelebihan dari pohon keputusan, terdapat juga beberapa kekurangan dari pohon keputusan, diantaranya sebagai berikut : 1. Terjadi overlap terutama ketika kelas-kelas dan kriteria yang digunakan jumlahnya sangat banyak. Hal tersebut juga dapat menyebabkan meningkatnya waktu pengambilan keputusan dan jumlah memori yang diperlukan. 2. Pengakumulasian jumlah eror dari setiap tingkat dalam sebuah pohon keputusan yang besar. 3. Kesulitan dalam mendesain pohon keputusan yang optimal 4. Hasil kualitas keputusan yang didapatkan dari metode pohon keputusan sangat tergantung pada bagaimana pohon tersebut didesain. 2.3 Arsitektur Pohon Keputusan Arsitektur pohon keputusan dibuat menyerupai bentuk pohon, dimana pada umumnya sebuah pohon terdapat akar (root), cabang dan daun (leaf). Pada pohon keputusan juga terdiri dari tiga bagian sebagai berikut : a. Root node Root node atau node akar merupakan node yang terletak paling atas dari suatu pohon. b. Internal node Internal Node ini merupakan node percabangan, dimana pada node ini hanya terdapat satu input dan mempunyai minimal dua output. c. Leaf node Node ini merupakan node akhir, hanya memiliki satu input, dan tidak memiliki output. Pada pohon keputusan setiap leaf node menandai label kelas.

Pada pohon keputusan di setiap percabangan menyatakan kondisi yang harus dipenuhi dan tiap ujung pohon menyatakan nilai kelas data. Gambar berikut merupakan bentuk arsitektur pohon keputusan. A ROOT NODE x1 x4 x2 x3 a1 B INTERNAL NODE C a4 y1 y2 y3 z1 z2 z3 LEAF NODE b1 D b3 c1 c2 c3 w1 w2 w3 d1 d2 d3 Gambar 1. Arsitektur Pohon Keputusan Lambang bulat pada pohon keputusan melambangkan node akar (root node) dan juga node cabang (internal node). Namun node akar selalu terletak paling atas tanpa memiliki input, sedangkan node cabang mempunyai input. Lambang kotak melambangkan node daun (leaf node). Setiap node daun berisi nilai atribut dari node cabang atau node akarnya.

3. Algoritma C4.5 Algoritma C4.5 adalah algoritma klasifikasi data dengan teknik pohon keputusan yang terkenal dan disukai karena memiliki kelebihan-kelebihan. Kelebihan ini misalnya dapat mengolah data numerik (kontinyu) dan diskret, dapat menangani nilai atribut yang hilang, menghasilkan aturan-aturan yang mudah diinterpretasikan dan tercepat di antara algoritma-algoritma yang menggunakan memori utama di komputer. Algoritma C4.5 mengkonstruksi pohon keputusan dari data pelatihan, yang berupa kasus-kasus atau record (tupel) dalam basisdata. Setiap kasus berisikan nilai dari atribut-atribut untuk sebuah kelas. Setiap atribut dapat berisi data diskret atau kontinyu (numerik). C4.5 juga menangani kasus yang tidak memiliki nilai untuk sebuah atau lebih atribut. Akan tetapi, atribut kelas hanya bertipe diskret dan tidak boleh kosong. Ada tiga prinsip kerja algoritma C4.5 pada tahap belajar dari data, yaitu sebgai berikut : 1. Pembuatan Pohon Keputusan Obyektif dari algoritma pohon keputusan adalah mengkonstruksi struktur data pohon (dinamakan pohon keputusan) yang dapat digunakan untuk memprediksi kelas dari sebuah kasus atau record baru yang belum memiliki kelas. Algoritma ini memilih pemecahan kasus-kasus yang terbaik dengan menghitung dan membandingkan gain ratio, kemudian pada node-node yang terbentuk di level berikutnya. Demikian seterusnya sampai terbentuk daundaun. 2. Pemangkasan Pohon Keputusan dan Evaluasi (Opsional) Karena pohon yang dikonstruksi dapat berukuran besar dan tidak mudah dibaca, C4.5 dapat menyederhanakan pohon dengan melakukan pemangkasan berdasarkan nilai tingkat kepercayaan (confidence level). Selain untuk pengurangan ukuran pohon, pemangkasan juga bertujuan untuk mengurangi tingkat kesalahan prediksi pada kasus (rekord) baru.

3. Pembuatan Aturan-Aturan dari Pohon Keputusan (Opsional) Aturan-aturan dalam bentuk if-then diturunkan dari pohon keputusan dengan melakukan penelusuran dari akar sampai ke daun. Setiap node dan syarat pencabangannya akan diberikan di if, sedangkan nilai pada daun akan menjadi ditulis di then. Setelah semua aturan dibuat, maka aturan akan disederhanakan (digabung atau diperumum). 3.1 Langkah-Langkah Konstruksi Pohon Keputusan dengan Algoritma C4.5 Adapun langkah-langkah dalam konstruksi pohon keputusan adalah sebagai berikut : Langkah 1: Pohon dimulai dengan sebuah simpul yang mereperesentasikan sampel data pelatihan yaitu dengan membuat simpul akar. Langkah 2 : Jika semua sampel berada dalam kelas yang sama, maka simpul ini menjadi daun dan dilabeli menjadi kelas. Jika tidak, gain ratio akan digunakan untuk memilih atribut split, yaitu atribut yang terbaik dalam memisahkan data sampel menjadi kelas-kelas individu. Langkah 3 : Cabang akan dibuat untuk setiap nilai pada atribut dan data sampel akan dipartisi lagi. Langkah 4 : Algoritma ini menggunakan proses rekursif untuk membentuk pohon keputusan pada setiap data partisi. Jika sebuah atribut sduah digunakan disebuah simpul, maka atribut ini tidak akan digunakan lagi di simpul anak-anaknya. Langkah 5 : Proses ini berhenti jika dicapai kondisi seperti berikut : - Semua sampel pada simpul berada di dalam satu kelas - Tidak ada atribut lainnya yang dapat digunakan untuk mempartisi sampel lebih lanjut. Dalam hal ini akan diterapkan suara terbanyak. Ini berarti mengubah sebuah simpul menjadi daun dan melabelinya dnegan kelas pada suara terbanyak.

3.2 Entropy Dalam teori informasi, entropi mengukur ketidakpastian antar variabel acak dalam file data. Claude E. Shannon telah mengembangkan gagasan tentang entropi dari variabel acak. Entropi dan informasi terkait menyediakan perilaku jangka panjang dari proses acak yang sangat berguna untuk menganalisis data. Perilaku dalam proses acak juga merupakan faktor kunci untuk mengembangkan pengkodean untuk teori informasi. Entropi merupakan pengukuran ketidakpastian rata-rata kumpulan data ketika kita tidak tahu hasil dari sumber informasi. Itu berarti bahwa seberapa banyak pengukuran informasi yang kita tidak punya. Ini juga menunjukkan jumlah rata-rata informasi yang kami akan menerima dari hasil sumber informasi. Untuk mendapatkan nilai gain ratio dalam pembentukan pohon keputusan, perlu menghitung dulu nilai informasi dalam satuan bits dari suatu kumpulan objek Bentuk perhitungan untuk entropi adalah sebagai berikut : ( ) 2 2 dimana, X : Himpunan Kasus k : jumlah partisi X p j : Proporsi X j terhadap X Entropi split yang membagi X dengan n record menjadi himpunan-himpunan X 1 dengan n 1 baris dan X 2 dengan n 2 baris adalah : ( ) ( ) ( ) Besar nilai Entropy(X) menunjukkan bahwa X adalah atribut yang lebih acak. Di sisi lain, atribut yang lebih kecil dari nilai Entropy(X) menyiratkan atribut ini sedikit lebih acak yang signifikan untuk data mining. Nilai entropi mencapai nilai minimum 0, ketika semua p j lain = 0 atau berada pada kelas yang sama. Nilainya mencapai maksimum log 2 k, ketika semua nilai p j adalah sama dengan 1/k.

3.3 Gain Ratio Pada kontruksi pohon C4.5, di setiap simpul pohon, atribut dengan nilai gain ratio tertinggi dipilih sebagai atribut split untuk simpul. Rumus dari gain ratio adalah sebagai berikut : ( ) ( ) ( ) Dimana gain(a) adalah information gain dari atribut a untuk himpunan sampel X dan split info(a) menyatakan entropi atau informasi potensial yang didapat pada pembagian X menjadi n sub himpunan berdasarkan telaahan pada atribut a. Sedangkan gain(a) didefinisikan sebagai berikut : ( ) ( ) ( ) Untuk rumus split info(a) adalah sebagai berikut : ( ) ( ) dimana X i menyatakan sub himpunan ke-i pada sampel X. Dengan kata lain rumus untuk menghitung nilai gain ratio untuk dipilih sebagai atribut dari simpul yang ada sebagai berikut ini : ( ) ( ) ( ) Alasan penggunaan gain ratio(a) pada C4.5 (bukan gain(a)) sebagai kriteria pada pemilihan atribut adalah gain ternyata bias terhadap atribut yagn memiliki banyak nilai unik.

CONTOH Soal : Terdapat data pelamar pekerjaan beserta hasil penerimaannya pada sebuah Bank. Pada tabel berikut terdapat 10 atribut yaitu bagian pekerjaan yang akan dicari, pendidikan terakhir, jurusan sewaktu kuliah, IPK terakhir, hasil wawancara, kelengkapan berkas pelamar, kerapian penampilan pelamar, umur, status pelamar dan hasil penerimaan kerja. Buatlah pohon keputusan dengan menggunakan algoritma C4.5! PELAMAR BAGIAN PENDIDIKAN JURUSAN IPK WAWANCARA KELENGKAPAN BERKAS KERAPIAN UMUR STATUS HASIL 1 TELLER S1 AKUNTANSI 3,8 BAIK LENGKAP BAIK 27 MENIKAH 2 TELLER S1 AKUNTANSI 2,8 CUKUP TDK LENGKAP BAIK 28 LAJANG 3 TELLER S1 AKUNTANSI 2,7 CUKUP LENGKAP BAIK 32 BERCERAI 4 IT S2 INFORMATIKA 3,6 BAIK LENGKAP CUKUP 29 LAJANG 5 IT S1 INFORMATIKA 3,6 BAIK LENGKAP CUKUP 26 LAJANG 6 IT S2 INFORMATIKA 2,6 BAIK TDK LENGKAP BURUK 28 MENIKAH 7 IT D3 INFORMATIKA 2,5 CUKUP TDK LENGKAP BURUK 27 LAJANG 8 TELLER D3 AKUNTANSI 3,4 CUKUP TDK LENGKAP BAIK 22 LAJANG 9 MARKETING S2 MANAJEMEN 3,5 CUKUP LENGKAP BAIK 29 LAJANG 10 MARKETING S2 MANAJEMEN 2,8 BURUK LENGKAP BAIK 29 MENIKAH 11 TELLER S1 AKUNTANSI 3,2 BAIK LENGKAP CUKUP 27 MENIKAH 12 TELLER D2 MANAJEMEN 3,3 BAIK LENGKAP CUKUP 33 MENIKAH

13 TELLER D2 MANAJEMEN 2,8 BURUK TDK LENGKAP CUKUP 22 BERCERAI 14 TELLER S1 AKUNTANSI 2,8 BAIK TDK LENGKAP CUKUP 31 BERCERAI 15 TELLER S1 AKUNTANSI 2,4 BURUK TDK LENGKAP CUKUP 21 MENIKAH 16 TELLER S1 AKUNTANSI 2,5 BAIK LENGKAP CUKUP 25 MENIKAH 17 MARKETING S2 MATEMATIKA 3,2 CUKUP LENGKAP BAIK 25 LAJANG 18 19 CUST. SERVICE CUST. SERVICE S1 MATEMATIKA 3,4 BAIK LENGKAP BAIK 26 LAJANG S1 MATEMATIKA 2,7 CUKUP LENGKAP BAIK 26 LAJANG 20 MARKETING S2 MANAJEMEN 3,3 BAIK LENGKAP BURUK 29 LAJANG 21 MARKETING S2 MANAJEMEN 3,4 BAIK LENGKAP BAIK 33 MENIKAH 22 TELLER D3 MANAJEMEN 2,3 BURUK LENGKAP BAIK 23 MENIKAH 23 24 25 26 27 CALL CENTRE CALL CENTRE CUST. SERVICE CUST. SERVICE CUST. SERVICE D1 INFORMATIKA 3,2 BAIK TDK LENGKAP BAIK 23 MENIKAH D1 INFORMATIKA 2,4 BURUK LENGKAP BURUK 29 LAJANG S1 AKUNTANSI 3,3 BAIK LENGKAP BURUK 26 LAJANG S1 AKUNTANSI 2,4 CUKUP TDK LENGKAP BAIK 26 LAJANG S1 AKUNTANSI 3,3 CUKUP LENGKAP BURUK 27 MENIKAH 28 TELLER S1 MANAJEMEN 3,2 CUKUP TDK LENGKAP CUKUP 24 LAJANG 29 TELLER S1 MANAJEMEN 3,4 BAIK LENGKAP BAIK 24 LAJANG 30 TELLER S1 MANAJEMEN 2,9 BURUK TDK LENGKAP BAIK 29 LAJANG

PENYELESAIAN Dari kasus diatas akan dibuat sebuah pohon keputusan untuk menentukan pelamar baru apakah diterima atau tidak. Berikut rincian langakah penyelasaian dalam pemebentukan pohon keputusan. Langkah 1 : Menghitung nilai entropy dan nilai gain Lakukan perhitungan untuk jumlah kasus keseluruhan yang ada, jumlah kasus untuk hasil Lulus dan juga jumlah kasus untuk hasil Tidak Lulus. Kemudian lakukan perhitungan untuk mencari nilai Entropy dari setiap nilai atribut dan nilai Gain untuk setiap atribut. Jumlah kasus : 30 Jumlah kasus dengan hasil Lulus : 19 Jumlah kasus dengan hasil Tidak Lulus : 11 Hitung nilai entropy dari total kasus : ( ) ( ) ( ) Lakukan juga perhitungan untuk nilai entropy pada setiap atribut :

Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian lakukan perhitungan untuk mencari nilai gain dari setiap atribut. Nilai gain dari masing-masing atribut : ( ) ( ) ( ) ( ) (( ) ( ) ( ) ( ) ( )) ( ) (( ) ( ) ( ) ( ) ( )) ( ) (( ) ( ) ( ) ( )) ( ) (( ) ( ) ( ) ( )) ( ) (( ) ( ) ( )) ( ) (( ) ( )) ( ) (( ) ( ) ( )) ( ) (( ) ( ) ( ) ( )) ( ) (( ) ( ) ( ))

Hasil perhitungan untuk nilai entropy dan gain ditunjukkan dalam tabel berikut. ATRIBUT BANYAK KASUS (L) TDK (TL) ENTROPY GAIN TOTAL 0,9481 KASUS 30 19 11 BAGIAN 0,0659 TELLER 14 7 7 1 MARKETING 5 4 1 0,7219 IT 4 3 1 0,8113 CALL 2 CENTRE 1 1 1 CUST. 5 SERVICE 4 1 0,7219 PENDIDIKAN 0,0758 D1 2 1 1 1 D2 2 1 1 1 D3 3 1 2 0,9183 S1 16 10 6 0,9544 S2 7 6 1 0,5917 JURUSAN 0,0763 AKUNTANSI 11 6 5 0,9940 MANAJEMEN 10 6 4 0,9710 INFORMATIKA 6 4 2 0,9183 MATEMATIKA 3 3 0 0 IPK 0,4589 <2,5 4 0 4 0 2.5-3 10 4 6 0,9710 3-3.5 12 11 1 0,4138 >3,5 4 4 0 0 WAWANCARA 0,2183 BAIK 14 12 2 0,5917 CUKUP 10 6 4 0,9710 BURUK 6 1 5 0,6500 BERKAS 0,0570 LENGKAP 19 14 5 0,8315 TDK 11 1 LENGKAP 5 6 KERAPIAN 0,0035 BAIK 15 9 6 0,9710 CUKUP 9 6 3 0,9183 BURUK 6 4 2 0,9183 UMUR 0,1430

<=23 5 3 2 1 24-27 13 11 2 0,6194 28-30 8 4 4 1,0000 >30 4 1 3 0,8113 STATUS 0,0316 LAJANG 16 11 5 0,8960 MENIKAH 11 7 4 0,9457 BERCERAI 3 1 2 0,9183 MAX = 0,4589 Langkah 2 : Menentukan node akar Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain terbesar yaitu pada atribut IPK yaitu sebesar 0,4589. Sehingga atribut IPK menjadi node akar. Pada atribut IPK terdapat 4 nilai atribut, yaitu <2.5, 2.5-3, 3-3.5, >3.5. Nilai atribut yang pertama yaitu <2.5 sudah mengklasifikasikan kasus menjadi 1 yaitu dengan hasil Tidak Lulus sehingga tidak perlu dilakukan perhitungan lebih lanjut. Dan nilai atribut keempat >3,5 sudah mengklasifikasikan kasus menjadi 1 yaitu dengan hasil Lulus, sehingga tidak perlu dilakukan perhitungan lebih lanjut. Sedangkan nilai atribut kedua dan ketiga yaitu 2.5 3 dan 3-3.5 belum mengklasifikasikan kasus menjadi satu keputusan sehingga perlu dilakukan perhitungan lagi. Dari proses tersebut maka dapat dihasilkan pohon sementara seperti berikut ini.

IPK <2,5 >3,5 2,5-3 3 3,5 1.2? 1.3? Langkah 3 : Mencari node cabang Perhitungan dilakukan untuk mencari node cabang dari nilai atribut 2.5-3. Perhitungan dilakukan dengan mencari nilai dari atribut selain yang menjadi node akar (IPK), yaitu dengan mencari jumlah kasus untuk hasil Lulus dan Tidak Lulus, dan nilai Entropy dari semua kasus saat IPK = 2.5 3. Dan kemudian lakukan perhitungan untuk mencari nilai Gain, dan atribut dengan nilai Gain terbesar, maka akan menjadi node cabang dari nilai atribut 2.5-3. Node 1.2 : Jumlah kasus dengan IPK = 2,5 3 : 10 Jumlah kasus dengan IPK = 2,5 3 yang hasil Lulus : 4 Jumlah kasus dengan IPK = 2,5 3 yang hasil Tidak Lulus : 6 Hitung nilai entropy dari total kasus : ( ) ( ) ( )

Lakukan juga perhitungan untuk nilai entropy pada setiap atribut, kecuali pada atibut IPK :

Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian lakukan perhitungan untuk mencari nilai gain dari setiap atribut. Nilai gain dari masing-masing atribut : ( ) ( ) ( ) ( ) (( ) ( ) ( ) ( ) ( )) ( ) (( ) ( ) ( ) ( ) ( )) ( ) (( ) ( ) ( ) ( )) ( ) (( ) ( ) ( )) ( ) (( ) ( )) ( ) (( ) ( ) ( )) ( ) (( ) ( ) ( ) ( )) ( ) (( ) ( ) ( ))

Hasil perhitungan yang dilakukan ditunjukkan dalam tabel berikut. Node 1.2 : ATRIBUT BANYAK KASUS (L) TDK (TL) ENTROPY GAIN IPK 2,5-3 10 4 6 0,9710 BAGIAN 0,2200 TELLER 6 2 4 0,9183 MARKETING 1 0 1 0 IT 2 1 1 1 CALL CENTRE 0 0 0 0 CUST. SERVICE 1 1 0 0 PENDIDIKAN 0,2200 D1 0 0 0 0 D2 1 1 0 0 D3 1 0 1 0 S1 6 2 4 0,9183 S2 2 1 1 1 JURUSAN 0,1710 AKUNTANSI 4 1 3 0,8113 MANAJEMEN 3 1 2 0,9183 INFORMATIKA 2 1 1 1 MATEMATIKA 1 1 0 0 WAWANCARA 0,0955 BAIK 3 2 1 0,9183 CUKUP 4 1 3 0,8113 BURUK 3 1 2 0,9183 BERKAS 0,0200 LENGKAP 4 2 2 1 TDK LENGKAP 6 2 4 0,9183 KERAPIAN 0,1345 BAIK 5 1 4 0,7219 CUKUP 3 2 1 0,9183 BURUK 2 1 1 1 UMUR 0,3710 <=23 1 1 0 0 24-27 3 2 1 0,9183 28-30 4 1 3 0,8113 >30 2 0 2 0 STATUS 0,0955 LAJANG 4 1 3 0,8113 MENIKAH 3 2 1 0,9183 BERCERAI 3 1 2 0,9183 MAX = 0,3710

Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain terbesar yaitu pada atribut Umur yaitu sebesar 0,3710. Sehingga atribut Umur menjadi node cabang dari nilai atribut 2.5-3. Pada atribut Umur terdapat 4 nilai atribut, yaitu 23, 24-27, 28-30, >30. Nilai atribut yang pertama yaitu 23 sudah mengklasifikasikan kasus menjadi 1 yaitu dengan hasil Lulus sehingga tidak perlu dilakukan perhitungan lebih lanjut. Dan nilai atribut keempat yaitu >30 sudah mengklasifikasikan kasus menjadi 1 yaitu dengan hasil Tidak Lulus, sehingga tidak perlu dilakukan perhitungan lebih lanjut. Sedangkan nilai atribut kedua dan ketiga yaitu 24-27 dan 28-30 belum mengklasifikasikan kasus menjadi satu keputusan sehingga perlu dilakukan perhitungan lagi. Dari proses tersebut maka dapat dihasilkan pohon sementara seperti berikut ini. IPK <2,5 >3,5 2,5-3 3 3,5 1.2 UMUR 1.3? <=23 24-27 28-30 >30 1.2.2? 1.2.3?

Kemudian lakukan juga perhitungan untuk mencari node cabang dari nilai atribut 3-3.5. Perhitungan dilakukan dengan mencari nilai dari atribut selain yang menjadi node akar (IPK), yaitu dengan mencari jumlah kasus untuk hasil Lulus dan Tidak Lulus, dan nilai Entropy dari semua kasus saat IPK = 3-3.5. Dan kemudian lakukan perhitungan untuk mencari nilai Gain, dan atribut dengan nilai Gain terbesar, maka akan menjadi node cabang dari nilai atribut 3-3.5. Node 1.3 : Jumlah kasus dengan IPK = 3 3,5 : 12 Jumlah kasus dengan IPK = 3 3,5 yang hasil Lulus : 11 Jumlah kasus dengan IPK = 3 3,5 yang hasil Tidak Lulus : 1 Hitung nilai entropy dari total kasus : ( ) ( ) ( ) Lakukan juga perhitungan untuk nilai entropy pada setiap atribut, kecuali pada atibut IPK :

Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian lakukan perhitungan untuk mencari nilai gain dari setiap atribut. Nilai gain dari masing-masing atribut : ( ) ( ) ( ) ( ) (( ) ( ) ( ) ( ) ( )) ( ) (( ) ( ) ( ) ( ) ( )) ( ) (( ) ( ) ( ) ( ))

( ) (( ) ( ) ( )) ( ) (( ) ( )) ( ) (( ) ( ) ( )) ( ) (( ) ( ) ( ) ( )) ( ) (( ) ( ) ( )) Hasil perhitungan yang dilakukan ditunjukkan dalam tabel berikut. Node 1.3 : ATRIBUT BANYAK KASUS (L) TDK (TL) ENTROPY GAIN IPK 3-3,5 12 11 1 0,4138 BAGIAN 0,1130 TELLER 5 4 1 0,7219 MARKETING 3 3 0 0 IT 0 0 0 0 CALL CENTRE 1 1 0 0 CUST. SERVICE 3 3 0 0 PENDIDIKAN 0,4138 D1 1 1 0 0 D2 1 0 1 0 D3 1 1 0 0 S1 6 6 0 0 S2 3 3 0 0 JURUSAN 0,1130 AKUNTANSI 4 4 0 0 MANAJEMEN 5 4 1 0,7219 INFORMATIKA 1 1 0 0 MATEMATIKA 2 2 0 0 WAWANCARA 0,0514

BAIK 8 7 1 0,5436 CUKUP 4 4 0 0 BURUK 0 0 0 0 BERKAS 0,0364 LENGKAP 9 8 1 0,5033 TDK 3 0 LENGKAP 3 0 KERAPIAN 0,1842 BAIK 6 6 0 0 CUKUP 3 2 1 0,9183 BURUK 3 3 0 0 UMUR 0,2472 <=23 2 2 0 0 24-27 7 7 0 0 28-30 1 1 0 0 >30 2 1 1 1 STATUS 0,1130 LAJANG 7 7 0 0 MENIKAH 5 4 1 0,7219 BERCERAI 0 0 0 0 MAX = 0,4138 Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain terbesar yaitu pada atribut Pendidikan yaitu sebesar 0,4138. Sehingga atribut Pendidikan menjadi node cabang dari nilai atribut 3-3.5. Pada atribut Pendidikan terdapat 5 nilai atribut, dimana semua anilai atribut sudah mengklasifikasikan kasus menjadi 1 yaitu dengan hasil Lulus, Tidak Lulus, Lulus, Lulus dan Lulus sehingga tidak perlu dilakukan perhitungan lebih lanjut. Dari proses tersebut maka dapat dihasilkan pohon sementara seperti berikut ini.

IPK <2,5 >3,5 2,5-3 3 3,5 1.2 UMUR 1.3? PENDIDIK AN <=23 24-27 28-30 >30 D1 D2 D3 S1 S2 1.2.2? 1.2.3? Lakukan perhitungan untuk mencari node cabang dari nilai atribut umur 24-27. Perhitungan dilakukan dengan mencari nilai dari atribut selain yang menjadi node akar (IPK) dan node cabang (Umur), yaitu dengan mencari jumlah kasus untuk hasil Lulus dan Tidak Lulus, dan nilai Entropy dari semua kasus saat IPK = 2.5 3 dan Umur = 24-27. Dan kemudian lakukan perhitungan untuk mencari nilai Gain, dan atribut dengan nilai Gain terbesar, maka akan menjadi node cabang dari nilai atribut 24-27. Node 1.2.2 : Jumlah kasus dengan IPK = 2,5 3 dan UMUR = 24-27 : 3 Jumlah kasus dg IPK = 3 3,5 dan UMUR = 24-27 yang hasil Lulus : 2 Jumlah kasus dg IPK = 3 3,5 dan UMUR = 24 27 yang hasil Tdk Lulus : 1 Hitung nilai entropy dari total kasus : ( ) ( ) ( )

Lakukan juga perhitungan untuk nilai entropy pada setiap atribut, kecuali pada atibut IPK dan Umur :

Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian lakukan perhitungan untuk mencari nilai gain dari setiap atribut. Nilai gain dari masing-masing atribut : ( ) ( ) ( ) ( ) (( ) ( ) ( ) ( ) ( )) ( ) (( ) ( ) ( ) ( ) ( )) ( ) (( ) ( ) ( ) ( )) ( ) (( ) ( ) ( )) ( ) (( ) ( )) ( ) (( ) ( ) ( )) ( ) (( ) ( ) ( )) Hasil perhitungan yang dilakukan ditunjukkan dalam tabel berikut. Node 1.2.2 : ATRIBUT IPK 2,5-3 UMUR 24-27 BANYAK KASUS (L) TDK (TL) ENTROPY 3 2 1 0,9183 GAIN BAGIAN 0,9183 TELLER 1 1 0 0 MARKETING 0 0 0 0 IT 1 0 1 0 CALL CENTRE 0 0 0 0 CUST. 1 1 0 0

SERVICE PENDIDIKAN 0,9183 D1 0 0 0 0 D2 0 0 0 0 D3 1 0 1 0 S1 2 2 0 0 S2 0 0 0 0 JURUSAN 0,9183 AKUNTANSI 1 1 0 0 MANAJEMEN 0 0 0 0 INFORMATIKA 1 0 1 0 MATEMATIKA 1 1 0 0 WAWANCARA 0,2516 BAIK 1 1 0 0 CUKUP 2 1 1 1 BURUK 0 0 0 0 BERKAS 0,9183 LENGKAP 2 2 0 0 TDK 1 0 LENGKAP 0 1 KERAPIAN 0,9183 BAIK 1 1 0 0 CUKUP 1 1 0 0 BURUK 1 0 1 0 STATUS 0,2516 LAJANG 2 1 1 1 MENIKAH 1 1 0 0 BERCERAI 0 0 0 0 MAX = 0,9183 Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain terbesar yaitu sebesar 0,9183, karena ada beberapa atribut yang samasama memiliki nilai gain terbesar, maka dipilih salah satu atribut yaitu pada atribut Berkas. Sehingga atribut Berkas menjadi node cabang dari nilai atribut 24-27. Pada atribut Berkas terdapat 2 nilai atribut, dimana semua nilai atribut sudah mengklasifikasikan kasus menjadi 1 yaitu dengan hasil Lulus dan Tidak Lulus sehingga tidak perlu dilakukan perhitungan lebih lanjut.

Dari proses tersebut maka dapat dihasilkan pohon sementara seperti berikut ini. IPK <2,5 >3,5 2,5-3 3 3,5 1.2 UMUR 1.3? PENDIDIKAN <=23 24-27 28-30 >30 D1 D2 D3 S1 S2 1.2.2 BERKAS 1.2.3 WAWANCARA Kemudian lakukan perhitungan untuk mencari node cabang dari nilai atribut umur 28-30. Perhitungan dilakukan dengan mencari nilai dari atribut selain yang menjadi node akar (IPK) dan node cabang (Umur), yaitu dengan mencari jumlah kasus untuk hasil Lulus dan Tidak Lulus, dan nilai Entropy dari semua kasus saat IPK = 2.5 3 dan Umur = 28-30. Dan kemudian lakukan perhitungan untuk mencari nilai Gain, dan atribut dengan nilai Gain terbesar, maka akan menjadi node cabang dari nilai atribut 28-30.

Node 1.2.3 : Jumlah kasus dengan IPK = 2,5 3 dan UMUR = 28-30 : 4 Jumlah kasus dg IPK = 3 3,5 dan UMUR = 28-30 yang hasil Lulus : 1 Jumlah kasus dg IPK = 3 3,5 dan UMUR = 24-30 yang hasil Tdk Lulus : 3 Hitung nilai entropy dari total kasus : ( ) ( ) ( ) Lakukan juga perhitungan untuk nilai entropy pada setiap atribut, kecuali pada atibut IPK dan Umur :

Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian lakukan perhitungan untuk mencari nilai gain dari setiap atribut. Nilai gain dari masing-masing atribut : ( ) ( ) ( ) ( ) (( ) ( ) ( ) ( ) ( )) ( ) (( ) ( ) ( ) ( ) ( )) ( ) (( ) ( ) ( ) ( )) ( ) (( ) ( ) ( )) ( ) (( ) ( ))

( ) (( ) ( ) ( )) ( ) (( ) ( ) ( )) Hasil perhitungan yang dilakukan ditunjukkan dalam tabel berikut. Node 1.2.3 : ATRIBUT IPK 2,5-3 UMUR 28-30 BANYAK KASUS (L) TDK (TL) ENTROPY 4 1 3 0,8113 GAIN BAGIAN 0,8113 TELLER 2 0 2 0 MARKETING 1 0 1 0 IT 1 1 0 0 CALL CENTRE 0 0 0 0 CUST. SERVICE 0 0 0 0 PENDIDIKAN 0,3113 D1 0 0 0 0 D2 0 0 0 0 D3 0 0 0 0 S1 2 0 2 0 S2 2 1 1 1 JURUSAN 0,8113 AKUNTANSI 1 0 1 0 MANAJEMEN 2 0 2 0 INFORMATIKA 1 1 0 0 MATEMATIKA 0 0 0 0 WAWANCARA 0,8113 BAIK 1 1 0 0 CUKUP 1 0 1 0 BURUK 2 0 2 0 BERKAS 0 LENGKAP 1 0 1 0 TDK LENGKAP 3 1 2 0,9183

KERAPIAN 0,8113 BAIK 3 0 3 0 CUKUP 0 0 0 0 BURUK 1 1 0 0 STATUS 0,3113 LAJANG 2 0 2 0 MENIKAH 2 1 1 1 BERCERAI 0 0 0 0 MAX = 0,8113 Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain terbesar yaitu sebesar 0,8113, karena ada beberapa atribut yang samasama memiliki nilai gain terbesar, maka dipilih salah satu atribut yaitu pada atribut Wawancara. Sehingga atribut Wawancara menjadi node cabang dari nilai atribut 28-30. Pada atribut Wawancara terdapat 3 nilai atribut, dimana semua nilai atribut sudah mengklasifikasikan kasus menjadi 1 yaitu dengan hasil Lulus, Tidak Lulus dan Tidak Lulus sehingga tidak perlu dilakukan perhitungan lebih lanjut. Dari proses tersebut maka dapat dihasilkan pohon sementara seperti berikut ini.

IPK <2,5 >3,5 2,5-3 3 3,5 1.2 UMUR 1.3? PENDIDIK AN <=23 24-27 28-30 >30 D1 D2 D3 S1 S2 1.2.2 BERKAS 1.2.3 WAWANCA RA Pembentukan pohon keputusan dengan menggunakan algoritma C4.5 diatas sudah terselesaikan karena tidak ada lagi node cabang yang belum mengklasifikasikan 1 (satu) keputusan.

DAFTAR PUSTAKA 1. Moertini, Veronica S. Towards The Use of C4.5 Algorithm for Classifying Banking Dataset.2003. Sumber : http://home.unpar.ac.id/~integral/volume%208/integral%208%20no.%20 2/C45%20Algorithm.PDF 3. Korting, Thales Sehn. C4.5 Algorithm and Multivariate Decision Trees. Sumber : http://www.dpi.inpe.br/~tkorting/projects/c45/material.pdf 4. Hanik, Umi. Fuzzy Decision Tree dengan Algoritma C4.5 2011. Sumber : 2. Tickle, Kevin S, dkk. Improved C4.5 Algorithm for Rule Based Classification. Sumber : http://www.wseas.us/elibrary/conferences/2010/cambridge/aiked/aiked-47.pdf http://digilib.its.ac.id/public/its-undergraduate-17454-5107100002- Paper.pdf 5. Decision Tree (Pohon Keputusan). Sumber : http://novrina.staff.gunadarma.ac.id/downloads/files/21783/algoritma+c4. pdf 6. Moertini, Veronica S. Pengembangan Skalabilitas Algoritma Klasifikasi C4.5 dengan Pendekatan Konsep Operator Relasi.2007. Sumber : http://home.unpar.ac.id/~moertini/disertasi_veronicasm.pdf