HASIL DAN PEMBAHASAN

dokumen-dokumen yang mirip
KLASIFIKASI DOKUMEN BERITA MENGGUNAKAN METODE SUPPORT VECTOR MACHINE DENGAN KERNEL RADIAL BASIS FUNCTION ADYATMA BHASKARA HUTOMO

KLASIFIKASI DOKUMEN TEKS MENGGUNAKAN METODE SUPPORT VECTOR MACHINE DENGAN PEMILIHAN FITUR CHI-SQUARE ARINI DARIBTI PUTRI

ANALISIS PERBANDINGAN IMPLEMENTASI KERNEL PADA LIBRARY LibSVM UNTUK KLASIFIKASI SENTIMEN MENGGUNAKAN WEKA

PENGGUNAAN FITUR ABSTRAKSI DAN CATATAN PUBLIKASI PENULIS UNTUK KLASIFIKASI ARTIKEL ILMIAH DENGAN METADATA YANG TERBATAS

BAB III METODE PENELITIAN

BAB IV HASIL DAN PEMBAHASAN. jenis dokumen, yaitu dokumen training dan dokumen uji. Kemudian dua

BAB III METODELOGI PENELITIAN

BAB III ANALISA DAN PERANCANGAN SISTEM

BAB III ANALISIS DAN PERANCANGAN SISTEM

BAB II DASAR TEORI. Pada bab ini akan dibahas teori-teori pendukung yang digunakan sebagai acuan dalam merancang algoritma.

BAB IV METODOLOGI PENELITIAN. Penelitian ini dilakukan dengan melalui empat tahap utama, dimana

STUDI KOMPARASI METODE MULTICLASS SUPPORT VECTOR MACHINE UNTUK MASALAH ANALISIS SENTIMEN PADA TWITTER

PENDAHULUAN. Latar belakang

BAB 3 LANDASAN TEORI

beberapa tag-tag lain yang lebih spesifik di dalamnya.

BAB III METODOLOGI PENELITIAN

BAB III PERANCANGAN. Fitur. Reduksi & Pengelompokan. Gambar 3.1. Alur Pengelompokan Dokumen

UKDW 1. BAB 1 PENDAHULUAN Latar Belakang Masalah

BAB I. Pendahuluan. 1. Latar Belakang Masalah

4 Notepad dan Microsoft Excel sebagai editor data.

BAB 1 PENDAHULUAN. 1.1 Latar Belakang Masalah

1. PENDAHULUAN 1.1. Latar Belakang

BAB III METODOLOGI PENELITIAN

LAPORAN TUGAS AKHIR. Disusun oleh: Franky

IMPLEMENTASI ALGORITMA K-NEAREST NEIGHBOUR YANG BERDASARKAN ONE PASS CLUSTERING UNTUK KATEGORISASI TEKS

Bab 1 PENDAHULUAN. 1.1 Latar Belakang Masalah

BAB III ANALISIS DAN PENYELESAIAN MASALAH

PENERAPAN METODE KLASIFIKASI SUPPORT VECTOR MACHINE (SVM) PADA DATA AKREDITASI SEKOLAH DASAR (SD) DI KABUPATEN MAGELANG

BAB V EKSPERIMEN TEXT CLASSIFICATION

PENGENALAN CITRA TULISAN TANGAN DOKTER DENGAN MENGGUNAKAN SVM DAN FILTER GABOR

BAB IV EKSPERIMEN. 4.1 Tujuan

BAB 1 PENDAHULUAN 1.1 Latar Belakang Masalah 1.2 Hipotesis

BAB III METODOLOGI. Support Vector Machines (SVM) merupakan salah satu metode machine

BAB 3 ANALISIS DAN PERANCANGAN SISTEM

KLASIFIKASI CITRA DOKUMEN MENGGUNAKAN METODE SUPPORT VECTOR MACHINE DENGAN EKSTRAKSI CIRI TERM FREQUENCY INVERSE DOCUMENT FREQUENCY

Studi Kasus Klasifikasi Hutan

BAB I PENDAHULUAN 1.1 Latar Belakang

BAB III LANDASAN TEORI. Definisi Peramalan adalah memperkiraan atau memproyeksikan sesuatu

BAB I PENDAHULUAN 1.1 Latar Belakang

BAB I PENDAHULUAN. memberikan dampak yang luas dalam bagaimana manusia menjalani hidupnya.

PENGGOLONGAN UANG KULIAH TUNGGAL MENGGUNAKAN SUPPORT VECTOR MACHINE

BAB 3 LANDASAN TEORI

HASIL DAN PEMBAHASAN. Tabel 1 Perhitungan recall-precision. ) adalah peluang kata i dalam dokumen setelah q j. p( i q j

BAB III METODE PENELITIAN

HASIL DAN PEMBAHASAN. Praproses

BAB I PENDAHULUAN. 1.1 Latar Belakang

BAB 3 PROSEDUR DAN METODOLOGI. menawarkan pencarian citra dengan menggunakan fitur low level yang terdapat

BAB III ANALISIS DAN PERANCANGAN

BAB IV ANALISA DAN PERANCANGAN

BAB II LANDASAN TEORI

BAB II TINJAUAN PUSTAKA

BAB I PENDAHULUAN 1.1 Latar Belakang

HASIL DAN PEMBAHASAN. sim(, )=

BAB I PENDAHULUAN. Pada umumnya pembaca ingin mendapatkan rangkuman suatu artikel dengan cepat

BAB III DATA DAN METODOLOGI

BAB 1 PENDAHULUAN UKDW

Temu-Kembali Informasi 2017

BAB 3 METODE PENELITIAN

BAB 2 TINJAUAN PUSTAKA

IMPLEMENTASI TWITTER SENTIMENT ANALYSIS UNTUK REVIEW FILM MENGGUNAKAN ALGORITMA SUPPORT VECTOR MACHINE

BAB II DASAR TEORI Crawler Definisi Focused Crawler dengan Algoritma Genetik [2]

BAB II TINJAUAN PUSTAKA

KLASIFIKASI WILAYAH DESA-PERDESAAN DAN DESA-PERKOTAAN WILAYAH KABUPATEN SEMARANG DENGAN SUPPORT VECTOR MACHINE (SVM)

SVM untuk Regresi. Machine Learning

Sistem Temu Kembali Informasi pada Dokumen Teks Menggunakan Metode Term Frequency Inverse Document Frequency (TF-IDF)

PRESENTASI TUGAS AKHIR KI PERANCANGAN DAN PEMBANGUNAN MODUL REKOMENDASI SECTION PADA OPEN JOURNAL SYSTEM (OJS)

IMPLEMENTASI VECTOR SPACE MODEL DAN BEBERAPA NOTASI METODE TERM FREQUENCY INVERSE DOCUMENT FREQUENCY (TF-IDF) PADA SISTEM TEMU KEMBALI INFORMASI

BAB I PENDAHULUAN 1.1. Latar Belakang

BAB V KESIMPULAN DAN SARAN. Saraf Tiruan Propagasi Balik maka dapat diambil beberapa kesimpulan untuk

PEMBUATAN WEB SERVICE SEBAGAI LAYANAN PENDETEKSI KONTEN PORNOGRAFI PADA CITRA DIGITAL DENGAN METODE IMAGE ZONING

BAB III METODE PENELITIAN. tangan dengan menggunakan metode Support Vector Machine (SVM).

1. Pendahuluan. 1.1 Latar Belakang

BAB I PENDAHULUAN.

commit to user 5 BAB II TINJAUAN PUSTAKA 2.1 Dasar Teori Text mining

BAB I PENDAHULUAN 1.1 Latar Belakang

SISTEM PENCARIAN PASAL-PASAL PADA KITAB UNDANG-UNDANG HUKUM PIDANA DENGAN MENGGUNAKAN METODE TF-IDF. Abstrak

Analisis Sentimen untuk Komentar pada Sistem Pencarian Kost Menggunakan Metode Support Vector Machine (SVM)

BAB II TINJAUAN PUSTAKA

SISTEM REKOMENDASI DOSEN PEMBIMBING TUGAS AKHIR BERBASIS TEXT MINING MENGGUNAKAN VECTOR SPACE MODEL

SPAM FILTER MENGGUNAKAN MODEL KLASIFIKASI MULTIVARIATE BERNOULLI DAN MULTINOMIAL NAIVE BAYES DENIS FADILLAH

BAB 4 HASIL DAN PEMBAHASAN

BAB I PENDAHULUAN. Sistem penglihatan manusia memiliki akurasi yang besar dalam mengenali

BAB 3 PERANCANGAN. Tabel 3.1 Daftar Kategori dan Jumlah Dokumen Teks. Dokumen Bulutangkis 155 Basket 59 Otomotif 160 Sepakbola 767 Tenis 159

BAB II TINJAUAN PUSTAKA

Text Mining. Budi Susanto. Text dan Web Mining. Teknik Informatika UKDW Yogyakarta

INFORMATION RETRIEVAL SYSTEM PADA PENCARIAN FILE DOKUMEN BERBASIS TEKS DENGAN METODE VECTOR SPACE MODEL DAN ALGORITMA ECS STEMMER

BAB I PENDAHULUAN Latar Belakang

BAB III ANALISA DAN PERANCANGAN SISTEM

TUNING PARAMETER DALAM FUNGSI OKAPI BM25 PADA MESIN PENCARI TEKS BAHASA INDONESIA TEDY SAPUTRA

Support Vector Machine

Jurnal Coding, Sistem Komputer Untan Volume 04, No.1 (2016), hal ISSN : x

BAB III METODE PENELITIAN. Tujuan tugas akhir ini akan membangun suatu model sistem yang

2.3 Algoritma Tidak Berhubungan dengan Bahasa Pemrograman Tertentu

APLIKASI PENGKATEGORIAN DOKUMEN DAN PENGUKURAN TINGKAT SIMILARITAS DOKUMEN MENGGUNAKAN KATA KUNCI PADA DOKUMEN PENULISAN ILMIAH UNIVERSITAS GUNADARMA

IMPLEMENTASI K NEAREST NEIGHBOR (KNN) PADA KLASIFIKASI ARTIKEL WIKIPEDIA INDONESIA

Rata-rata token unik tiap dokumen

Transkripsi:

10 HASIL DAN PEMBAHASAN Pengumpulan Dokumen Tahapan awal yang dilakukan dalam penelitian adalah mengolah dokumen XML yang akan menjadi korpus. Terdapat 21578 dokumen berita yang terdiri atas 135 topik. Seluruh dokumen tersimpan dalam 22 file berformat XML dengan rincian terdapat pada Tabel 5. Tabel 5 Deskripsi data penelitian Nama file Ukuran file Jumlah Rata-rata (kb) dokumen (kb) reut2-000.xml 1287 1000 1.287 reut2-001.xml 1219 1000 1.219 reut2-002.xml 1183 1000 1.183 reut2-003.xml 1262 1000 1.262 reut2-004.xml 1285 1000 1.285 reut2-005.xml 1350 1000 1.350 reut2-006.xml 1219 1000 1.219 reut2-007.xml 1221 1000 1.221 reut2-008.xml 1371 1000 1.371 reut2-009.xml 1302 1000 1.302 reut2-010.xml 1333 1000 1.333 reut2-011.xml 1268 1000 1.268 reut2-012.xml 1287 1000 1.287 reut2-013.xml 1099 1000 1.099 reut2-014.xml 1098 1000 1.098 reut2-015.xml 1223 1000 1.223 reut2-016.xml 1280 1000 1.280 reut2-017.xml 1505 1000 1.505 reut2-018.xml 1223 1000 1.223 reut2-019.xml 1226 1000 1.226 reut2-020.xml 1020 1000 1.020 reut2-021.xml 604 578 1.045 Contoh dokumen Reuters-21578 dapat dilihat pada Lampiran 1. Ada beberapa tag di dalam setiap dokumen, namun beberapa tag yang penting untuk diperhatikan untuk proses selanjutnya yaitu: <TOPICS></TOPICS>, tag ini menunjukkan topik bahasan dari dokumen, yang akan dijadikan nama kelas dari setiap dokumen. <TITLE></TITLE>, menunjukkan judul dari dokumen berita. <BODY></BODY>, merupakan isi berita dari dokumen. Dokumen yang memiliki topik earn, trade, ship, crude, grain, dan interest berjumlah 4362 dokumen. Seluruh dokumen tersebut dibagi menjadi 2 kelompok, yakni 3110 dokumen latih dan 1252 dokumen uji. Dokumen latih dan dokumen uji yang telah terkumpul disimpan pada basis data yang terdiri atas 2 tabel berbeda, yaitu tabel training dan testing. Proses penyimpanan dokumen ke dalam basis data

dilakukan dengan membuat program menggunakan bahasa pemrograman PHP dan MySQL. Secara sederhana, yang dilakukan program ini yaitu membaca setiap file, dan mengambil string yang diapit oleh tag <TOPICS></TOPICS> disimpan sebagai topik dokumen, tag <TITLE></TITLE> disimpan sebagai judul dokumen, serta tag <BODY></BODY> disimpan sebagai isi dokumen untuk setiap dokumen. Struktur tabel pada basis data disajikan dalam Tabel 6. Tabel 6 Struktur tabel dokumen latih dan dokumen uji Tabel Field Tipe data training testing id topic title body id topic title body integer text integer text 11 Tokenisasi dan Pembuangan Stopword Tokenisasi dan pembuangan stopword dilakukan dengan membuat program menggunakan bahasa pemrograman PHP dan MySQL. Proses diawali dengan mengambil dokumen latih pada basis data. Lalu dilanjutkan dengan penghapusan tanda baca dan karakter numerik serta pengubahan huruf kapital menjadi huruf kecil. Token yang didefinisikan sebagai suatu kata didapatkan dengan memisahkan dokumen berdasarkan karakter spasi putih (white space) kemudian dihitung frekuensinya. Dalam tahap ini diperoleh 160320 kata hasil tokenisasi terhadap dokumen latih. Seluruh kata tersebut disaring dengan membuang kata-kata tidak penting atau stopword, seperti the, and, but, dan lain-lain. Pendefinisian stopword dilakukan berdasarkan kata hasil tokenisasi dengan frekuensi kemunculan sangat tinggi dan sangat rendah, dari sini dipilih kata-kata yang dianggap tidak penting. Stopword berbahasa Inggris yang telah didefinisikan berjumlah 143 kata (Lampiran 2), dan tersimpan dalam basis data. Sampai pada tahap ini, diperoleh 7279 kata unik. Pemilihan Fitur Ciri Seluruh kata yang diperoleh dari proses sebelumnya kemudian diproses kembali untuk menentukan apakah kata tersebut cocok dijadikan penciri dalam pembuatan model klasifikasi. Pemilihan fitur dilakukan dengan memodifikasi program yang telah dibuat oleh Putri (2013) menggunakan bahasa pemrograman PHP dan MySQL. Modifikasi dilakukan dengan menambahkan fungsi tokenisasi untuk masing-masing kelas. Proses ini menghasilkan 615 kata unik yang dapat dijadikan penciri dokumen kelas earn dan 1101 kata unik untuk kelas earn

12 (Tabel 7). Hal ini membuktikan proses ini mampu mengurangi jumlah kata yang akan diproses. Selanjutnya hanya kata-kata ini yang akan diproses. Tabel 7 Hasil tahap pemilihan fitur ciri dengan taraf nyata 0.001 Kelas Jumlah kata unik earn 615 earn 1101 Total 1716 Pembobotan Kata Seluruh kata yang diperoleh dari tahap pemilihan fitur akan dihitung bobotnya pada masing-masing dokumen. Pada tahap ini menghasilkan matriks vektor yang digunakan sebagai data latih dan data uji, yang masing-masing tersimpan pada file berformat CSV. Kedua file ini dibuat dari pembangunan program menggunakan bahasa pemrograman PHP dan MySQL. Matriks data latih berukuran 3110 1716, jumlah baris menunjukkan jumlah dokumen latih yaitu 3110 dan jumlah kolom menunjukkan jumlah kata penciri yaitu 1716. Matriks data uji berukuran 1252 1716, jumlah baris menunjukkan jumlah dokumen uji yaitu 1252 dan jumlah kolom menunjukkan jumlah kata penciri yaitu 1716. Penelitian ini akan membandingkan 2 metode pembobotan, yaitu tf dan tf-idf. Penghitungan bobot kata dengan metode pembobotan tf hanya memerhatikan frekuensi kemunculan kata pada masing-masing dokumen, karena adanya asumsi bahwa semakin sering suatu kata muncul dalam suatu dokumen, kata tersebut semakin penting. Nilai bobotnya diperoleh dari jumlah kemunculan kata di dalam sebuah dokumen tertentu. Apabila suatu kata tertentu tidak muncul dalam sebuah dokumen, maka bobotnya bernilai nol. Di samping itu, pada metode pembobotan tfidf selain memerhatikan frekuensi kemunculan sebuah kata di dalam sebuah dokumen tertentu, juga memperhitungkan jumlah dokumen yang mengandung kata tersebut. Keduanya memberikan nilai bobot yang berbeda untuk matriks data latih dan data uji. Artinya, untuk proses klasifikasi selanjutnya juga dihasilkan 2 buah model SVM. Klasifikasi Dokumen Dalam klasifikasi dokumen, data latih dari proses sebelumnya diperlukan untuk membuat model SVM. Model SVM adalah model klasifikasi berbasis ruang vektor. Seluruh vektor dokumen dipetakan kemudian dicari fungsi pemisah kedua kelas. Proses ini dilakukan menggunakan LIBSVM pada Matlab R2008b. Proses pemodelan SVM oleh Matlab dapat dilihat pada Lampiran 3. Proses diawali dengan pembacaan file data latih berformat CSV, dilakukan dengan fungsi csvread(). Data ini merupakan data matriks, kolom pertama menyatakan label kelas dari dokumen. Kolom kedua dan seterusnya sampai kolom terakhir menyatakan fitur dari masing-masing dokumen. Penggunaan fungsi sparse() dimaksudkan agar hanya nilai fitur yang tidak nol yang disimpan

untuk proses selanjutnya. Selanjutnya, proses yang sama dilakukan pada file data uji. Pemodelan SVM memerlukan parameter sesuai dengan fungsi kernel yang digunakan. Menurut Hsu et al. (2003), akurasi model yang dihasikan dari proses pelatihan dengan SVM sangat bergantung pada fungsi kernel serta parameter yang digunakan. Oleh karena itu performansinya dapat dioptimasi dengan mencari (mengestimasi) parameter terbaik. Parameter yang diperlukan untuk kernel RBF yaitu c (cost) dan γ (gamma). Untuk menentukan nilai terbaik dari kedua parameter ini dilakukan proses grid search. Akurasi diperoleh dari persentase data yang diklasifikasikan dengan benar. Proses grid search pada Matlab dilakukan dengan memanggil fungsi test_grid_rbf(). Proses ini dilakukan untuk mendapatkan nilai c (cost) terbaik pada rentang 2-5 c 2 15 dan parameter γ (gamma) terbaik pada rentang 2-15 γ 2 3. Parameter dikatakan terbaik jika mencapai nilai akurasi tertinggi dalam proses ini. Tabel 8 menyajikan parameter terbaik untuk masing-masing model SVM. Tabel 8 Hasil akurasi parameter terbaik Metode Parameter pembobotan с (cost) γ (gamma) Akurasi tf 2 7-4 1.22070 10 93.8907% tf-idf 2 7 2.44141 10-4 93.6013% 13 Selanjutnya, pemodelan SVM dilakukan dengan memanggil fungsi svmtrain ( training_label_vector, training_instance_matrix, '-t 2 -c 128 -g 0.00012207') untuk pembobotan tf. Parameter dalam fungsi tersebut dijelaskan sebagai berikut: training_label_vector, merupakan vektor label kelas dari data latih. training_instance_matrix, merupakan matriks fitur dari data latih. '-t 2 -c 128 -g 0.00012207', merupakan parameter untuk LIBSVM. Nilai yang mengikuti string -t menyatakan jenis fungsi kernel yang digunakan, 2 berarti kernel RBF. Nilai yang mengikuti string -c menyatakan nilai parameter c (cost) yang digunakan, yaitu 128. Nilai yang mengikuti string -g menyatakan nilai parameter γ (gamma) yang digunakan, yaitu 0.00012207. Untuk pembobotan tf-idf, fungsi yang dipanggil yaitu svmtrain ( training_label_vector, training_instance_ matrix, '-t 2 -c 128 -g 0.000244141'). Pengujian Pada tahapan sebelumnya, telah dihasilkan 2 buah model SVM yang siap digunakan untuk melakukan proses pengujian. Kedua model ini akan diujikan terhadap dokumen latih yang dimiliki. Matriks data uji yang digunakan berukuran 1252 1716 (jumlah baris menyatakan banyak dokumen dan jumlah kolom menyatakan jumlah kata hasil pemilihan fitur). Dengan menggunakan confusion matrix, akan dihitung tingkat akurasi dari masing-masing model SVM, dengan

14 cara jumlah dokumen yang diklasifikasikan dengan benar dibagi jumlah keseluruhan dokumen uji. Pada data uji yang menggunakan metode pembobotan tf, jumlah dokumen kelas earn yang diklasifikasikan dengan benar adalah 941 dan yang salah berjumlah 85. Jumlah dokumen kelas earn yang diklasifikasikan dengan benar adalah 226 dan yang salah berjumlah 0 (Tabel 9). Di samping itu, pada data uji yang menggunakan metode pembobotan tf-idf, jumlah dokumen kelas earn yang diklasifikasikan dengan benar adalah 940 dan yang salah berjumlah 87. Jumlah dokumen kelas earn yang diklasifikasikan dengan benar adalah 224 dan yang salah berjumlah 1 (Tabel 10). Hasil akurasi dari model SVM dengan metode pembobotan tf dan tf-idf yang dihitung dengan menggunakan rumus pada persamaan 2 berturut-turut sebesar 93.2109% dan 92.9712%. Proses pengujian oleh Matlab dilakukan dengan memanggil fungsi svmpredict (testing_label_vector, testing_instance_matrix, modelsvm) (Lampiran 3). Parameter dalam fungsi tersebut dijelaskan sebagai berikut: testing_label_vector, merupakan vektor label kelas dari data uji. testing_instance_matrix, merupakan matriks fitur dari data uji. modelsvm, merupakan model yang dihasilkan dari proses pemodelan SVM. Tabel 9 Confusion matrix klasifikasi SVM dengan pembobotan tf Prediksi Observasi earn earn earn 941 85 earn 0 226 Tabel 10 Confusion matrix klasifikasi SVM dengan pembobotan tf-idf Prediksi Observasi earn earn earn 940 87 earn 1 224 Dilihat dari hasil akurasi klasifikasi dokumen kedua model SVM, terdapat perbedaan tingkat akurasi yang dihasilkan. Model dengan pembobotan tf terbukti lebih baik daripada pembobotan tf-idf yaitu menghasilkan akurasi sebesar 93.2109%. Pembobotan tf-idf melibatkan penghitungan nilai idf yang merupakan ukuran kepentingan suatu kata, sedangkan setiap kata yang terpilih dari proses pemilihan fitur semuanya adalah kata-kata yang penting. Kata-kata yang tidak penting telah terseleksi dan tidak diikutkan pada proses pembobotan. Ditambah lagi dengan telah dibuangnya stopword, yaitu kata-kata tidak penting, yang memiliki frekuensi kemunculan tinggi di hampir keseluruhan dokumen. Hal ini senada dengan apa yang dilakukan pada pembobotan tf-idf, yang memberikan nilai idf semakin kecil untuk kata yang semakin sering muncul di banyak dokumen. Dalam hal ini, pembobotan tf sudah cukup dalam memboboti kata yang terseleksi dari proses pemilihan fitur chi-square, sedangkan penggunaan pembobotan tf-idf dinilai lebih rumit dan terjadi ketimpangan proses yang dilakukan beberapa kali.

Hal lain yang mempengaruhi kinerja klasifikasi SVM yaitu pemilihan fitur ciri dari kedua kelas dan pemilihan parameter terbaik dalam pembangunan model SVM. Proses pemilihan fitur terbukti dapat meminimalkan jumlah kata penciri yang akan digunakan pada proses selanjutnya. Proses pemilihan parameter yang menghasilkan akurasi paling tinggi dapat memberikan akurasi yang tinggi juga pada proses pengujian. Ketepatan dalam menggunakan metode-metode tersebut di atas dapat membuat metode SVM semakin baik dalam mengklasifikasikan dokumen ke dalam 2 kelas. 15 SIMPULAN DAN SARAN Simpulan Setelah melakukan penelitian ini, diperoleh simpulan bahwa metode SVM mampu melakukan klasifikasi dokumen berita berbahasa Inggris dengan jumlah data yang besar (3110 1716 data latih dan 1252 1716 data uji). Kernel RBF dapat diterapkan pada SVM untuk melakukan klasifikasi. Metode ini menghasilkan akurasi yang baik yaitu sebesar 93.21% dengan menggunakan chisquare sebagai metode pemilihan fitur serta tf sebagai metode pembobotan. Hasil tersebut menjadi pembanding penggunaan metode pemilihan fitur chi-square dan pembobotan tf-idf yang menghasilkan akurasi sebesar 92.97%. Dengan demikian, pembobotan tf lebih baik daripada pembobotan tf-idf dalam melakukan klasifikasi dokumen. Saran Pengembangan lebih lanjut dari penelitian ini adalah klasifikasi dokumen multikelas dengan menggunakan dokumen yang sama dengan yang digunakan pada penelitian ini. Dapat pula dicobakan metode pembobotan lain yang memperbaiki pembobotan tf, misalnya dengan menggunakan pembobotan system for the mechanical analysis and retrieval of text (SMART) atau yang lebih sering disebut SMART notation. Dengan demikian, dapat diketahui metode pembobotan mana yang lebih baik dalam melakukan klasifikasi dokumen. DAFTAR PUSTAKA Borovikov EA. 2005. An Evaluation of Support Vector Machines as a Pattern Recognition Tool. Maryland (US): University of Maryland Pr. Chang CC, Lin CJ. 2001. LIBSVM: a library for support vector machines. ACM Transactions on Intelligent Systems and Technology [Internet]. [diunduh 2014 Apr 1]; 2(3):1-10.doi: 10.1145/1961189.1961199. Tersedia pada: http//www.csie.ntu.edu.tw/~cjlin/libsvm.