PENGGUNAAN FITUR ABSTRAKSI DAN CATATAN PUBLIKASI PENULIS UNTUK KLASIFIKASI ARTIKEL ILMIAH DENGAN METADATA YANG TERBATAS

dokumen-dokumen yang mirip
BAB I. Pendahuluan. 1. Latar Belakang Masalah

PRESENTASI TUGAS AKHIR KI PERANCANGAN DAN PEMBANGUNAN MODUL REKOMENDASI SECTION PADA OPEN JOURNAL SYSTEM (OJS)

BAB I PENDAHULUAN. memberikan dampak yang luas dalam bagaimana manusia menjalani hidupnya.

BAB II DASAR TEORI Crawler Definisi Focused Crawler dengan Algoritma Genetik [2]

BAB II TINJAUAN PUSTAKA. penelitian yang penting (Baharudin, Lee and Khan, 2010). Beberapa peneliti telah

HASIL DAN PEMBAHASAN

1 BAB I PENDAHULUAN. 1.1 Latar Belakang

Sistem Temu Kembali Informasi pada Dokumen Teks Menggunakan Metode Term Frequency Inverse Document Frequency (TF-IDF)

BAB III METODOLOGI PENELITIAN

BAB 3 PERANCANGAN 3.1 GAMBARAN UMUM PROSES SEGMENTASI DOKUMEN

BAB II TINJAUAN PUSTAKA. Penelitian awal dalam bidang automatic text summarization dimulai

BAB I PENDAHULUAN I.1. Latar Belakang Masalah

BAB I PENDAHULUAN 1.1 Latar Belakang

INFORMATION RETRIEVAL SYSTEM PADA PENCARIAN FILE DOKUMEN BERBASIS TEKS DENGAN METODE VECTOR SPACE MODEL DAN ALGORITMA ECS STEMMER

BAB IV METODOLOGI PENELITIAN. Penelitian ini dilakukan dengan melalui empat tahap utama, dimana

PENCARIAN FULL TEXT PADA KOLEKSI SKRIPSI FAKULTAS TEKNIK UHAMKA MENGGUNAKAN METODE VECTOR SPACEMODEL

Implementasi Algoritma Term Frequency Inverse Document Frequency dan Vector Space Model untuk Klasifikasi Dokumen Naskah Dinas

BAB 2 TINJAUAN PUSTAKA

APLIKASI PENGKATEGORIAN DOKUMEN DAN PENGUKURAN TINGKAT SIMILARITAS DOKUMEN MENGGUNAKAN KATA KUNCI PADA DOKUMEN PENULISAN ILMIAH UNIVERSITAS GUNADARMA

IMPLEMENTASI ALGORITMA K-NEAREST NEIGHBOUR YANG BERDASARKAN ONE PASS CLUSTERING UNTUK KATEGORISASI TEKS

BAB 1 PENDAHULUAN UKDW

BAB III ANALISIS DAN PERANCANGAN

Contoh Perhitungan Kemiripan Cosinus pada Model Ruang Vektor

PEMANFAATAN ASSOCIATION RULE MINING DALAM MEMBANTU PENCARIAN DOKUMEN-DOKUMEN BERITA YANG SALING BERKAITAN

Pemodelan Penilaian Essay Otomatis Secara Realtime Menggunakan Kombinasi Text Stemming Dan Cosine Similarity

BAB III METODELOGI PENELITIAN

BAB II TINJAUAN PUSTAKA

Pemanfaatan Metode Vector Space Model dan Metode Cosine Similarity pada Fitur Deteksi Hama dan Penyakit Tanaman Padi

UKDW 1. BAB 1 PENDAHULUAN Latar Belakang Masalah

BAB III METODE PENELITIAN

BAB III PERANCANGAN. Fitur. Reduksi & Pengelompokan. Gambar 3.1. Alur Pengelompokan Dokumen

BAB I PENDAHULUAN Latar Belakang

ROCCHIO CLASSIFICATION

BAB 3 LANDASAN TEORI

IMPLEMENTASI METODE ANT COLONY OPTIMIZATION UNTUK PEMILIHAN FITUR PADA KATEGORISASI DOKUMEN TEKS

Klasifikasi Teks Bahasa Indonesia Pada Corpus Tak Seimbang Menggunakan NWKNN

Integrasi Peringkas Dokumen Otomatis Dengan Penggabungan Metode Fitur dan Metode Latent Semantic Analysis (LSA) Sebagai Feature Reduction

commit to user 5 BAB II TINJAUAN PUSTAKA 2.1 Dasar Teori Text mining

BAB II LANDASAN TEORI

BAB 3 LANDASAN TEORI

RANCANG BANGUN SISTEM TEMU KEMBALI INFORMASI ABSTRAK TUGAS AKHIR MAHASISWA PRODI TEKNIK INFORMATIKA UNSOED Oleh : Lasmedi Afuan

BAB 3 LANDASAN TEORI

BAB 1 PENDAHULUAN Latar Belakang

BAB II LANDASAN TEORI

INTEGRASI PERINGKAS DOKUMEN OTOMATIS SEBAGAI FEATURE REDUCTION PADA CLUSTERING DOKUMEN

BAB V EKSPERIMEN TEXT CLASSIFICATION

BAB 1 PENDAHULUAN. seluruh dunia menjadi sebuah fenomena yang sangat mengejutkan dalam satu abad

BAB III METODOLOGI PENELITIAN

Stemming pada Preprocessing Twit Berbahasa Indonesia dengan Mengimplementasikan Algoritma Fonetik Soundex untuk Proses Klasifikasi

STMIK GI MDP. Program Studi Teknik Informatika Skripsi Sarjana Komputer Semester Ganjil Tahun 20010/2011

DOSEN PEMBIMBING Chastine Fatichah, S.Kom, M.Kom MAHASISWA Yudis Anggara P. ( )

BAB I PENDAHULUAN 1.1 Latar Belakang

BAB IV ANALISA DAN PERANCANGAN

SISTEM TEMU KEMBALI INFORMASI

BAB I PENDAHULUAN 1.1. Latar Belakang

BAB I PENDAHULUAN. pendidikan, perbankan, perencanaan dan sebagainya. Dengan adanya teknologi komputer

Analisis dan Pengujian Kinerja Korelasi Dokumen Pada Sistem Temu Kembali Informasi

IMPLEMENTASI ALGORITMA NAÏVE BAYES UNTUK EKSTRAKSI KALIMAT OPINI PADA ARTIKEL BERBAHASA INDONESIA. Tugas Akhir

Prediksi Tren Kurs Dollar Dari Berita Finansial Amerika Serikat Berbahasa Indonesia Menggunakan Support Vector Machine

BAB III ANALISIS DAN PERANCANGAN SISTEM

BAB II TINJAUAN PUSTAKA

PEMILIHAN FITUR OPTIMAL UNTUK TUGAS AKHIR MAHASISWA DENGAN METODE SUPPORT VECTOR MACHINE

BAB II TINJAUAN PUSTAKA

KLASIFIKASI DATA PENGADUAN MASYARAKAT PADA LAMAN PESDUK CIMAHI MENGGUNAKAN ROCCHIO

BAB I PENDAHULUAN 1.1 Latar Belakang

beberapa tag-tag lain yang lebih spesifik di dalamnya.

SISTEM TEMU KEMBALI CITRA UNTUK E- COMMERCE MENGGUNAKAN PROSEDUR PENCARIAN DUA FASE DENGAN FITUR HISTOGRAM MULTI TEKSTON

MAXIMUM MARGINAL RELEVANCE UNTUK PERINGKASAN TEKS OTOMATIS SINOPSIS BUKU BERBAHASA INDONESIA

PERSETUJUAI\ ARTIKEL ILMIAH. Mashar Eka Putra Dai. S1-Sistem Informasi. Teknik Informatika. Teknik. Penerapan Metode Document Frequency

BAB III METODOLOGI. Support Vector Machines (SVM) merupakan salah satu metode machine

BAB 1 PENDAHULUAN UKDW

commit to user BAB II TINJAUAN PUSTAKA

IMPLEMENTASI VECTOR SPACE MODEL DAN BEBERAPA NOTASI METODE TERM FREQUENCY INVERSE DOCUMENT FREQUENCY (TF-IDF) PADA SISTEM TEMU KEMBALI INFORMASI

ANALISA KOMPETENSI DOSEN DALAM PENENTUAN MATAKULIAH YANG DIAMPU MENGGUNAKAN METODE CF-IDF A B S T R A K

BAB I PENDAHULUAN 1.1. Latar Belakang Masalah

BAB II LANDASAN TEORI

BAB III METODOLOGI PENELITIAN

BAB II LANDASAN TEORI

BAB I PENDAHULUAN 1.1 Latar Belakang

TEKNIK VECTOR SPACE MODEL (VSM) DALAM PENENTUAN PENANGANAN DAMPAK GAME ONLINE PADA ANAK

BAB 3 METODE PENELITIAN. pengelolaan dokumen yang efektif agar kita dapat me-retrieve informasi yang

BAB IV ANALISA DAN PERANCANGAN

Recommender System di Perpustakaan Universitas Kristen Petra menggunakan Rocchio Relevance Feedback dan Cosine Similarity

PENDAHULUAN. 1.1 Latar Belakang

Analisis dan Pengujian Kinerja Korelasi Dokumen Pada Sistem Temu Kembali Informasi

BAB II TINJAUAN PUSTAKA

BAB I PENDAHULUAN. Pada umumnya pembaca ingin mendapatkan rangkuman suatu artikel dengan cepat

BAB III ANALISA DAN PERANCANGAN SISTEM

Pemanfaatan Aljabar Vektor Pada Mesin Pencari

BAB I PENDAHULUAN 1.1 Latar Belakang

BAB II LANDASAN TEORI. 2.1 Peringkasan Teks Otomatis (Automatic Text Summarization) Peringkasan Teks Otomatis (Automatic Text Summarization) merupakan

SISTEM PENCARIAN PASAL-PASAL PADA KITAB UNDANG-UNDANG HUKUM PIDANA DENGAN MENGGUNAKAN METODE TF-IDF. Abstrak

Pengujian Kerelevanan Sistem Temu Kembali Informasi

PENGUKURAN KEMIRIPAN DOKUMEN DENGAN MENGGUNAKAN TOOLS GENSIM

KLASIFIKASI CITRA DOKUMEN MENGGUNAKAN METODE SUPPORT VECTOR MACHINE DENGAN EKSTRAKSI CIRI TERM FREQUENCY INVERSE DOCUMENT FREQUENCY

BAB 3 ANALISIS DAN PERANCANGAN SISTEM

ANALISIS KLASTERING LIRIK LAGU INDONESIA

WEIGHT K-SUPPORT VECTOR NEAREST NEIGHBOR

IMPLEMENTASI K NEAREST NEIGHBOR (KNN) PADA KLASIFIKASI ARTIKEL WIKIPEDIA INDONESIA

Latent Semantic Analysis dan. Similarity untuk Pencarian. oleh : Umi Sa adah

Transkripsi:

PENGGUNAAN FITUR ABSTRAKSI DAN CATATAN PUBLIKASI PENULIS UNTUK KLASIFIKASI ARTIKEL ILMIAH DENGAN METADATA YANG TERBATAS Halimatus Sa dyah, Nurissaidah Ulinnuha Jurusan Teknik Informatika, Fakultas Teknologi Informasi, Institut Teknologi Sepuluh Nopember Kampus ITS Sukolilo, Surabaya 60111 Email: aisyah2nd@gmail.com ABSTRAK Bertumbuhnya jumlah artikel ilmiah membuka ranah penelitian baru di bidang optimasi klasifikasi dokumen berbasis metadata. Dalam ranah ini, persoalan pokok yang harus dijawab adalah bagaimana cara memanfaatkan fitur metadata yang terbatas untuk menghasilkan nilai presisi dan recall yang tinggi dalam proses klasifikasi artikel ilmiah. Dalam makalah ini diusulkan sebuah metode klasifikasi artikel ilmiah dengan menggunakan atribut abstraksi dan catatan publikasi pada metada data sebagai fitur. Hasil uji coba menunjukkan bahwa sistem klasifikasi yang menggunakan abstraksi dan catatan publikasi sebagai fitur menghasilkan nilai presisi tertinggi sebesar 0.87 dan recall 0.59 sedangkan sistem klasifikasi yang menggunakan abstraksi sebagai fitur menghasilkan nilai presisi 0.75 dan recall 0.51. Hasil uji coba juga menunjukkan bahwa nilai presisi dan recall dari sistem klasifikasi stabil ketika nilai γ_1/γ_2 = 1. Berdasarkan hasil uji coba ini, dapat disimpulkan bahwa sistem klasifikasi yang diusulkan lebih baik dalam hal presisi dan recall jika dibandingkan dengan sistem klasifikasi yang menggunakan abstraksi saja. Selain itu, juga dapat disimpulkan bahwa abstraksi dan catatan publikasi artikel ilmiah memiliki nilai signifikansi yang sama. Kata Kunci: Artikel ilmiah, Klasifikasi, Metadata. 1. PENDAHULUAN Saatini, kebutuhan terhadap artikel ilmiah semakin bertambah.sementara itu, tidak semua jurnal ilmiah menyediakan dokumen artikelnya secara gratis sehingga kesesuaian antara dokumen jurnal ilmiah yang dicari oleh pengguna dengan dokumen yang dikembalikan oleh mesin pencari menjadi satu hal yang penting. Klasifikasi dokumen artikel ilmiah berdasarkan bidang keilmuan dapat membantu pengguna untuk mengunduh dokumen artikel ilmiah secara tepat dan akurat.sayangnya, informasi lengkap mengenai isi artikel ilmiah biasanya tidak tersedia dalam jurnal ilmiah online yang berbayar. Pada jurnal ilmiah online yang berbayar, informasi yang tersedia biasanya hanya sebatas metadata yang terdiri dariabstraksi, nama artikel, referensi yang dirujuk di dalam artikel, tahun terbit artikel, nomor halaman artikel di dalam jurnal, serta nama jurnal yang mempublikasikan artikel ilmiah tersebut. Dalam bidang sistem temu kembali informasi, tidak banyak penelitian yang fokus meneliti dokumen artikel ilmiah.padahal, klasifikasi dokumen artikel ilmiah memiliki karakteristik yang berbeda dengan klasifikasi dokumen biasa. Pada klasifikasi dokumen biasa, semua informasi mengenai isi dokumen tersedia lengkap sehingga tantangan terbesar bagi peneliti di bidang ini selain penggalian topik dari dokumen adalah waktu komputasi klasifikasi.pada dokumen artikel ilmiah, informasi dari isi dokumen diwakili oleh abstraksi danmetadata. Hal ini menyebabkan tantangan utama dari klasifikasi dokumen karya ilmiahadalah bagaimana memanfaatkan fitur metadata yang ada untuk menghasilkan presisi dan recall yang baik. Penggunaan abstraksi dokumen artikel ilmiah sebagai fitur tunggal dalam klasifikasi biasanya menghasilkan presisi dan recall yang belum maksimal. Salah satu penyebabnya adalah banyaknya topik yang tersembunyi dari dokumen lengkap artikel ilmiah yang tidak bisa dideteksi melalui abstraksi. Untuk mengurangi kesalahan klasifikasi akibat kurangnya informasi tersebut, dalam makalah ini diusulkan sistem klasifikasi dokumen artikel ilmiah yang mempertimbangkan catatan publikasi artikel ilmiah oleh artikel dalam jurnal ilmiah.hal ini dilakukan agar artikel tersebut dapat masuk ke dalam kategori yang benar sesuai dengan bidang keahlian nya. Makalah ini disusun dengan urutan sebagai berikut, bagian pertama menjelaskan pendahuluan, bagian kedua menjelaskan tentang metode yang diusulkan beserta latar belakangnya, bagian ketiga tentang skema pembobotan TF-IDF, bagian keempat menjelaskan tentang algoritma Support Vector Machine, bagian kelima menjelaskan hipotesa pembobotan bertingkat, bagian keenam menjelaskan 27

Volume 11, Nomor 1, Januari 2013 : 27 31 metodologi penelitian, bagian ketujuh menjelaskan hasil eksperimen serta evaluasinya dan bagian kedelapan menjelaskan kesimpulan. 2. KLASIFIKASI DOKUMEN ARTIKEL ILMIAH Tidak banyak artikel ilmiah yang membahas sistem klasifikasi dokumen artikel ilmiah.terdapat tiga macam metode yang pernah diusulkan untuk menyelesaikan permasalahan klasifikasi artikel ilmiah ini.montejo dan timnya mengusulkan metode klasifikasi multilabel menggunakan fitur kata kunci yang diekstraksi dari abstraksi artikel ilmiah [1]. Setelah itu, Denecke dan timnya mengusulkan nama serta kata kunci yang diekstraksi dari judul artikel ilmiah untuk digunakan sebagai fitur klasifikasi dokumen [2]. Montejo dan Denecke memfokuskan penelitiannya pada pemilihan fitur abstraksi artikel ilmiah.penelitian dengan topik sejenis juga dilakukan oleh Martin dan timnya.namun dalam hal ini, Martin berfokus pada metode penggalian topik [3].Dalam penelitiannya, Martin dan timnya mengusulkan metode Latent Dirichlet Allocation (LDA)untuk mengekstraksi topik dari abstraksi dokumen artikel ilmiah [3]. Metode yang diusulkan oleh Martin dan timnya menghasilkan presisi dan recall yang tinggi untuk dokumen yang bersifat heterogen (dokumen yang berbeda kelastidak banyak mengandung kata yang sama). Namun, nilai presisi dan recall ini akan turun ketikadokumen yang diekstraksi bersifat homogen (dokumen yang berbeda kelas banyak mengandung kata yang sama). Hal ini menunjukkan bahwa penggunaan abstraksi artikel ilmiah sebagai fitur tunggal pada sistem klasifikasi dokumen artikel ilmiah tidak dapat memberikan informasi yang cukup tentang topik artikel ilmiah. Untuk menghasilkan presisi dan recallyang tinggi pada sistem klasifikasi dokumen artikel ilmiah yang bersifat homogen, dalam makalah ini diusulkan sistem klasifikasi dokumen artikel ilmiah dengan metodeperhitungan skor bobot yang mempertimbangkan abstraksi dan catatan publikasi.seorang peneliti yang telah mempublikasikan hasil penelitiannya ke dalam jurnal pada umumnya sudah fokus melakukan penelitian dalam bidang tertentu.oleh karena itu, catatan publikasi dapat memberikan informasi tambahan tentang topik dari artikel ilmiah yang sedang diklasifikasikan. Adapun atribut dari catatan publikasi yang digunakan untuk memperkaya informasi bagi sistem klasifikasi dokumen artikel ilmiah adalah atribut judul.atribut judul digunakan karena katakata dalam judul cukup mewakili informasi tentang bidang penelitian yang sedang ditekuni oleh artikel ilmiah. 28 Dalam penelitian ini, tidak semua judul artikel ilmiah yang terdapat dalam catatan publikasi digunakan sebagai fitur klasifikasi.pada penelitian ini, judul artikel ilmiah yang digunakan sebagai fitur klasifikasi dipilih berdasarkan tingkat kemiripannya dengan judul artikel ilmiah yang sedang diklasifikasikan. Kemiripan judul dalam penelitian ini diukur menggunakan koefisienjaccard yang didefinisikan pada persamaan 1 sebagai berikut: Jaccard A, B = n (A B) n (A B) (1) dimana Jaccard A, B adalah nilai koefisien Jaccard antara dokumen A dan dokumen B, n (A B) adalah jumlah katadalam dokumen A yang beririsan dengan katadalam dokumen B, sedangkan n (A B) adalah jumlah gabungan kata yang ada dalam dokumen A dengan kata yang ada dalam dokumen B [4]. Ketentuan pemilihan judul ini didasari oleh asumsi bahwa seorang peneliti bisa bekerja di dua bidang yang berbeda sehingga pemilihan judul tanpa mempertimbangkan kemiripan juga berpotensi menurunkan nilai presisi dan recall dalam proses klasifikasi. 3. PEMBOBOTAN TF-IDF TF-IDF adalah singkatan dari Term Frequency- Inverted Document Frequency. Term frequency (TF) adalah frekuensi dari kemunculan sebuah kata dalam dokumen yang bersangkutan sedangkan Inverse document frequency (IDF) adalah sebuah pembobotan statistik global yang mengkarakteristikkan sebuah kata dalam keseluruhan koleksi dokumen. IDF merupakan sebuah perhitungan dari bagaimana kata didistribusikan secara luas pada koleksi. Nilai IDF berbanding terbalik dengan tingkat kemunculan sebuah kata dalam koleksi. Semakin sering sebuah kata muncul dalam koleksi, maka nilai IDF dari kata tersebut semakin kecil. Begitu juga sebaliknya. Nilai bobot TF-IDF didefinisikan pada persamaan 2 sebagai berikut: w t i, d j = count t i,d j.log ( corpus ) (2) count _doc (t i,corpus ) dimanaw t i, d j adalah nilai bobot TF-IDF dari kata i dalam dokumen j, count t i, d j adalah jumlah kata i dalam dokumen j, corpus adalah jumlah seluruh dokumen yang ada dalam koleksi dancount_doc(t i, corpus) adalah jumlah dokumen dalam koleksi yang mengandung katai[5]. Penghitungan bobot dari kata tertentu dalam sebuah dokumen dengan menggunakan TF-IDF menunjukkan bahwa deskripsi terbaik dari dokumen adalah kata yang banyak muncul dalam dokumen

Sa dyah& Ulinnuha, Penggunaan Fitur Abstraksi dan Catatan Publikasi Penulis untuk Klasifikasi Artikel Ilmiah dengan Metadata Terbatas tersebut dan sangat sedikit muncul pada dokumen yang lain. 4. SUPPORT VECTOR MACHINE Support Vector Machine (SVM) adalah sebuah algoritma klasifikasi yang bekerja dengan prinsip mencari hyperplane atau garis pemisah terbaik bagi dua buah kelas pada input space. Kriteria dari hyperplane terbaikuntuk dua buah kelas adalah hyperplane yang mempunyaimarginterbesar. Marginadalah jarak antara hyperplane dengan pattern terdekat dari masing-masing kelas.pattern yang paling dekat ini disebut sebagai supportvector.ilustrasi dari prinsip kerja SVM dapat dilihat pada Gambar 1. Oleh karena itu, dalam makalah ini dilakukan uji coba klasifikasi artikel ilmiah dengan skema pembobotan bertingkat. Adapun rumus perhitungan bobot dalam skema pembobotan bertingkat adalah sebagai berikut: w term = γ 1. w term,abstrak i=max +. w term,judul i=0 (4) dimana w term adalah bobot TF-IDF total dari sebuah kata, w term,abstrak adalah bobot TF-IDF sebuah kataterhadap abstrak, w term,judul adalah bobot TF-IDF sebuah kata terhadap judul-judul artikel ilmiah yang didapatkan dari catatan publikasi, sedangkan γ 1 dan adalah sebuah konstanta yang menyatakan bobot dari abstrak dan catatan publikasi ilmiah.jumlah konstanta γ 1 dengan adalah satu. 6. METODOLOGI KLASIFIKASI Pada bagian ini akan dijelaskan metodologi klasifikasi dokumen artikel dari jurnal ilmiah berdasarkan metadata. Metodologi tersebut meliputi data masukan, persiapan data hingga metode yang digunakan pada sistem klasifikasi. Gambar 1.Konsep Dasar SVM [6]. Untuk mencari hyperplaneterbaik, algoritma SVM memiliki fungsi objektif yang dapat dilihat dalam persamaan 3 dimana xadalah data yang tersedia, y adalah kelas, α adalah Lagrange Multiplier untuk setiap data i dan k(x i,x j ) adalah fungsi kernel dalam algoritma SVM [4]. max x n i=1 α i + 1 2 n i,j =1 y i y j α i α j k x i, x j 5. HIPOTESA PEMBOBOTAN BERTINGKAT (3). Pada pembahasan sebelumnya, telah dijelaskan tentang fitur yang diusulkan dalam sistem klasifikasi pada makalah ini. Dalam mengusulkan metode ini, hipotesa yang akan dibuktikan adalah abstraksi artikel dan catatan publikasi dari artikel memiliki tingkat signifikansi yang berbeda terhadap atribut kelas dalam proses klasifikasi artikel karya ilmiah. 6.1 Data masukan Data masukan untuk sistem klasifikasi ini adalah abstraksi dan catatan publikasi.pada sistem ini, abstraksi dan catatan publikasi diperlakukan sebagai data bertipe string. 6.2 Tahap persiapan data Tahap persiapan data bertujuan untuk mempersiapkan data agar formatnya sesuai dengan kebutuhan sistem klasifikasi. Proses-proses yang berjalan dalam tahap ini adalahtokenisasi, penghapusan stopword, stemming, dan penghitungan bobot untuk setiap kata yang ada dalam koleksi dokumen (data masukan). Tokenisasi adalah suatu proses yang bertujuan untuk membagi data masukan yang formatnya masih berupa teks panjang menjadiunit-unit kecil yang disebut token. Token dalam konteks dokumen dapat berupa suatu kata, angka, atau tanda baca. Setelah proses tokenisasi dilakukan, proses selanjutnya adalah penghapusan stop word. Dalam sebuah dokumen terdapat banyak kata yang tidak memberikan makna, misalnya kata hubung, kata depan, dan lain-lain. Kata-kata jenis ini diistilahkan dengan stopword. Agar tidak menimbulkan kerancuan dalam proses pengolahan dokumen, stop word harus dibuang. 29

Volume 11, Nomor 1, Januari 2013 : 27 31 Setelah semua stop word dihapus, kata-katayang dihasilkan dari proses tokenisasi harus dimasukkan dalam proses stemming. Stemming adalah teknik yang digunakan untuk menemukan kata dasar dari sebuah kata berimbuhan dalam sebuah dokumen. Hal ini didasarkan pada fakta bahwa kata-kata yang memilikibentukdasar yang sama akan mendeskripsikan makna yang sama atau relatif dekat [7].Misalnya pada kata penggunaan, menggunakan, digunakan dan berguna memiliki bentuk dasar yang sama yaitu guna. Setelah semua kata diubah ke dalam bentuk dasarnya, langkah selanjutnya adalah penghitungan bobot untuk setiap kata.pada dasarnya, proses penghitungan bobot bertujuan untuk menilai relevansi kata yang terdapat pada sebuah dokumen dengan keseluruhan dokumen yang terdapat dalam koleksi. Setiap kata diberikan bobot sesuai dengan skema pembobotan yang dipilih, apakah pembobotan lokal, global atau kombinasi keduanya. Metode pembobotan yang digunakan adalah TF-IDF yang didefinisikan pada persamaan 2. Luaran dari proses penghitungan bobot ini adalah matriks bobot. Baris dari matriks bobot menunjukkan dokumen sedangkan kolomnya menunjukkan kata. Contoh matriks bobot dapat dilihat pada Tabel 1. Tabel 1. Contoh Matriks Bobot Kata 1 Kata 2 Kata 3 Kata 4 Kata 5 Doc1 0.3 0.1......... Doc2 0.5 0.4......... Doc3 0.7 0.9......... Doc4 0.3 0.3 0.3 0.8 0.2 6.3 Proses Klasifikasi Setelah semua kata diberi bobot, hal terakhir yang harus dilakukan adalah mengklasifikasikan dokumen menggunakan fitur bobot masing-masing kata di dalam dokumen.adapun algoritma klasifikasi yang digunakan dalam sistem ini adalah algoritma Support Vector Machine. 7. UJI COBA DAN EVALUASI Dalam uji coba pada penelitian ini, dokumen artikel ilmiah yang digunakan sebagai data uji coba diunduh dari perpustakaan digital Institut Teknologi Sepuluh Nopember[8].Jumlah dokumen yang digunakan untuk pengujian sebanyak 806 dan dokumen-dokumen tersebut terbagi dalam dua puluh tiga kategori berdasarkan bidang ilmu yang berkaitan dengan isi dokumen. Dokumen yang digunakan untuk ujicoba bersifat homogen karena kata-kata yang ada di dalam satu dokumen memiliki kedekatan makna atau bahkan sama dengan kata-kata yang ada dalam dokumen lain. Misalnya, kata citra, algoritma, enkripsi dan deskripsi yang sering muncul dalam tiga kategori sekaligus yaitu kategori Pengolahan Citra Digital, Jaringan Nirkabel, dan Jaringan Multimedia. Berdasarkan hipotesa pembobotan bertingkat yang dijelaskan pada sub bab sebelumnya, skenario uji coba dalam makalah ini dilakukan dengan menetapkan γ 1 dan sebagai parameter yang nilainya akan dirubah-rubah. Adapun hasil uji coba yang telah dilakukan dapat dibaca pada Tabel 2. Dari Tabel 2 dapat dilihat bahwa nilai presisi menggunakan fitur abstraksi dan catatan publikasi lebih tinggi jika dibandingkan dengan sistem klasifikasi dokumen artikel ilmiah yang menggunakan fitur abstraksi saja. Sedangkan hasil tunning parameter menunjukkan bahwa sistem klasifikasi dokumen artikel ilmiah mencapai nilai presisi yang stabil ketika nilai γ 1 1. Dari Tabel 2 dapat pula dilihat bahwa nilai recall menggunakan fitur abstraksi dan catatan publikasi lebih tinggi jika dibandingkan dengan sistem klasifikasi dokumen artikel ilmiah yang menggunakan fitur abstraksi saja. Sedangkan hasil tunning parameter menunjukkan bahwa proses klasifikasi mencapai nilai recall tertinggi ketika nilai γ 1 = 1. Namun ketika nilai γ 1 1, nilai recall turun sehingga dari sini dapat diketahui bahwa performa terbaik dari metode yang diusulkan dalam hal presisi dan recall dicapai ketika nilai γ 1 = 1. Tabel 2. Nilai presisi dan recall yang dihasilkan pada proses uji coba Fitur γ 1 Presisi Recall Abstraksi - - 0.75 0.51 0.3 0.7 0.77 0.56 0.4 0.6 0.84 0.59 0.5 0.5 0.87 0.59 0.6 0.4 0.87 0.57 0.7 0.3 0.87 0.56 30

Sa dyah& Ulinnuha, Penggunaan Fitur Abstraksi dan Catatan Publikasi Penulis untuk Klasifikasi Artikel Ilmiah dengan Metadata Terbatas 8. KESIMPULAN Berdasarkan uji coba yang telah dilakukan, dapat disimpulkan bahwa sistem klasifikasi dokumen artikel ilmiah yang menggunakan fitur abstraksi dan catatan publikasi ilmiah artikel menghasilkan presisi dan recall yang lebih tinggi dibandingkan dengan klasifikasi yang menggunakan fitur abstraksi saja. Namun nilai recall yang kurang dari 0.6 menunjukkan bahwa permasalahan seleksi fitur di bidang klasifikasi dokumen artikel ilmiah masih menjadi permasalahan yang terbuka untuk dicari solusinya. Performa terbaik dalam hal presisi dan recall diusulkan pada makalah ini dicapai ketika nilai γ 1 = 1. Berdasarkan hasil tersebut dapat disimpulkan bahwa baik abstraksi maupun catatan publikasi artikel memiliki tingkat signifikansi yang sama dalam penentuan kelas pada proses klasifikasi sehingga dapat disimpulkan bahwa hipotesa pembobotan bertingkat tertolak atau tidak dapat dibuktikan kebenarannya. 9. DAFTAR PUSTAKA [1] Montejo-Raez. 2005. "Text Categorization Using Bibliographic". Procesamiento del Lenguaje Natural 35. 119 262. [2] Kerstin Denecke. 2009. "Topic Classification Using Limited Bibliographic". Digital Information Management. ICDIM 2009. [3] G. H. Martin, S. Schokaert, C. Cornelis, and H. Naessens. 2013. Using Semi-structured Data for Assessing Research Paper Similarity. Information Sciences 221. 245-261. [4] P. N. Tan, M. Steinbach, and V. Kumar. 2005. Introduction to Data Mining. Addison Weasley. [5] A. Rachmania. 2011. Klasifikasi Kategori dan Identifikasi Topik pada Artikel Berita Berbahasa Indonesia. Surabaya: ITS. [6] OpenCV. September. 2012.Introduction to Support Vector Machines. <Available: http://docs.opencv.org/2.4.2/doc/tutorials/ml/int roduction_to_svm/introduction_to_svm.html. > [7] J. B. Lovins. 1968. "Development of a Stemming Algorithm. Mechanical Translation and Computational Linguisticsvol. 11. 22-31, [8] digilib.its.ac.id (Surabaya). 2012. 20 Oktober. 31