PERANCANGAN DAN PEMBUATAN PERANGKAT LUNAK PENELUSUR WEB (WEB CRAWLER) MENGGUNAKAN ALGORITMA PAGERANK
|
|
- Suharto Setiabudi
- 7 tahun lalu
- Tontonan:
Transkripsi
1 PERANCANGAN DAN PEMBUATAN PERANGKAT LUNAK PENELUSUR WEB (WEB CRAWLER) MENGGUNAKAN ALGORITMA PAGERANK Budianto, Agus Zainal Arifin, Suhadi Lili Jurusan Teknik Informatika, Fakultas Teknologi Informasi Institut Teknologi Sepuluh Nopember (ITS) Surabaya Kampus ITS, Jl. Raya ITS, Sukolilo-Surabaya Tel , Fax buddyboy@inf.its-sby.edu, agusza,suhadi@se.its-sby.edu Abstrak Makalah tersebut menguraikan tentang bagaimana web crawler menelusuri dokumen-dokumen yang dianggap penting terlebih dahulu dalam suatu struktur web di sekitar ITS seperti tc.its-sby.edu dan its.ac.id sebagai dataset. Web crawler melakukan penelusuran dengan model Crawl and Stop with Threshold. Hasil uji coba menunjukkan bahwa web crawler yang dilengkapi dengan metode penelusuran yang sesuai dengan struktur dokumen-dokumen dalam web akan memperoleh dokumen-dokumen yang penting lebih cepat dibanding dengan web crawler yang tidak dilengkapi. KATA KUNCI: web crawler, information retrieval, web mining, web spider, PageRank, and link analysis. 1. PENDAHULUAN World Wide Web merupakan salah satu sumber informasi yang dapat diakses dengan mudah. Informasi tersebut disimpan dalam suatu file dengan nama yang unik dalam suatu direktori yang unik pula dalam suatu situs yang diindentifikasi dalam nomor IP address atau alamat Uniform Resource Locator (URL)[5]. Seorang pengguna internet perlu mengingat setiap URL-URL yang penting baginya. Karena jumlah yang sangat banyak, maka tidak mungkin seorang user mengingat alamat-alamat tersebut. Salah satu solusinya adalah dengan membangun sebuah daftar indek dari alamat URL-URL tersebut. Mesin pencari (search engine) merupakan salah satu alat yang mengunakan teknik tersebut [6]. Bagian penting dari sebuah mesin pencari adalah web crawler. Web crawler merupakan program yang mengumpulkan informasi yang akan ditempatkan pada basis data. Sebuah web crawler bertugas menelusuri web dan mengumpulkan dokumen-dokumen di dalamnya. Selanjutnya web crawler akan mengurutkan dokumen-dokumen tersebut dan membangun sebuah daftar indeknya. Tujuan pengurutan tersebut adalah untuk menentukan seberapa penting suatu dokumen dan untuk menduga URL-URL yang mungkin penting sehingga URL tersebut perlu ditelusuri terlebih dahulu[2]. Sejumlah metode penelusuran berkaitan dengan pengurutan tersebut antara lain adalah breath first search(bfs) dan depth first search(dfs). Pada BSF, web crawler akan menelusuri dokumen-dokumen global terlebih dahulu. Kemudian web crawler akan mengunjungi dokumen-dokumen yang bersifat lokal yang terdapat pada sebuah kelompok tertentu saja[2]. Sedangkan pada metode penelusuran DFS, web crawler akan menelusuri dokumendokumen yang bersifat lokal terlebih dahulu. Kemudian web crawler akan menelusuri dokumen-dokumen pada situs lain. Salah satu contoh metode penelusuran seperti ini adalah penelusuran berdasarkan banyaknya jumlah backlink. Berbeda dengan kedua metode penelusuran diatas, penelusuran berdasarkan nilai PageRank mempunyai sifat BFS dan DFS. Dimana pola penelusurannya tergantung dari kualitas dokumen-dokumen bukan berdasarkan jumlah backlink[2]. Dengan menggunakan PageRank, diharapkan sebuah web crawler akan mengunjungi dokumen-dokumen penting terlebih Kerjasama antara Lemlit dan PIKTI ITS Paper 19-1
2 dahulu sehingga penelusuran akan efisien dan efektif. Pada Makalah ini akan diuraikan bagaimana web crawler menelusuri URL-URL yang diketahuinya berdasarkan algoritma PageRank[9]. 1.1 Dasar Teori Perkembangan dunia Teknologi melahirkan sebuah cabang ilmu pengetahuan yang dikenal dengan nama information retrieval[10]. Sebelum informasi retrieval digunakan pada web, ilmu ini sudah digunakan di perpustakaan oleh seorang pustakawan. Pencarian informasi pada sistem ini didasarkan pada analisa kata (content-based analysis). Berbeda dengan perpustakaan, web selalu berubah setiap saat. Seorang pengguna web perlu mencari informasi melalui mesin pencari (search engine) yang menggunakan algoritma tidak hanya berdasarkan kata (contentbased analysis), tetapi juga berdasarkan analisa hyperlink (hyperlink analysis) dan analisa bahasa bermarkup (markup language analysis). Hyperlink antara 2 dokumen A dan B pada web berarti bahwa dokumen A mengacu pada dokumen B. Hubungan tersebut tentu mempunyai makna tertentu bagi penulis dokumen A. Penulis dokumen A tentu memberikan link yang mengacu pada dokumen B yang berisi informasi yang berguna bagi pembaca dokumen A. Analisa Hyperlink sangat penting di dalam menentukan tingkat kualitas suatu dokumen yang dicari oleh seorang user. Analisa Hyperlink Analisa hyperlink merupakan suatu analisa yang didasarkan pada hubungan antara dokumen yang satu dengan dokumen yang lain. Karena web merupakan kumpulan dari dokumendokumen yang tersebar dan saling berhubungan melalui suatu link, maka analisa hyperlink dapat digunakan untuk menentukan kualitas suatu dokumen. Ada 2 kegunaan utama analisa hyperlink dalam bidang information retrieval yaitu untuk penelusuran (crawling) dan ranking. Connectivity-Based Ranking Connectiivity-Based ranking merupakan ranking terhadap dokumen-dokumen dalam web berdasarkan hubungan-hubungan berupa link yang terdapat pada dokumen-dokumen dalam suatu koleksi web. Ada 2 jenis dari Connectivity-Based Ranking yaitu: 1. query-independent ranking yang bersifat bebas dan memberikan nilai pada dokumen secara bebas dari pengaruh query yang diberikan. 2. query-dependent ranking yang bersifat tidak bebas dan nilai pada dokumen bergantung pada query yang diberikan. Query-Independent Ranking Beberapa metode pengukuran yang digunakan untuk menilai kualitas dokumen berdasarkan hubungannya diantaranya sebagai berikut: 1. Back link Count Pada pengukuran tersebut, suatu dokumen dinilai berdasarkan jumlah dokumen yang mengacu kepadanya. 2. Forward link Count Pada pengukuran tersebut, suatu dokumen dinilai berdasarkan jumlah link yang ada pada dokumen tersebut. 3. Page Rank Pengukuran tersebut merupakan turunan dari back link count dimana suatu dokumen dinilai berdasarkan persamaan rumus (1). IRt ( 1) IR( tn) IR ( p)?( d? 1)? d[?...? ]..(1) c1 cn IR(p) nilai pentingnya suatu dokumen. d dumping factor (0<d<1) t 1... t n Dokumen yang mengacu dokumen p. c 1...c n Jumlah link pada dokumen t 1...t n 1.2 Perancangan Web Crawler web crawler merupakan program yang digunakan untuk menelusuri dokumen yang ada di internet. Untuk memperoleh sebuah dokumen, sebuah crawler membutuhkan URL sebagai inisial awal p 0. Crawler akan mendapatkan p 0, mencari URL yang ada didalamnya dan memasukkan dalam sebuah antrian URL yang akan diamati. Cara kerja sebuah crawler secara sederhana dapat ditulis pada algoritma dibawah ini: Algoritma Crawler Input : AllURLs Kumpulan URL-URL yang diketahui CollURLs Kumpulan URL-URL yang tersimpan Prosedur: While (true) Kerjasama antara Lemlit dan PIKTI ITS Paper 19-2
3 URL SelectToCrawl(AllURLs) page Crawl(URL) if (URL? CollURLs) update(url, page) else tmpurl selecttodiscard(collurls) Discard(tmpURL) Save(URL,page) CollURLs (CollURLs-tmpURL)? URL newurls extracturls(page) AllURLs AllURLs? newurls Secara garis besar arsitektur web crawler terdiri atas 3 buah koleksi (AllURLs, CollURLs, dan Collection) dan 4 buah modul (Order Module, SelectToDiscard Module, Save Module, Crawl Module) seperti terlihat pada gambar III.1. Garis dan anak panah menunjukkan aliran data antara module dan label yang terdapat diatasnya menunjukan nama fungsi atau kelas yang dipanggil. Kedua koleksi AllURLs dan CollURLs mengelola data yang hampir sama yaitu alamat URL. Bedanya pada AllURLs tersimpan semua alamat URL-URL yang telah diketahui, sedangkan CollURLs menyimpan semua URL yang terdapat pada Collection. URL-URL yang terdapat pada AllURLs dipilih oleh Order Module. Secara konstan Order Module mengamati URL-URL yang terdapat pada koleksi AllURLs, CollURLs, dan Collection untuk melakukan usaha perbaikan dokumendokumen yang terdapat pada koleksi. Sepintas dapat dikatakan bahwa jika sebuah crawler menggunakan metode PageRank sebagai importance metric, maka Order Module akan mengevaluasi semua URL-URL yang terdapat pada koleksi AllURLs berdasarkan nilai PageRank. Ketika sebuah dokumen yang tidak berada pada CollURLs berubah menjadi lebih penting dari dokumen yang terdapat pada CollURLs, maka SelectToDiscard module dan Save Module akan membuang dokumen dalam CollURLs yang tidak penting dan menggantinya dengan dokumen baru. Jadi Order Module digunakan sebagai refinement decision sedangkan SelectToDiscard module dan Save Module digunakan sebagai update decision. Secara konstan Crawl Module menelusuri dokumen dan menyimpan ke dalam CollURLs. 2. UJI COBA Sejumlah uji coba dilakukan pada sejumlah dataset dengan nilai parameter dan metode yang berbeda-beda. UjiCoba tersebut dilakukan dengan 2 macam pengukuran yaitu : BackLink metric dan PageRank metric. Keterangan tentang Dataset Dataset yang digunakan di dalam uji coba tersebut diperoleh dari intranet di sekitar ITS yaitu its-sby.edu dan its.ac.id. Dalam penelusuran dokumen tersebut semua URL yang merujuk pada dokumen di luar its-sby.edu akan diabaikan. Disamping itu juga beberapa data yang dianggap tidak valid juga diabaikan seperti data pada direktori book pada se.its-sby.edu yang berisi buku-buku online dan belajarweb yang terdapat pada se.its-sby.edu yang berisi daftar file mahasiswa. Important Metric Jika suatu dokumen p mempunyai important metric I(p), maka I(p) suatu dokumen pada uji coba ini ditentukan dengan BackLink Count dan PageRank. Definisi Dokumen Penting Uji coba tersebut menggunakan model Crawl and Stop with Threshold. Pada model Crawl and Stop with Threshold, diasumsikan crawler telah mengunjungi sejumlah K dokumen kemudian berhenti. Sebuah target sebesar G yang telah ditentukan terlebih dahulu digunakan sebagai threshold. Jika sebuah dokumen mempunyai nilai I(p)? G, maka dokumen tersebut dikatakan penting. Nilai G dapat bervariasi tergantung dari pengukuran yang digunakan. Dalam uji coba ini digunakan sejumlah target G yang berbeda-beda untuk masing-masing pengukuran. Untuk backlink metric digunakan target G sebesar 3 dan 10. Sedangkan untuk PageRank metric digunakan target G yang lebih kecil sebesar 0.5, 1, dan 3. Gambar III.1. Arsitektur Web Crawler. Kerjasama antara Lemlit dan PIKTI ITS Paper 19-3
4 Pengukuran Kinerja Web Crawler Kinerja web crawler diukur dengan mencari nilai P st (C) dan P(C). P st (C) merupakan persentase antara jumlah halaman penting (h) yang telah ditelusuri saat web crawler berhenti dengan jumlah seluruh halaman penting yang terdapat pada web (H). Persamaan tersebut dapat dilihat pada rumus 2. Tentu saja nilai H tidak dapat ditentukan sebelum seluruh dokumen telah ditelusuri. Sedangkan jumlah halaman penting (h) pada uji coba ini ditentukan setiap 10 dokumen ditelusuri. Dengan kata lain crawler akan berhenti sejenak setelah mengunjungi 10 dokumen untuk menghitung jumlah halaman penting yang telah diperoleh sejauh ini. Sedangkan P(C) merupakan persentase antara jumlah halaman yang telah ditelusuri saat crawler berhenti(c) dengan jumlah seluruh dokumen yang terdapat pada web (C). Persamaan ini dapat dilihat pada rumus 3. h P st ( C)?..(2) H c P ( C)? (3) C Pada uji coba yang dilakukan tersebut, kinerja crawler ini digambarkan dalam bentuk grafik. Dimana sumbu x merupakan nilai P(C) dan sumbu y merupakan nilai dari P st (C) yang bersesuaian. Jadi awal grafik akan dimulai dari 0% dan berakhir pada 100%. Grafik hasil uji coba akan digunakan untuk mengukur kinerja suatu crawler dengan dua metode yaitu PageRank dan BackLink. Crawler yang mampu menelusuri dokumendokumen penting lebih dahulu merupakan crawler yang mempunyai kinerja lebih baik. Uji Coba dengan BackLink Metric Pada BackLink metric tersebut, sebuah dokumen dianggap penting jika dokumen tersebut mempunyai jumlah backlink lebih besar dari target yang telah ditetapkan. Perhitungan BackLink metric/ib(p) membutuhkan struktur web secara lengkap. Selama proses penelusuran, crawler hanya dapat menghitung nilai IB (p) yang merupakan jumlah backlink yang dapat dihitung sampai saat ini. Tanggal percobaan 17 Oktober 2002 Dataset tc.its-sby.edu Jumlah Doc 194 Jumlah URL tidak valid 46 Lama Pengukuran 10 %Hot Page 39% (76) Target G 3 Tabel V.1. memperlihatkan keterangan tentang percobaan tersebut. Dari tabel ini diperoleh keterangan bahwa jumlah dokumen valid yang disimpan di dalam koleksi sampai akhir penelusuran adalah 194 dokumen. Sedangkan jumlah dokumen yang tidak valid adalah 46 dokumen. Sedangkan lama pengukuran 10 menunjukkan bahwa pengukuran dari sampel tersebut dilakukan setiap 10 dokumen baru ditelusuri. Dengan menggunakan target G = 3, maka pada akhir penelusuran jumlah dokumen penting adalah 39% dari jumlah dokumen yang telah ditelusuri. Tabel V.2. Tabel Perbandingan Backlink dan PageRank 0.3. %Hot PageRank 0.3(x) %Hot BackLink(y)?(x-y)?(x-y)/y %Peningkatan : Percobaan pada tc.its-sby.edu (target G=3) Tabel V.1. Dataset tc.its-sby.edu hasil penelusuran dengan backlink metric dengan target G sebesar 3 Kerjasama antara Lemlit dan PIKTI ITS Paper 19-4
5 % Hot BackLink vs PageRank 36 BackLink PageRank 0.95 PageRank 0.8 PageRank % Crawled Gambar V.1. Grafik BackLink vs PageRank dengan dumping factor pada dataset tc.itssby.edu dengan target G sebesar 3. Percobaan tersebut dilakukan sebanyak 4 kali dengan menggunakan metode BackLink dan metode PageRank. Metode PageRank dilakukan sebanyak 3 kali dengan mengubah-ubah nilai dumping factor dari 0.95, 0.8, dan 0.3. Kedua metode tersebut menggunakan target G yang sama yaitu 3. Angka 3 berarti semua dokumen yang mempunyai jumlah backlink lebih besar atau sama dengan 3 dianggap sebagai dokumen yang penting. Perbandingan antara metode PageRank dan BackLink dapat dilihat pada gambar v.1. Pada grafik sumbu horisontal menunjukkan persentase dokumen yang telah ditelusuri, P(C), pada waktu crawler berhenti. Pada akhir sumbu horisontal, 194 dokumen telah ditelusuri oleh crawler. Sedangkan sumbu vertikal menunjukan persentase dokumen penting yang telah ditelusuri, P st (C), pada saat crawler berhenti. Dari grafik pada gambar V.1. dapat dilihat bahwa metode PageRank dengan dumping factor sebesar 0.3 mempunyai kinerja paling baik. Hal ini telihat garis pada metode PageRank 0.3 selalu berada di atas kiri garis-garis yang lain. Sedangkan tabel V.2. menunjukkan peningkatan sebesar 30% pada kinerja metode PageRank 0.3 dibanding metode BackLink Clu Clu Gambar V.2. Urutan penelusuran dengan Backlink ordering. Garis putus-putus berarti belum ditelusuri, sedangkan garis lurus berarti sudah ditelusuri. Metode PageRank dengan dumping factor sebesar 0.3 ini mempunyai kinerja yang baik disebabkan karena metode tersebut sesuai dengan bentuk struktur web yang terdapat pada tc.its-sby.edu. Berdasarkan hasil tersebut terlihat bahwa metode BackLink bertingkah laku seperti depth-first search. Sedangkan metode PageRank merupakan kombinasi breath-first search dan depth-first search. Gambar V.3. Urutan penelusuran dengan PageRank ordering. Garis putus-putus berarti belum ditelusuri, sedangkan garis lurus berarti sudah ditelusuri. Dengan kata lain, selama proses penelusuran, penggunaan metode BackLink akan bias jika menemukan sekelompok dokumen yang saling berkaitan (lihat gambar V.2.). Jika crawler menggunakan metode BackLink maka crawler akan menelusuri dokumen-dokumen penting dalam kelompok tertentu terlebih dahulu dibanding menelusuri dokumen-dokumen secara global. Sedang pada metode PageRank, crawler tidak hanya menelusuri dokumen-dokumen dalam kelompok tertentu saja, tetapi juga mengunjungi dokumen-dokumen secara global (lihat gambar V.3.). Pada percobaan selanjutnya akan digunakan dataset yang sama, namun target G yang digunakan dinaikkan menjadi 10. Pada percobaan ini juga digunakan metode dan metric yang sama dengan percobaan pada tc.its-sby.edu dengan target G=3 yang lalu. Kerjasama antara Lemlit dan PIKTI ITS Paper 19-5
6 Percobaan pada tc.its-sby.edu (target G=10) Dataset yang digunakan percobaan tersebut sama dengan dataset pada percobaan sebelumnya. Namum nilai target G diubah menjadi 10. Dari penelusuran tersebut diperoleh data seperti pada tabel V.3. Tabel V.3. Dataset tc.its-sby.edu hasil penelusuran dengan backlink metric dengan target G sebesar 10 Tanggal percobaan 18 Oktober 2002 Dataset tc.its-sby.edu Jumlah Doc 194 Jumlah URL tidak valid 46 Lama Pengukuran 10 %Hot Page 14% (28 doc) Target G 10 % Hot PageRank vs BackLink Target pagerank 0.95 pagerank0.8 pagerank0.3 Backlink % Crawled Gambar V.4. Grafik BackLink vs PageRank dengan dumping factor 0.95, 0.8, dan 0, 3 pada dataset tc.itssby.edu dengan target G sebesar 10. Pada percobaan tersebut terjadi peningkatan sebesar 30% pada kinerja metode PageRank 0.3 dibanding metode BackLink. Dari grafik pada gambar V.4. dapat dilihat bahwa hanya metode PageRank dengan dumping factor sebesar 0.3 mempunyai kinerja paling baik. Hal ini terlihat pada garis dari metode PageRank 0.3 yang selalu berada di atas dibanding dengan garis-garis yang lain yang mengalami perubahan yang tidak beraturan. Garis dari metode PageRank 0.3, 0.8, dan 0.95 mengalami perbaikan dibanding percobaan sebelumnya. Terlihat bahwa PageRank dengan nilai dumping factor yang besar mempunyai pola yang mirip bahkan sama dengan BackLink. Hal ini disebabkan karena metode PageRank merupakan turunan dari metode BackLink. Bedanya pada metode PageRank terdapat dumping factor yang menyebabkan metode ini kadang-kadang mempunyai sifat breadth-first search. Uji Coba dengan PageRank Metric Bagian tersebut menguraikan sejumlah percobaan yang kinerjanya diukur dengan menggunakan PageRank metric. Pada PageRank metric, sebuah dokumen yang mempunyai nilai IR(p) lebih besar atau sama dengan nilai target G akan dikatakan penting. Percobaan pada tc.its-sby.edu (target G=0.5) Tabel V.4. Dataset tc.its-sby.edu hasil penelusuran dengan PageRank metric dengan target G sebesar 0.5 Tanggal percobaan 18 Oktober 2002 Dataset tc.its-sby.edu Jumlah Doc 194 Jumlah URL tidak valid 46 Lama Pengukuran 10 %Hot Page 28% (54) Target G 0.5 Tabel v.5. Peningkatan PageRank 0.9 terhadap BackLink %hot %hot pagerank(x) BackLink (y)?(x-y)?(x-y)/y , , , , , , ,765 %peningkatan Untuk menghindari data yang sangat sensitif, maka pada percobaan tersebut digunakan target G sebesar 0.5. Percobaan tersebut menghasilkan data yang dapat dilihat pada tabel V.4. Percobaan tersebut dilakukan sebanyak 2 kali dengan menggunakan metode BackLink dan metode PageRank. Metode PageRank dilakukan dengan nilai dumping faktor sebesar 0.9. Kedua metode tersebut menggunakan target G yang sama yaitu 0.5. Angka 0.5 disini berarti semua dokumen yang mempunyai nilai pagerank lebih Kerjasama antara Lemlit dan PIKTI ITS Paper 19-6
7 besar atau sama dengan 0.5 dianggap sebagai dokumen yang penting. Tabel V.5. menunjukkan peningkatan kinerja pada metode PageRank 0.9 sebesar 27% dibanding dengan metode BackLink. Sedangkan grafik yang menggambarkan kedua tabel tersebut dapat dilihat pada gambar V.6. Dari gambar tersebut terlihat jelas bahwa PageRank mampu memperoleh dokumen penting lebih dahulu dibanding dengan metode BackLink, meskipun kinerja tersebut terlihat tidak begitu baik. Hal ini disebabkan pada host yang kecil terdapat banyak cross link yang sangat sensitive %Hot PageRank pagerank 0.9 %Crawled %Hot Backlink pagerank0.9 PageRank vs BackLink %Crawled Gambar V.5. Grafik BackLink vs PageRank dengan dumping factor 0.9 dan 0.5 pada dataset tc.its-sby.edu dengan target G sebesar 0.5 Percobaan pada its.ac.id dan its-sby.edu (target G=10) Tabel V.6. Dataset its-sby.edu hasil penelusuran dengan PageRank metric dengan target G sebesar 0.5. Tanggal percobaan 12-Oct-02 Dataset its.ac.id & its-sby Jumlah Doc 3932 Jumlah URL tidak valid 182 Lama Pengukuran 10 %Hot Page 15% (587) Target G Gambar V.6. Grafik PageRank dengan dumping factor 0.9 pada dataset its-sby.edu dan its.ac.id dengan target G sebesar 10. Pada percobaan tersebut, dataset yang digunakan adalah its.ac.id dan its-sby.edu. Percobaan tersebut menghasilkan data yang dapat dilihat pada tabel V.6. Percobaan tersebut dilakukan sebanyak satu kali dengan menggunakan metode PageRank. Metode PageRank dilakukan dengan nilai dumping faktor sebesar 0.9. Dari gambar tersebut terlihat bahwa dengan metode PageRank, Crawler mempunyai kinerja yang baik dibanding percobaan-percobaan sebelumnya. Hal ini disebabkan pada jumlah situs yang terlibat lebih bervariasi. 3. KESIMPULAN DAN SARAN Kesimpulan Kesimpulan yang dapat diuraikan dari penelitian tersebut adalah sebagai berikut:?? Penelusuran suatu struktur web sangat dipengaruhi oleh dumping factor. Dimana jika dumping factor naik, maka pola penelusuran akan mendekati pola penelusuran breath-first search. Sedangkan jika dumping factor turun, maka pola penelusuran akan mendekati pola penelusuran depth-first search.?? Urutan dokumen-dokumen berdasarkan nilai PageRank mencerminkan tingkat relevansi terhadap dokumen-dokumen lain yang mengacunya.?? Fungsi PageRank yang lain adalah PageRank dapat digunakan untuk menduga URL-URL mana yang berkualitas yang perlu dikunjungi terlebih dahulu. Kerjasama antara Lemlit dan PIKTI ITS Paper 19-7
8 ?? Berdasarkan uji coba yang dilakukan pada dataset tc.its-sby.edu, PageRank dengan dumping factor 0.3 mempunyai rata-rata peningkatan kinerja 30% dari BackLink. Saran?? Perangkat lunak tersebut dapat diintegrasikan dengan sebuah mesin pencari (Search Engine).?? Diharapkan crawler dapat melakukan penelusuran dan perhitungan secara pararel.?? Diharapkan crawler tersebut dilengkapi dengan algoritma penjadwalan. 4. DAFTAR PUSTAKA [1] Brin, Sergey, Lawrence Page, The Anatomy of a Large-Scale Hypertextual Web Search Engine, California, [2] Cho, Junghoo, Hector Gracia-Molina, Lawrence Page, Efficient Crawling Through URL Ordering, New York,1998. [3] Cho, Junghoo. Crawling the Web: Discovery and Maintenance of Large-Scale Web Data, California, [4] Google Inc, [5] Henzinger, Monika R., Hyperlink Analysis for The Web. California: IEEE Internet Computing, [6] Henzinger, Monika R., Link Analysis in Web Information Retrieval, California, [7] Kleinberg, Jon., Authoritative Sources in a Hyperlinked Environment, ACM-SIAM Symposium on Discreate Algorithms, [8] Page, Lawrence, Sergey Brin, Rejeev Motwani, Terry Winograd, The PageRank Citation Ranking: Bringing Order to the Web, California, [9] Salton, Gerard, Introduction to Modern Information Retrieval, McGrawHill, [10] Agus Zainal Arifin dan Ari Novan Setiono, Klasifikasi Dokumen Berita Kejadian Berbahasa Indonesia dengan Algoritma Single Pass Clustering, Teknik Informatika, Institute Teknologi Sepuluh Nopember, Surabaya, Kerjasama antara Lemlit dan PIKTI ITS Paper 19-8
BAB I PENDAHULUAN. Teknologi Informasi saat ini mengalami perkembangan yang signifikan.
BAB I PENDAHULUAN 1.1 Latar Belakang Masalah Teknologi Informasi saat ini mengalami perkembangan yang signifikan. Beragam aspek kehidupan sangat terbantu dengan perkembangan teknologi informasi ini. Hal
Lebih terperinciPenerapan Graf dalam Algoritma PageRank Mesin Pencari Google
Penerapan Graf dalam Algoritma PageRank Mesin Pencari Google Adya Naufal Fikri - 13515130 Program Studi Teknik Informatika Sekolah Teknik Elektro dan Informatika Institut Teknologi Bandung, Jl. Ganesha
Lebih terperinciTEMU KEMBALI INFORMASI BERDASARKAN LOKASI PADA DOKUMEN YANG DIKELOMPOKKAN MENGGUNAKAN METODE CENTROID LINKAGE HIERARCHICAL
TEMU KEMBALI INFORMASI BERDASARKAN LOKASI PADA DOKUMEN YANG DIKELOMPOKKAN MENGGUNAKAN METODE CENTROID LINKAGE HIERARCHICAL Nadia Damayanti 1, Nur Rosyid Mubtada i, S.Kom, M.Kom 2, Afrida Helen S.T, M.Kom
Lebih terperinciSearch Engine. Adri Priadana ilkomadri.com
Search Engine Adri Priadana ilkomadri.com Pendahuluan Buku vs Internet. Internet Bebas dan Banyak Sumber seluruh dunia. Mencari informasi secara spesifik. Pencarian informasi secara spesifik ini dapat
Lebih terperinciPERANCANGAN DAN PEMBUATAN WEB CRAWLER APLIKASI PANDUAN PEMBELIAN SPESIFIKASI KOMPUTER RAKITAN ONLINE DENGAN MEMANFAATKAN GOOGLE GEARS
PERANCANGAN DAN PEMBUATAN WEB CRAWLER APLIKASI PANDUAN PEMBELIAN SPESIFIKASI KOMPUTER RAKITAN ONLINE DENGAN MEMANFAATKAN GOOGLE GEARS Pawestri Dwi Utami Royyana Muslim I Henning T.C Jurusan Teknik Informatika,
Lebih terperinciBAB 1 PENDAHULUAN. pengguna Internet harus tetap up-to-date dengan dokumen terbaru. Karena jumlah
BAB 1 PENDAHULUAN 1.1 Latar Belakang Peningkatan jumlah dokumen digital yang pesat telah menyebabkan para pengguna Internet harus tetap up-to-date dengan dokumen terbaru. Karena jumlah penyedia dokumen
Lebih terperinciBAB I PENDAHULUAN. Information retrieval (IR) adalah ilmu yang mempelajari pencarian
BAB I PENDAHULUAN 1.1 Latar Belakang Information retrieval (IR) adalah ilmu yang mempelajari pencarian dokumen untuk memenuhi kebutuhan informasi dari dalam koleksi besar media penyimpanan komputer (Manning,
Lebih terperinciBAB I PENDAHULUAN. 1.1 Latar Belakang
BAB I PENDAHULUAN 1.1 Latar Belakang Perkembangan internet secara pesat dengan miliaran halaman web tersedia di internet dan halaman-halaman tersebut selalu tumbuh setiap waktunya, Akibat dari pertumbuhan
Lebih terperinciPENERAPAN FOCUSED CRAWLING PADA SITUS BERITA ONLINE
PENERAPAN FOCUSED CRAWLING PADA SITUS BERITA ONLINE Aad Miqdad Muadz Muzad 1, Faisal Rahutomo 2, Imam Fahrur Rozi 3 1,2,3 Teknik Informatika, Teknologi Informasi, Politeknik Negeri Malang 1 aadmiqdad@gmail.com,
Lebih terperinciImplementasi BFS dan Analisis Page Rank pada Google Search Engine
Implementasi BFS dan Analisis Page Rank pada Google Search Engine Dery Rahman Ahaddienata, 13515097 1 Program Studi Informatika Sekolah Teknik Elekro dan Informatika Institut Teknologi Bandung, Jl. Ganesha
Lebih terperinciBAB 1 PENDAHULUAN. 1.1 Latar Belakang
BAB 1 PENDAHULUAN 1.1 Latar Belakang Dengan berkembangnya Internet, banyak informasi tersedia dalam World Wide Web yang dapat diakses di seluruh negara. Pada saat pencarian informasi menggunakan search
Lebih terperinciBAB III METODE PENELITIAN
BAB III METODE PENELITIAN 3.1 Desain Penelitian Gambar 3. 1 Desain Penelitian Penjelasan dari bagan desain penelitian di atas adalah sebagai berikut: 1. Rumusan Masalah Penelitian selalu di latarbelakangi
Lebih terperinciBAB I PENDAHULUAN 1.1 Latar Belakang dan Permasalahan
BAB I PENDAHULUAN 1.1 Latar Belakang dan Permasalahan Berkembang pesatnya dunia internet dan kebebasan dari sesorang untuk membuat suatu halaman web maka mengakibatkan halaman web bekembang jumlahnya dengan
Lebih terperinciOPTIMASI SITUS WEB UNTUK MENINGKATKAN URUTAN DI SERP MENGGUNAKAN METODE SEO
OPTIMASI SITUS WEB UNTUK MENINGKATKAN URUTAN DI SERP MENGGUNAKAN METODE SEO Fahrizal Aji Cahyadi Program Studi Teknik Informatika, Fakultas Ilmu Komputer Universitas Dian Nuswantoro Jl. Nakula I No. 5-11
Lebih terperinci3. BAB III METODE PENELITIAN. untuk mendapatkan strategi peningkatan visibility/impact dan activity pada
3. BAB III METODE PENELITIAN 3.1 Metode Penelitian Dalam melakukan penelitian analisis memerlukan tiga tahapan yang tepat untuk mendapatkan strategi peningkatan visibility/impact dan activity pada stikom.edu
Lebih terperinciBAB 1 PENDAHULUAN Latar Belakang
BAB 1 PENDAHULUAN 1.1. Latar Belakang Perkembangan internet mendorong tumbuhnya media pemberitaan online, sehingga menjadikan media online (portal berita) tidak lagi hanya menjadi media sekunder tetapi
Lebih terperinciPenelusuran Informasi (Information Retrieval)
Introduction to Information Retrieval Penelusuran Informasi (Information Retrieval) Sumber: CS276: Information Retrieval and Web Search Pandu Nayak and Prabhakar Raghavan Taufik Fuadi Abidin Web Crawling
Lebih terperinciBab 2 Tinjauan Pustaka 2.1 Penelitian Terdahulu
Bab 2 Tinjauan Pustaka 2.1 Penelitian Terdahulu Penerapan Web Crawler dalam Pencarian e-book ini merupakan hasil pengembangan dari penelitian terhadap Web Crawler yang sudah ada. Penelitian terdahulu yang
Lebih terperinciBAB I Pendahuluan. 1 Launching Business on the Web, David Cook and Deborah Sellers, QUE, 1995, hal 12.
BAB I Pendahuluan Perkembangan teknologi komputer akhir-akhir semakin maju, terutama perkembangan dibidang teknologi informasi, karena didukung oleh perkembangan perangkat keras, perangkat lunak dan jaringan
Lebih terperinci1. Pendahuluan. 1.1 Latar belakang
1. Pendahuluan 1.1 Latar belakang Pada saat ini, kebutuhan setiap individu terhadap Internet semakin meningkat. Hal ini terlihat dari semakin banyaknya fasilitas yang ditawarkan dari dunia Internet itu
Lebih terperinciBAB II DASAR TEORI Crawler Definisi Focused Crawler dengan Algoritma Genetik [2]
BAB II DASAR TEORI Pada bab ini dibahas teori mengenai focused crawler dengan algoritma genetik, text mining, vector space model, dan generalized vector space model. 2.1. Focused Crawler 2.1.1. Definisi
Lebih terperinciPerbandingan Algoritma Breadth First Search dan Depth First Search Sebagai Focused Crawler
Perbandingan Algoritma Breadth First Search dan Depth First Search Sebagai Focused Crawler Doddy Teguh Yuwono, Abdul Fadlil, Sunardi Magister Teknik Informatika Universitas Ahmad Dahlan Yogyakarta, Indonesia
Lebih terperinciPenerapan Graf pada PageRank
Penerapan Graf pada PageRank Hartono Sulaiman Wijaya 13509046 Program Studi Teknik Informatika Sekolah Teknik Elektro dan Informatika Institut Teknologi Bandung, Jl. Ganesha 10 Bandung 40132, Indonesia
Lebih terperinciWEB CONTENT MINING MENGGUNAKAN PARTITIONAL CLUSTERING K-MEANS PADA NEWS AGGREGATOR
WEB CONTENT MINING MENGGUNAKAN PARTITIONAL CLUSTERING K-MEANS PADA NEWS AGGREGATOR Achmad Thoriq B, Nelly Indriani W Abstract News aggregator is one type of aggregator system (collector) which collects
Lebih terperinciBAB 1 PENDAHULUAN Latar Belakang
BAB 1 PENDAHULUAN 1.1. Latar Belakang Perkembangan internet yang semakin pesat membuat masyarakat dapat memperoleh informasi dengan cepat. Informasi yang disajikan pun beragam jenis, seperti kesehatan,
Lebih terperinciMengoptimalkan Google.com
Mengoptimalkan Google.com Mesin pencari internet (internet searching engine) telah menjadi senjata andalan pengguna internet untuk mencari suatu halaman web, artikel atau informasi lain dengan keterbatasan
Lebih terperinciBFS dan DFS. Bahan Kuliah IF2151 Strategi Algoritmik. Oleh: Rinaldi Munir
BFS dan DFS Bahan Kuliah IF2151 Strategi Algoritmik Oleh: Rinaldi Munir Traversal di dalam graf berarti mengunjungi simpul-simpul dengan cara yang sistematik. Algoritma traversal di dalam graf: 1. BFS:
Lebih terperinciBAB 1 PENDAHULUAN. 1.1 Latar Belakang Permasalahan
BAB 1 PENDAHULUAN 1.1 Latar Belakang Permasalahan Teknik Struktur Data dan Data Mining merupakan salah satu ilmu komputer yang penting dan menarik perhatian teori informatika. Saat ini teknik ini sudah
Lebih terperinciANALISIS LINK. Tujuan 4/23/13. Budi Susanto
Text dan Web Mining - TI UKDW ANALISIS LINK udi Susanto Text dan Web Mining - TI UKDW 2 Tujuan memahami karakteristik link antar laman yang dapat dimodelkan sebagai graf. memahami algoritma PageRank memahami
Lebih terperinciAplikasi Aljabar Vektor dalam Algoritma Page Rank
Aplikasi Aljabar Vektor dalam Algoritma Page Rank Albertus Kelvin / 13514100 Program Studi Informatika Sekolah Teknik Elektro dan Informatika Institut Teknologi Bandung, Jl. Ganesha 10 Bandung 40132, Indonesia
Lebih terperinciAlgoritma Traversal di dalam Graf
Algoritma Traversal di dalam Graf Traversal di dalam graf berarti mengunjungi simpul-simpul dengan cara yang sistematik. Algoritma traversal untuk graf: 1. Pencarian Melebar (Breadth First Search atau
Lebih terperinciSISTEM TEMU KEMBALI INFORMASI PENENTUAN LOKASI DOKUMEN DENGAN CLUSTER DAN ALGORITMA CRAWLER
SISTEM TEMU KEMBALI INFORMASI PENENTUAN LOKASI DOKUMEN DENGAN CLUSTER DAN ALGORITMA CRAWLER Oleh : Nama : Gede Riska Wiradarma NIM : 1204505080 Dosen : I Putu Agus Eka Pratama, ST., MT JURUSAN TEKNOLOGI
Lebih terperinciStudent Guide Series: Aplikasi Internet Google. 1.1 Tampilan Google
Student Guide Series: Aplikasi Internet Google 1.1 Tampilan Google Google menyediakan bebagai macam fitur yang dapat diakses oleh semua pengunjung google. Fitur-fitur yang disediakan, yaitu mesin pencari
Lebih terperinciBAB I PENDAHULUAN Latar Belakang
BAB I PENDAHULUAN 1.1. Latar Belakang Semakin canggihnya teknologi di bidang komputasi dan telekomunikasi pada masa kini, membuat informasi dapat dengan mudah didapatkan oleh banyak orang. Kemudahan ini
Lebih terperinciNurzaitun Purwasih¹, Moch. Arif Bijaksana², Bowo Prasetyo³. ¹Teknik Informatika, Fakultas Teknik Informatika, Universitas Telkom
PERINGKASAN TEKS OTOMATIS DOKUMEN TUNGGAL BERBAHASA INDONESIA MENGGUNAKAN GRAPH-BASED SUMMARIZATION ALGORITHM DAN SIMILARITY (STUDI KASUS ARTIKEL BERITA) Nurzaitun Purwasih¹, Moch. Arif Bijaksana², Bowo
Lebih terperinciBAB I PENDAHULUAN 1.1 Tujuan 1.2 Latar Belakang
BAB I PENDAHULUAN 1.1 Tujuan Merancang sebuah sistem yang dapat meringkas teks dokumen secara otomatis menggunakan metode generalized vector space model (GVSM). 1.2 Latar Belakang Dunia informasi yang
Lebih terperinciAplikasi Algoritma Traversal Dalam Binary Space Partitioning
Aplikasi Algoritma Traversal Dalam Binary Space Partitioning Pudy Prima (13508047) Program Studi Teknik Informatika Sekolah Teknik Elektro dan Informatika Institut Teknologi Bandung, Jl. Ganesha 10 Bandung
Lebih terperinciBAB 3 ANALISA DAN PERANCANGAN
BAB 3 ANALISA AN PERANCANGAN 3.1 Gambaran Umum Pada masa sekarang ini, proses pencarian dokumen dalam web seperti Google, Yahoo, dan sebagainya dilakukan dengan menginput query yang diinginkan pada kotak
Lebih terperinciBAB 1 PENDAHULUAN UKDW
BAB 1 PENDAHULUAN 1.1 Latar Belakang Masalah. Teknologi jaringan komputer mengalami peningkatan yang cukup pesat dalam beberapa tahun terakhir. Perkembangan yang pesat ini didorong oleh bertumbuh dan berkembangnya
Lebih terperinciIMPLEMENTASI SEARCH ENGINE OPTIMIZATION (SEO) UNTUK MENINGKATKAN PERINGKAT DI SERP PADA GOOGLE HUMMINGBIRD
IMPLEMENTASI SEARCH ENGINE OPTIMIZATION (SEO) UNTUK MENINGKATKAN PERINGKAT DI SERP PADA GOOGLE HUMMINGBIRD Rasyid Panji Ishwara Universitas Dian Nuswantoro Jl. Nakula I No. 5-11 Semarang 50131 E-mail :
Lebih terperinciPerbandingan Algoritma Brute Force dan Breadth First Search dalam Permainan Onet
Perbandingan Algoritma Brute Force dan Breadth First Search dalam Permainan Onet Dininta Annisa / 13513066 Program Studi Teknik Informatika Sekolah Teknik Elektro dan Informatika Institut Teknologi Bandung,
Lebih terperinciPERTEMUAN 6 PROMOSI DAN PEMELIHARAAN WEB
PERTEMUAN 6 PROMOSI DAN PEMELIHARAAN WEB Promosi Website Bagaimana user dapat menemukan dan mendapatkan informasi dari website adalah tujuan dari promosi web, terutama untuk aplikasi web yang komersil.
Lebih terperinciBAB I PENDAHULUAN. 1.1 Latar Belakang Masalah. Kata informasi telah menjadi suatu topik yang cukup menarik untuk
BAB I PENDAHULUAN 1.1 Latar Belakang Masalah Kata informasi telah menjadi suatu topik yang cukup menarik untuk dibicarakan dan seolah tak ada habisnya untuk dikaji karena pertumbuhannya dan kebutuhannya
Lebih terperinciPENENTUAN KEMIRIPAN TOPIK PROYEK AKHIR BERDASARKAN ABSTRAK PADA JURUSAN TEKNIK INFORMATIKA MENGGUNAKAN METODE SINGLE LINKAGE HIERARCHICAL
PENENTUAN KEMIRIPAN TOPIK PROYEK AKHIR BERDASARKAN ABSTRAK PADA JURUSAN TEKNIK INFORMATIKA MENGGUNAKAN METODE SINGLE LINKAGE HIERARCHICAL Nur Rosyid M, Entin Martiana, Damitha Vidyastana, Politeknik Elektronika
Lebih terperinciKombinasi Algoritma Pattern Matching dan BFS-DFS pada aplikasi Music Discovery
Kombinasi Algoritma Pattern Matching dan BFS-DFS pada aplikasi Music Discovery Disusun Oleh : Levanji Prahyudy / 13513052 Sekolah Teknik Elektro dan Informatika Institut Teknologi Bandung Kombinasi Algoritma
Lebih terperinciKORPUS BERITA DARING BAHASA INDONESIA DENGAN DEPTH FIRST FOCUSED CRAWLING Aad Miqdad Muadz Muzad 1), Faisal Rahutomo 1)
KORPUS BERITA DARING BAHASA INDONESIA DENGAN DEPTH FIRST FOCUSED CRAWLING Aad Miqdad Muadz Muzad 1), Faisal Rahutomo 1) 1 Teknik Informatika, Teknologi Informasi, Politeknik Negeri Malang aadmiqdad@gmail.com,
Lebih terperinciEXPERT SYSTEM SEARCH ENGINE OPTIMIZATION (SEO) DALAM MENGOPTIMALKAN WEBSITE
EXPERT SYSTEM SEARCH ENGINE OPTIMIZATION (SEO) DALAM MENGOPTIMALKAN WEBSITE Diajukan oleh Ridwan.Efendi.Renfaan 2010.01702.11.0120 STMIK JENDERAL ACHMAD YANI YOGYAKARTA 1 BAB I PENDAHULUAN 1.1 Latar belakang
Lebih terperinciANALISIS DAN PERANCANGAN SEARCH ENGINE DOKUMEN PAPER BERBASIS WEB NASKAH PUBLIKASI. diajukan oleh Aldrik Saddermi
ANALISIS DAN PERANCANGAN SEARCH ENGINE DOKUMEN PAPER BERBASIS WEB NASKAH PUBLIKASI diajukan oleh Aldrik Saddermi 10.11.4055 kepada SEKOLAH TINGGI MANAJEMEN INFORMATIKA DAN KOMPUTER AMIKOM YOGYAKARTA YOGYAKARTA
Lebih terperinciPENCARIAN DOKUMEN MENGGUNAKAN METODE SINGLE PASS CLUSTERING (STUDI KASUS : ABSTRAKSI TA TEKNIK INFORMATIKA UNIV. MUHAMMADIYAH MALANG) TUGAS AKHIR
PENCARIAN DOKUMEN MENGGUNAKAN METODE SINGLE PASS CLUSTERING (STUDI KASUS : ABSTRAKSI TA TEKNIK INFORMATIKA UNIV. MUHAMMADIYAH MALANG) TUGAS AKHIR Sebagai Persyaratan Guna Meraih Gelar Sarjana Strata 1
Lebih terperinciANALISIS SEARCH MATCHING PADA SEARCH ENGINE
No Makalah : 093 Konferensi Nasional Sistem Informasi 2012, STMIK - STIKOM Bali 23-25 Pebruari 2012 ANALISIS SEARCH MATCHING PADA SEARCH ENGINE Achmad Fuad Agustian 1, Dina Amalia Adzani 2, Siti Fauziah
Lebih terperinciKATALOG ON-LINE TERDISTRIBUSI PADA JARINGAN KAMPUS
KATALOG ON-LINE TERDISTRIBUSI PADA JARINGAN KAMPUS Oleh: Adi Sujiwo (jiwo@ipb.ac.id) Kudang Boro Seminar (kseminar@bima.ipb.ac.id) Panji Wasmana (panji@ilkom.fmipa.ipb.ac.id) Sistem Katalog On-line Dengan
Lebih terperinciMOBILE ONLINE DICTIONARY
MOBILE ONLINE DICTIONARY Susana Limanto Jurusan Teknik Informatika, Fakultas Teknik, Universitas Surabaya, Surabaya Jl. Raya Kalirungkut Surabaya - 60292 Telp (031)- 2981395 e-mail : us6169@fox.ubaya.ac.id
Lebih terperinciFauzan Azmi Apa itu Search Engine. Cara Kerja Search Engine. Lisensi Dokumen:
Search Engine Fauzan Azmi azmifauzan@gmail.com http://www.azmifauzan.net Lisensi Dokumen: Seluruh dokumen di IlmuKomputer.Com dapat digunakan, dimodifikasi dan disebarkan secara bebas untuk tujuan bukan
Lebih terperinciINFORMATION RETRIEVAL SYSTEM PADA PENCARIAN FILE DOKUMEN BERBASIS TEKS DENGAN METODE VECTOR SPACE MODEL DAN ALGORITMA ECS STEMMER
INFORMATION RETRIEVAL SSTEM PADA PENCARIAN FILE DOKUMEN BERBASIS TEKS DENGAN METODE VECTOR SPACE MODEL DAN ALGORITMA ECS STEMMER Muhammad asirzain 1), Suswati 2) 1,2 Teknik Informatika, Fakultas Teknik,
Lebih terperinciMENDEMONSTRASIKAN AKSES INTERNET
MENDEMONSTRASIKAN AKSES INTERNET 2. Standar Kompetensi: Menggunakan internet untuk memperoleh informasi 2.1. Kompetensi Dasar: Mendemonstrasikan akses internet sesuai prosedur TUJUAN PEMBELAJARAN Menjelaskan
Lebih terperinciAplikasi DFS dan BFS pada Web Crawler di dalam Mesin Pencari (Search Engine)
Program Studi Teknik Informatika Sekolah Teknik Elektro dan Informatika Institut Teknologi Bandung Tugas II IF2211 Strategi Algoritma Aplikasi DFS dan BFS pada Web Crawler di dalam Mesin Pencari (Search
Lebih terperincidapat diakses melalui salah satu menu yang berkaitan dengan komponen pada halaman administrator.
Bab I Pendahuluan I.1 Latar Belakang Internet telah menjadi bagian yang tidak terpisahkan dalam berbagai bidang kehidupan. Kemajuan ilmu dan teknologi telah mengakibatkan semakin meluasnya pemanfaatan
Lebih terperinciPENGENALAN GOOGLE SCHOLAR
PENGENALAN GOOGLE SCHOLAR Eko Prasetyo Universitas Muhammadiyah Yogyakarta Agustus 2016 Topik Pemeringkatan Perguruan Tinggi Google Scholar What s and Why? Google Scholar, How? PEMERINGKATAN PERGURUAN
Lebih terperinciBAB I PENDAHULUAN. Perkembangan teknologi web dan internet yang ada saat ini. memungkinkan seseorang membuat website yang diinginkan menjadi lebih
BAB I PENDAHULUAN I.1 Latar Belakang Masalah Perkembangan teknologi web dan internet yang ada saat ini memungkinkan seseorang membuat website yang diinginkan menjadi lebih mudah. Meskipun orang tersebut
Lebih terperinciJurnal Bianglala Informatika Vol 3 No 1 Maret 2015 lppm3.bsi.ac.id/jurnal
Jurnal Bianglala Informatika Vol 3 1 Maret 201 lppm3.bsi.ac.id/jurnal Perbandingan Efektifitas Penelusuran Informasi Ilmiah Menggunakan Search Engine dan Search Engine Bing Yoyok Rohani AMIK BSI Yogyakarta
Lebih terperinciPREDIKSI OUTLIER MENGGUNAKAN DATA TEPI CLUSTER UNTUK MENINGKATKAN KUALITAS PENGETAHUAN HASIL DATA MINING
PREDIKSI OUTLIER MENGGUNAKAN DATA TEPI CLUSTER UNTUK MENINGKATKAN KUALITAS PENGETAHUAN HASIL DATA MINING Barry Nuqoba, Arif Djunaidy Jurusan Teknik Informatika, Fakultas Teknologi Informasi Institut Teknologi
Lebih terperinci(M.3) CLUSTERING PENGGUNA WEBSITE BPS MENGGUNAKAN ALGORITMA SEQUENCE DBSCAN (SEQDBSCAN) DENGAN JARAK SIMILARITAS S 3 M
(M.3) CLUSTERING PENGGUNA WEBSITE BPS MENGGUNAKAN ALGORITMA SEQUENCE DBSCAN (SEQDBSCAN) DENGAN JARAK SIMILARITAS S 3 M 1Toza Sathia Utiayarsih, 2 Yadi Suprijadi, 3 Bernik Maskun 1Mahasiswa Magister Statistika
Lebih terperinciSistem Temu Kembali Informasi pada Dokumen Teks Menggunakan Metode Term Frequency Inverse Document Frequency (TF-IDF)
Sistem Temu Kembali Informasi pada Dokumen Teks Menggunakan Metode Term Frequency Inverse Document Frequency (TF-IDF) 1 Dhony Syafe i Harjanto, 2 Sukmawati Nur Endah, dan 2 Nurdin Bahtiar 1 Jurusan Matematika,
Lebih terperinciPENDAHULUAN. I.1 Latar Belakang
I PENDAHULUAN I.1 Latar Belakang Internet sebagai jaringan komputer skala global telah mendorong pertambahan jumlah informasi digital. Pada sistem yang bersifat terbuka seperti internet, pertambahan informasi
Lebih terperinciPerancangan Website Ujian. Teknik Elektro UNDIP Berbasis HTML
TUGAS TEKNOLOGI INFORMASI Perancangan Website Ujian Teknik Elektro UNDIP Berbasis HTML OLEH: AULIA RAHMAN 21060113120007 JURUSAN TEKNIK ELEKTRO FAKULTAS TEKNIK UNIVERSITAS DIPONEGORO SEMARANG 2014 Abstrak
Lebih terperinciSistem Temu-Kembali Informasi Pengantar Perkuliahan
Sistem Temu-Kembali Informasi Pengantar Perkuliahan Husni Program Studi Teknik Informatika Universitas Trunojoyo Madura Semeter Gasal 2015-03 Sep. 2015 Perkenalan... Husni (UGM, ITB) Bidang Minat Sistem
Lebih terperinci1. BAB I PENDAHULUAN 1.1 Latar Belakang
1. BAB I PENDAHULUAN 1.1 Latar Belakang Perpustakaan digital merupakan aplikasi praktis yang mengelola koleksi berbagai macam dokumen dalam bentuk digital dan dapat diakses melalui komputer. Melalui aplikasi
Lebih terperinciImplementasi Graf pada Metode Crawling dan Indexing di dalam Mesin Pencari Web
Implementasi Graf pada Metode Crawling dan Indexing di dalam Mesin Pencari Web Fauzan Muhammad Rifqy 13513081 1 Program Studi Teknik Informatika Sekolah Teknik Elektro dan Informatika Institut Teknologi
Lebih terperinciText dan Web Mining. Budi Susanto Teknik Informatika UKDW Yogyakarta
Text dan Web Mining Budi Susanto Teknik Informatika UKDW Yogyakarta Deskripsi Matakuliah ini secara prinsip menekankan tentang teknik-teknik yang perlu diketahui mahasiswa dalam mengelola kumpulan dokumen
Lebih terperinciAplikasi Komputer. Pengenalan E-learning (Definisi E-learning, Pengertian Website dan Unsur-unsurnya) Dian Anubhakti, M.Kom. Modul ke: Fakultas Teknik
Modul ke: Aplikasi Komputer Pengenalan E-learning (Definisi E-learning, Pengertian Website dan Unsur-unsurnya) Fakultas Teknik Dian Anubhakti, M.Kom Program Studi Teknik Arsitektur www.mercubuana.ac.id
Lebih terperinciPenerapan Algoritma BFS dan DFS dalam Mencari Solusi Permainan Rolling Block
Penerapan Algoritma dan DFS dalam Mencari Solusi Permainan Rolling Block Zakiy Firdaus Alfikri 13508042 Program Studi Teknik Informatika Sekolah Teknik Elektro dan Informatika Institut Teknologi Bandung,
Lebih terperinciGOOGLE SEARCH. Google. pencari. hari. peringkat. berbagai pilihan. alternatif
1 MODUL I GOOGLE SEARCH PRAKTIKUM APLIKASI PERKANTORAN Semester Ganjil 2014 CACA E. SUPRIANA, S.Si., MT. (caca.e.supriana@unpas.ac.id) I. Pendahuluan Google Search, sering disebut sebagai Google Web Search
Lebih terperinciBROWSER INTERNET UHRIA. Abstrak. Pendahuluan. Pembahasan.
BROWSER INTERNET UHRIA Uhria.uhria@raharja.info Abstrak Artikel tentang browser Jika anda suka sekali dalam pengetahuan lebih luas tentang browser intenet,maka anda pasti tau apa itu browser internet.
Lebih terperinciBAB I PENDAHULUAN PENDAHULUAN
BAB I PENDAHULUAN PENDAHULUAN 1.1 Latar Belakang Masalah Suatu perguruan tinggi dikatakan baik, apabila sarana perguruan tinggi dapat menunjang tujuan utama perguruan tinggi. Salah satu sarana penunjang
Lebih terperinciPERANCANGAN DAN PEMBUATAN APLIKASI PENCARIAN INFORMASI BEASISWA DENGAN MENGGUNAKAN COSINE SIMILARITY
Vol. 4, No. 2 Desember 2014 ISSN 2088-2130 PERANCANGAN DAN PEMBUATAN APLIKASI PENCARIAN INFORMASI BEASISWA DENGAN MENGGUNAKAN COSINE SIMILARITY Andry Kurniawan, Firdaus Solihin, Fika Hastarita Prodi Teknik
Lebih terperinciPERANCANGAN APLIKASI WEB SCRAPING UNTUK KOLEKSI KONTEN RESEP MASAKAN TRADISIONAL JAWA BERBASIS XML
PERANCANGAN APLIKASI WEB SCRAPING UNTUK KOLEKSI KONTEN RESEP MASAKAN TRADISIONAL JAWA BERBASIS XML Setyawan Wibisono 1), Mardi Siswo Utomo 2) Program Studi Teknik Informatika Fakultas Teknologi Informasi
Lebih terperinciANALISIS PERBANDINGAN KINERJA SEARCH ENGINE MENGGUNAKAN PENELUSURAN PRECISION DAN RECALL UNTUK INFORMASI ILMIAH BIDANG ILMU KEDOKTERAN
ANALISIS PERBANDINGAN KINERJA SEARCH ENGINE MENGGUNAKAN PENELUSURAN PRECISION DAN RECALL UNTUK INFORMASI ILMIAH BIDANG ILMU KEDOKTERAN SUKESI 51409097 Teknologi Industri Teknik Informatika Latar Belakang
Lebih terperinci4. BAB IV HASIL DAN PEMBAHASAN. Hasil dan pembahasan dari analisis data yang didapatkan berupa nilai
50 4. BAB IV HASIL DAN PEMBAHASAN Hasil dan pembahasan dari analisis data yang didapatkan berupa nilai dari setiap indikator dan parameter stikom.edu untuk mendapatkan strategi baru sehingga mampu meningkatkan
Lebih terperinciPenerapan strategi BFS untuk menyelesaikan permainan Unblock Me beserta perbandingannya dengan DFS dan Branch and Bound
Penerapan strategi BFS untuk menyelesaikan permainan Unblock Me beserta perbandingannya dengan DFS dan Branch and Bound Eric 13512021 Program Studi Teknik Informatika Sekolah Teknik Elektro dan Informatika
Lebih terperinciPengujian Kerelevanan Sistem Temu Kembali Informasi
Pengujian Kerelevanan Sistem Temu Kembali Informasi Ari Wibowo / 23509063 Jurusan Teknik Informatika, Politeknik Negeri Batam Jl. Parkway No 1 Batam Center, Batam wibowo@polibatam.ac.id Abstrak Sistem
Lebih terperinciPERANCANGAN SYSTEM PAKAR GENERIC MENGGUNAKAN BINARY TREE
PERANCANGAN SYSTEM PAKAR GENERIC MENGGUNAKAN BINARY TREE Luky Agus Hermanto, ST., MT. Jurusan Teknik Informatika Fakultas Teknologi Informasi Institut Teknologi Adhi Tama Surabaya Jl. Arif Rahman Hakim
Lebih terperinciBAB I PERSYARATAN PRODUK
1. BAB I PERSYARATAN PRODUK 1.1. Pendahuluan BAB I PERSYARATAN PRODUK Telepon genggam/handphone sekarang ini sudah mulai merambah untuk memfasilitasi pengguna untuk mencari sesuatu di dunia internet. Popularitas
Lebih terperinciPenerapan Teori Graf dan Web Crawler dalam Pemodelan World Wide Web
Penerapan Teori Graf dan Web Crawler dalam Pemodelan World Wide Web Farhan Makarim (13515003) 1 Program Studi Teknik Informatika Sekolah Teknik Elektro dan Informatika Institut Teknologi Bandung, Jl. Ganesha
Lebih terperinciPeranan Web Spider Dalam Internet Search Engine
JETri, Volume 3, Nomor 2, Februari 2004, Halaman 17-32, ISSN 1412-0372 Peranan Web Spider Dalam Internet Search Engine Ferrianto Gozali & Mochamad Fajar Faezal* Dosen Jurusan Teknik Elektro-FTI, Universitas
Lebih terperinciJURNAL TEKNIK ITS Vol. 6, No. 2, (2017) ISSN: ( Print) A-534
JURNAL TEKNIK ITS Vol. 6, No. 2, (2017) ISSN: 2337-3539 (2301-9271 Print) A-534 Rancang Bangun Sistem Navigasi Indoor Berbasis Integrasi Symbolik Location Model dan Wifi Based Positioning System Untuk
Lebih terperinciIMPLEMENTASI ALGORITMA BFS (BREADTH-FIRST SEARCH) PADA APLIKASI WEB CRAWLER
IMPLEMENTASI ALGORITMA BFS (BREADTH-FIRST SEARCH) PADA APLIKASI WEB CRAWLER Rizky Tahara Shita 1, Subandi 2 1, 2) Fakultas Teknologi Informasi, Universitas Budi Luhur Jl. Raya Ciledug, Petukangan Utara,
Lebih terperinciAplikasi dan Analisis Algoritma BFS dan DFS dalam Menemukan Solusi pada Kasus Water Jug
Aplikasi dan Analisis Algoritma BFS dan DFS dalam Menemukan Solusi pada Kasus Water Jug Rizkydaya Aditya Putra NIM : 13506037 Program Studi Teknik Informatika Sekolah Teknik Elektro dan Informatika, Institut
Lebih terperinciDomain & Web Hosting. Wisnu Hera
2015 Domain & Web Hosting Wisnu Hera Pendahuluan Kebutuhan akses Offline vs Online IP Address vs Word IP Addresses vs Word Domain Name Merupakan string yang nantinya diterjemahkan menjadi satu atau lebih
Lebih terperinciOPTIMALISASI POTENSI PENGUNJUNG PADA WEBSITE SHOPPINGMAGZ.COM DENGAN SEARCH ENGINE OPTIMIZATION (SEO)
OPTIMALISASI POTENSI PENGUNJUNG PADA WEBSITE SHOPPINGMAGZ.COM DENGAN SEARCH ENGINE OPTIMIZATION (SEO) Reza Purnama Putra, Inayatulloh putra.of.reza@gmail.com Abstrak Penelitian ini bertujuan untuk melakukan
Lebih terperinciSEO SEO ( Search Engine Optimization)
SEO SEO ( Search Engine Optimization) Oleh: Tim Modul Osca http://osca-akakom.org SEO SEO ( Search Engine Optimization) SEO ( Search Engine Optimization) merupakan cara atau usha yang dapat kita lakukan
Lebih terperinciUKDW BAB I PENDAHULUAN. 1.1 Latar Belakang
BAB I PENDAHULUAN 1.1 Latar Belakang Perkembangan pengetahuan dan kehidupan manusia sungguh dipercepat dengan kemudahan akses terhadap begitu banyak informasi. Pada beberapa waktu yang lalu akses terhadap
Lebih terperinciDESAIN DAN IMPLEMENTASI SISTEM INFORMASI DAN ADMINISTRASI PADA SMA NEGERI 12 PALEMBANG MENGGUNAKAN WEBSITE DESIGN METHOD (WSDM)
DESAIN DAN IMPLEMENTASI SISTEM INFORMASI DAN ADMINISTRASI PADA SMA NEGERI 12 PALEMBANG MENGGUNAKAN WEBSITE DESIGN METHOD (WSDM) Hermanto Lorentius Imanuel M. Hady Chandra Permana Jurusan Teknik Informatika
Lebih terperinciTIK Agribisnis UMY 2016 Heri Akhmadi, S.P., M.A.
Search Engines TIK Agribisnis UMY 2016 Heri Akhmadi, S.P., M.A. Today s Lecture Mengenal dan menggunakan search engine (SE) untuk mendapatkan informasi Membandingkan kelebihan dan kelemahan beberapa SE,
Lebih terperinciinternet. Alhasil, informasi tersebut menjadi tak berguna karena tak berhasil
BAB I PENDAHULUAN 1.1 Latar Belakang Masalah Berkembangnya teknologi internet dari masa ke masa membuat permintaan akan informasi melalui internet meningkat. Peningkatan permintaan informasi tersebut juga
Lebih terperinciEFISIENSI PHRASE SUFFIX TREE DENGAN SINGLE PASS CLUSTERING UNTUK PENGELOMPOKAN DOKUMEN WEB BERBAHASA INDONESIA
EFISIENSI PHRASE SUFFIX TREE DENGAN SINGLE PASS CLUSTERING UNTUK PENGELOMPOKAN DOKUMEN WEB BERBAHASA INDONESIA Desmin Tuwohingide 1, Mika Parwita 2, Agus Zainal Arifin 3, Diana Purwitasari 4 1,2,3,4 Teknik
Lebih terperinciImplementasi Breadth-First Search: PageRank Algorithm dan Aplikasinya dalam Riset Kanker
Implementasi Breadth-First Search: PageRank Algorithm dan Aplikasinya dalam Riset Kanker Yulius Nainggolan / 13510090 Program Studi Teknik Informatika Sekolah Teknik Elektro dan Informatika Institut Teknologi
Lebih terperinciPemrograman Web Teknik Informatika Fakultas Teknologi Industri
41 Web Site/Web Page Tempat sekumpulan halaman web milik seseorang atau suatu perusahaan dikumpulkan dan dikemas. Homepage/ Frontpage Istilah untuk menyebutkan halaman pertama yang akan muncul jika sebuah
Lebih terperinciKeamanan Web Server ARSITEKTUR KEAMANAN DAN SISTEM ADMINISTRATOR
Keamanan Web Server ARSITEKTUR KEAMANAN DAN SISTEM ADMINISTRATOR Aspek aspek dalam Membangun keamanan Web Server 2 Instalasi Web Server Secara Aman Konfigurasi Kontrol Akses Konfigurasi Permission pada
Lebih terperinciMendeteksi Blob dengan Menggunakan Algoritma BFS
Mendeteksi Blob dengan Menggunakan Algoritma BFS Ahmad Fajar Prasetiyo (13514053) Program Studi Teknik Informatika Sekolah Teknik Elektro dan Informatika Institut Teknologi Bandung, Jl. Ganesha 10 Bandung
Lebih terperinciPenerapan Algoritma DFS pada Permainan Sudoku dengan Backtracking
Penerapan Algoritma DFS pada Permainan Sudoku dengan Backtracking Krisna Dibyo Atmojo 13510075 Program Studi Teknik Informatika Sekolah Teknik Elektro dan Informatika Institut Teknologi Bandung, Jl. Ganesha
Lebih terperinci