15 Oktober 2010

Sejarah Web Crawler dan Pengertiannya


Awal kehadiran Web, untuk mengakses suatu web, user melakukan dua cara yakni cara yang pertama user mengetahui alamat dari suatu web kemudian memasukkan alamat web tersebut pada web browser. Cara yang kedua yakni dengan mengikuti link dari web yang saat itu sedang diakses.

Dengan semakin meningkatnya jumlah web, dalam thesisnya Károly Csalogány mengatakan bahwa hal ini memunculkan dua metode untuk mengakodimirnya yakni web directories dan web crawler . Web directories merupakan web yang berisi kumpulan link yang dianggap berguna bagi user dimana untuk mengkoleksinya membutuhkan campur tangan manusia. Dikarenakan butuh sumber daya manusia yang tidak sedikit dan perlu memperbaharui data terhadap web yang diperbaharui maka crawler dianggap lebih efisien dan efektif.

Web crawler adalah suatu program dari komputer yang melakukan penjelajahan pada world wide web berdasarkan metode tertentu, secara otomatis dan melakukan pembaharuan data apabila ada perubahan. Web crawler merupakan salah satu jenis web robots atau software agent. Berawal dari URL yang telah terdaftar yang disebut dengan seeds. Crawler akan melakukan identifikasi semua hyperlink dan memasukkan ke dalam daftar URL yang telah dikunjungi atau yang disebut dengan crawl frontier. Crawl frontier tersebut akan dilakukan pengindeksan dan akan dikunjungi secara rekursif berdasarkan kesepakatan bersama antara penyedia web crawler dan pemilik web.

Semua konten ini dibuat dan dipublish pertama di www.rumahpustakom.blogspot.com

Sumber

Tidak ada komentar:

Posting Komentar