ロボット型検索エンジン

ロボット型検索エンジンとは、ロボット(クローラー・スパイダー)がウェブで公開されている情報を巡回して収集し、各サーデータベースに索引化し、特定のキーワードで検索された時に、独自のアルゴリズム(評価基準ロジック)によって検索結果の順位を算出する検索エンジンのことです。データを収集するソフトウェアをロボットと言います。
検索結果をある程度、人為的に操作できる為、質の高いウェブサイトが必ずしも上位に表示されない事があるのが欠点ですが、迅速にかつ膨大な量のウェブサイトを表示できるのが良い点です。

  • 採用情報
  • codebase
ページトップへ戻る