検索エンジンには大きく2つの種類があります。
Yahoo!ディレクトリやDMOZなどに代表される「ディレクトリ型検索エンジン」であり
もう1つはGoogleやBingなどに代表される「ロボット型検索エンジン」があります。
「ディレクトリ型検索エンジン」
・人間がWEBサイトを審査して登録するため、表示されるWEBサイトの質が高いというメリットがあります。
「ロボット型検索エンジン」
・人間による登録審査を行わないので世界中のWEBサイトを「クローラー」と呼ばれるロボットが自動的に巡回しWEBサイトを自動的に登録するので、ディレクトリ型検索エンジンに比べ圧倒的に登録サイト数が多いのが特徴です。
この巡回のことを「クロール」といい、クロールされたWEBサイトが検索エンジンに登録されることを「インデックス」と呼びます。
インデックス:クロール時に収集されたWEBサイトの情報が登録されること、また、登録されたもの。インデックス時には、WEBサイトの場所だけでなく、キーワードに関する情報も同時に登録される。このインデックスにより、検索エンジンでのキーワード検索が可能となる。
クロールされなければ検索エンジンの検索結果ページにWEBサイトが表示されることはないので、クローラーがどのようにサイトをクロールするかをおさえておくことがポイントです。
ロボット型検索エンジンでも、まったく知らないURLをクロールすることはできません。そのためより多くのURLを見つけるために、既知のサイトに掲載されている「リンク」をたどってクロールし、世界中にあるサイトを発見していきます。
つまりWEBサイトを立ち上げると同時に外部からのリンクを確保しておくことが大切なのです。
直接検索エンジンにWEBサイトのURLの申請を行ったり、検索エンジン向けのサイトマップなどを申請したりすることで、確実にWEBサイトがクロールされインデックスされるように仕向けておくと効果的ですよ!!
次回は、その重要なリンクについてご紹介します。