SEO対策と検索エンジン

検索エンジン

インターネットで特定の情報を探したい時、あなたはどうやって探しますか?

 

Yahoo! Japan・Google・MSN・Infoseek・goo・Lycos・Excite・Fresheye・・・・などいつも使っている検索エンジンを利用して特定の情報に関するキーワードを入力して検索するのが一般的ではないでしょうか。
しかし実質的には検索エンジンはその情報データベースの構築方法については、ロボット型ディレクトリ型の2種類に分けることができます。

SEO対策と検索エンジンは切っても切れない関係です。検索エンジンについても知識として入れておきましょう。

ディレクトリ型検索エンジン

Yahoo!Japanに代表される検索エンジンがディレクトリー型検索エンジンです。
ディレクトリー型検索エンジンでは実際に人間の編集者がウェブサイトやウェブページ、その説明文を見た後に詳細なカテゴリー別に検索エンジンのデータベースに登録します。
利用者が検索フォームからキーワードを入力して検索すると、検索エンジンの先ほど登録したデータベースから最適と思われるウェブサイト、ウェブページを表示します。またキーワード検索とは別に人によって編集されたディレクトリー別にウェブサイトを探すこともできます。これらはすべて編集者が登録したものから表示されます。
主なディレクトリエンジンはyahooやdmozです。

※ ディレクトリー型検索エンジンのメリット

作成したウェブサイトを編集者が最適と判断したカテゴリーに登録するため、利用者が興味のある分野に関するサイトがカテゴリーで一覧になっているので、簡単に多くのサイトを見つけることができます。
登録ウェブサイトが人によってに制限、管理されているため、無駄なサイト情報が少なく、有益な情報が整理した形で掲載されているので、とても使いやすくなります。

※ ディレクトリー型検索エンジンのデメリット

編集者が登録するウェブサイトの決定権を持っているため、説明文は自分で記載することができず、編者者の主観によって掲載情報が左右されてしまうことがあります。作成した本人の意図と違っている場合も少なくありません。
インターネット上のウェブサイト、ウェブページ数が日々、莫大に増加している今では、人の手だけでウェブサイト情報を登録していくには追いつかず、絶対的な情報量が少ないのが現状です。
ウェブページ単位よりはウェブサイト単位で登録されるため、実際に登録ウェブサイトに目的の情報が存在するにも関わらずキーワード検索で表示されない場合があります。
そのため、Yahoo! Japan以外にも、InfoseekやLycos、Exciteなど他の主要検索エンジンも1つの技術だけでなく他の検索エンジン技術と併用しつつ、検索エンジンディレクトリーを独自に構築しています。

登録の仕方

通常、ディレクトリー型検索エンジンに登録を希望するサイトの管理人が、検索エンジンに登録を依頼し、検索エンジンの編集者がウェブサイトの登録の許諾、及び登録する場合は説明文を編集して記述すると言うプロセスで検索エンジンのデータベースを構築していきます。
Yahoo! Japanなどの人気サイトになれば登録の依頼が殺到になってしまって編集者だけで対処しきれないので、「登録されたいのに登録してもらない」と頭を悩ませているウェブサイトも多く存在しています。
なお、Yahoo! Japanは、商用サイトの登録に関しては有料で優先的に行っています。

上へ

ロボット型検索エンジン


ロボット型検索エンジンは、ソフトウェアを利用して自動的に情報データベースを構築しています。
ロボット型検索エンジンは、名前の通り「ロボットもしくはスパイダー」と呼ばれるソフトウェアをインターネット上へ送り、ロボットがインターネット上のウェブサイトやウェブページの情報を勝手に収集して、検索エンジンのデータベースに登録(インデックス)していきます。
そして、利用者が検索エンジンでキーワード検索を行った時に、情報収集して登録した情報データベースから入力されたキーワードに最もふさわしい内容を検索エンジンが判断して、順番に情報を表示していきます。
ただ、表示される内容はロボットが、それぞれの検索エンジンによって独自アルゴリズムでウェブサイトやウェブページの内容から抽出してきますので、出てくる情報は毎回変わってしまうこともあります。
主なロボット型検索エンジンをしようしているのは goo, Google, infoseek, yahooなどになります。

※ ロボット型検索エンジンのメリット

常に複数のロボット(ソフトウェア)がインターネット上を徘徊して自動的に情報を取得しているため、大量のウェブサイト、ウェブページの情報がデータベースに登録されていきます。
定期的にロボットがインターネットを巡回することで、比較的新しく製作されたウェブサイト、ウェブページの情報を取得しています。
ウェブサイト単位だけでなく、ウェブページ単位で登録するため、利用者が検索した特定のキーワードにマッチしたウェブページが確実に表示されます。

※ ロボット型検索エンジンのマイナス点

大量の情報登録の中から、検索時に膨大な情報が表示されるため、目的の情報に辿り着けない場合もでてきます。
ロボットが自動的に情報登録、文章なども決定するため、検索時に表示されても、そのサイトがリンク切れなどになっていたりするなど、アクセスするまで不明な場合があります。
ディレクトリ型のように編集者がいないので、自動的に情報がどんどん登録されてしまいます。そこで不当なウェブサイトやウェブページが登録されることもあるので、キーワード検索時に利用者の目的に全く関係ない情報が表示される場合もあります。

上へ