SEOを究める(その1)

検索エンジンYahooの登場とロボット型エンジン

1990年代中盤から後半のインターネット黎明期、日本では検索エンジンといえばヤフーでした。

ヤフーは人間が審査した上で登録を行うため、登録サイト数は少ないものの検索結果の品質という点では一線を画していました。

しかしながらサイトのページ数が少なかったり、情報が貧弱であると掲載されないという難点があり、原則として登録依頼を出せば全て登録してくれる「ロボット型検索エンジン」も同時に成長していきます。

楽天に買収されたinfoseekなどがこの当時のロボット型検索エンジンにあたります。

また現在ではGoogleを含む全ての検索エンジンがロボットを採用しています。

さて、ロボット型検索エンジンとは「ロボットがネット上を巡回し発見したサイトを全て登録していく」というものであり、ヤフーのような手作業による審査がありません。

そこで、このロボット(クローラーと言います)はサイトのタイトルや内容などの情報を拾い上げることが必要になります。

ホームページ上で右クリックをし、「ソースを表示」を選択するとそのホームページのソースを見ることができますが、上部の方に

<meta name="keywords" content="○○○,○○○,○○○,○○○" />

という部分があります。これはサイトのキーワードが記述される部分ですが、当時のロボット型検索エンジンはこのキーワードを元にサイトの内容を判断していました。

あ行からはじめる?

さて、最初期においては検索結果ページは50音順で表示されている検索エンジンも多く、あ行、ないしAから始まるサイト名をつけることで上位表示が可能でした。

しかしこれではサイトの内容が知りたい内容にマッチしていてもいなくても単にサイト名順になってしまうため、知りたい情報がサイトの内容ときちんとマッチしているかどうかを判別し、それによって順位を変えるということが始まります。

その際重要視されたのが、上で紹介した「サイトに設定されたキーワード」だったわけです。

またページ内にキーワードをたくさん盛り込むということも行われました。

ページの一番下に、キーワードをたくさん記述するのですが見た目が悪いということで、白い背景であれば白い文字にして、人間には見えないように、しかしロボットには拾わせるわけです。

1990年代後半というのは、キーワード、サイトタイトル、そしてページ内のキーワード盛り込みがSEOの主流でした。