サーチエンジン対策が必要な理由

ウェブにサイトを持つ人にとって、何らかのサーチエンジン対策は欠かせません。普通はそのサイトを認知してもらい、トラフィックを誘致するために、サーチエンジン対策をします。しかし逆に、検索エンジンに見つけて欲しくないコンテンツであっても、そういう方向でサーチエンジン対策を実施する必要があります。

作っただけでは見てもらえない

大昔は、企業が公式サイトを作ったというだけでニュースになった時代がありました。でも今では企業がウェブをやるのは普通のことです。また個人でページを持つ人も増えました。

このような現状では、サイトを新しく作っても、それだけでは埋もれてしまって誰も見にきてはくれないでしょう。サイトへのトラフィックを増やす方法はいくつかあります。他の媒体であれば広告を打つという手がありますが、ウェブでは大手ポータルサイトの検索エンジンに登録してもらって、そこからのトラフィックを獲得するというのが、基本の一つです。

サーチエンジン経由のトラフィックの特性

サイトにもよりますが、通常はそのサイトへの全トラフィックの過半数と言われています。筆者が関係するいくつかのサイトでも、ほぼこれを裏付ける数値が出ています。これはもちろん主要なサーチエンジンにすでに登録されている場合の話ですから、どこにも登録されていないサイトは、最初からアクセスを半分以上、失っているということになります。

プロモーションの手段として広告を打つ場合、増加するトラフィックは一過性のものです。予算や媒体次第でピークの大きさとか、立ち上がりや減衰の鋭さはさまざまに変わりますが、もたらされるトラフィックが一過性のものであることに変わりありません。一方でサーチエンジンには、一度登録されてしまえば、あとはトラフィックは非常に安定します。

また、サーチエンジン対策は、そのかなりの範囲を自力でやることができ、そうした場合にはコストが低く抑えられるというのも利点です。

それから、サーチエンジン経由で訪れる人は、自力でキーワードなりを検索して能動的にたどり着いた人なので、コンテンツが充実していればリピーターになってくれる見込みは、高いと言えるでしょう。

ウェブサイトのプロモーションには他にもさまざまな方法があり、状況によって適宜組み合わせることが大切ですが、この中でもサーチエンジン対策が非常に有効であることが理解いただけたでしょうか。

そっとしておいてもらうために

逆のサーチエンジン対策もあります。見知らぬ訪問者を拒むわけではないけれど、できれば検索ではヒットしてもらいたくない、という場合があるかもしれません。そのようなとき、何もしなければサーチエンジンから逃れられるかというと、実際のところそうでもありません。

特にロボットを使ってコンテンツを収集するタイプのサーチエンジンは、ウェブマスター側からお願いしなくても、自動的にそうしたページまで索引に組み込むことがあります。ウェブはきわめて公共性の高い空間であるため、事情があってこうしたコンテンツをウェブに載せるときには、通常とは逆の方向、つまりロボットを引き返させたり素通りさせるためのサーチエンジン対策をすることが、自衛上必要になってきます。

以前であれば、そうは言っても実際のところ検索エンジン側の能力に限界があって、索引に取り込まれない部分というのも結構残されていました。しかし最近では、最新のサーチエンジンのカバー範囲はどんどん広がっています。こうした自然のセキュリティは、遅かれ早かれ頼りにできなくなると思ったほうが良いでしょう。

ロボット検索の対象から外すための方法は、この文書でもロボット避けの方法で、簡単にまとめています。

検索ツールとして使う

ロボット型サーチエンジンの場合、自分サイト内の検索機能に、そのサーチエンジンを利用することができます。自前のエンジンを使う場合と比べたら融通の利かなさはありますが、そのかわり作るのは簡単で、運用にも手間がかかりません。

最近のロボット型サーチエンジンは、かなり的確に検索結果を返してくれますし、Google などではかなりカスタマイズした形で自分サイト専用のサーチボックスを作れます。使いこなせば強力なツールとして、訪問者へのサービス向上に役立つでしょう。


Last Update:
Copyright 2002 © サーチエンジン対策研究会