Web制作者は抑えておくべき低品質コンテンツがもたらす悪影響への注意喚起

健全にサイトを運営しているはずが、検索エンジンから適切な評価を受けられなくなる要因の1つに低品質コンテンツ問題があります。低品質なコンテンツが同一サイト(ドメイン)内に一部存在するだけで、サイト(ドメイン)全体の掲載順位にまで悪影響を与えることがあり、とりわけこの問題は見落とされがちなためサイト制作・運営を行っていく上で細心の注意を払うようにしましょう。

ことの始まりと最近の動向

Googleが、検索結果から良質なサイトを見つけやすくすることに特に力を入れ出したのが、2012年7月に実施(米国は2011年から先行)したパンダアップデート(低品質なサイトの掲載順位を下げ、同時に良質なサイトの掲載順位をより適切に評価するためのアルゴリズム変更)です。このアルゴリズム変更を実施した後、Google ウェブマスター向け公式ブログより、次のように公式アドバイスが発表されています。

Google ウェブマスター向け公式ブログ: 良質なサイトを作るためのアドバイスより

ユーザーのためにウェブマスターができること

なお、低品質なコンテンツがサイトの一部にしか存在しない場合でも、サイト全体の掲載順位に影響を与えることがあるということにご注意ください。低品質なページを削除したり、内容の薄いページをまとめて役に立つコンテンツに改善したり、もしくは低品質なコンテンツを他のドメインに移動させたりすることが、最終的に良質なコンテンツの掲載順位を改善することにつながります。

最近の動向としては、先日2015年5月初旬〜中旬にかけてGoogleは、パンダアップデートとは別にコンテンツの品質評価、特に低品質コンテンツに関連するアップデートを実施し、低品質コンテンツへの取り締まりを強化した模様です

断定でないのは、Googleは変更を実施したこと自体はコメントを発表して明らかにしていますが、今回の変更にパンダアップデートのような正式なアップデート名称は発表されていません(コメントを受けたSearch Engine Landではthe Quality Update / クオリティアップデートと名付けています)。また、米国のSEOコンサルタントであるグレン・ゲイブ氏は今回の変更をthe Phantom Update / ファントムアップデートと名付け、パンダアップデートと似た部分において顕著な変化が見られたと述べています。

もし、5月頭から急激にGoogle検索からのトラフィック減少があるようなら、まずはこのアップデートの影響を疑って、低品質なコンテンツがサイトに存在しないかどうかをチェックしてみるといいかもしれません。また、トラフィックの大幅な減少はなくとも適切な評価を受けられなくなっている要因の1つになっているかもしれないわけですから、低品質なコンテンツがサイトに存在しないかどうかは定期的にチェックすることが望ましいでしょう。

極めて低品質なコンテンツの場合

低品質なコンテンツの可能性があることをまずは機械的・自動的にフィルタリング(抽出)してきた上で、Googleのスタッフが直接サイトをチェックし、極めて低品質なコンテンツがサイト上にあると判断を下した場合、スパム行為であるとしてサイト(ドメイン)全体もしくは当該ページに対して大幅に評価(掲載順位)を下げるペナルティを与えられることがあります。既にそのような判断を受けているのかどうかは、Search Console(旧名称はウェブマスターツール)の手動による対策(Search Consoleのダッシュボードから[検索トラフィック]->[手動による対策]へ)で確認することができます。

低品質なコンテンツに抵触する定義は?

低品質なコンテンツに具体的にどのようなコンテンツが抵触するのかがわからなければ、低品質なコンテンツがサイト内に存在するのかどうかをチェックしようがないわけですが、Googleが価値のないページとして指摘している「オリジナルのコンテンツがほとんどまたはまったく存在しないページ」の例として、

が挙げられています。これらはあくまでも明らかにやましい気持ちがある上で行っていることですので、健全にサイトを運営されているのであれば、先の例に挙げられているようなコンテンツがサイト内に存在しているどうかを心配する必要はありません。

ただし、低品質なコンテンツへの抵触は、Googleが代表例にしていたもの以外に、悪気はなくても引っかかってしまっている場合があるので、特にWebの制作・開発に携わられる方々には細心の注意を払っていただきたい部分です

とかく見落とされがちなこと

その理由としては「低品質コンテンツは生成するつもりがなくても、コンテンツ生成に利用しているシステムの設定次第でいつのまにか生成されていた」ということが度々起こり得るためです。これは利用しているコンテンツ生成システムそのものが悪いのではなく、制作したテンプレートの設定等の問題で、ユーザにとって価値のない低品質コンテンツを知らず知らずのうちに生み出してしまっていることにあります。

このように低品質なコンテンツに関する問題はとかく見落とされがちなのですが、サイトを制作するうえで守るべきルールとしてGoogleが発表しているウェブマスター向けガイドラインにも、ユーザにとって価値のないページは検索エンジンにインデックス(認識)させないように対処するように記載されています。

Google ウェブマスター向けガイドラインより

技術に関するガイドライン

robots.txt を使用して、検索結果ページや、検索エンジンからアクセスしたユーザーにとってあまり価値のない他の自動生成ページをクロールしないよう制御します

今日、普及しているCMSにおいては、雑多で同じような内容ばかりが重複するタグページは普通に使用しているだけでも自ずと生成されてしまうことがあります。しかしながら、それらが本当に検索ユーザ(検索エンジンからアクセスしたユーザ)にとって価値があるかどうかを考えてみると、ユーザにも検索エンジンにも積極的に見せる必要はないことでしょう。

robots.txtに次のように記述することでクロールしないように制御することができます。

Disallow: /tag

ECシステムの類においてもレビューが0件の場合、「この商品のレビューはまだありません。」のような内容のないページが大量に生成されてしまうことがあります。robots.txtではディレクトリ単位でしか制御できないため、このような場合にはレビューの投稿の有無に応じて、noindexmetaタグをhead要素内に書き出すようにするなどの対処をしましょう。

//0件の場合にnoindexを書き出している例
if ($row == 0) {
  echo '<meta name="robots" content="noindex" />';
}

他にも添付画像をポップアップするためだけに生成される内容の浅薄なHTMLページなど、コンテンツ生成にシステムを利用していると低品質コンテンツは生成するつもりがなくても、生成されてしまっていることがあります。

そして、これらはWebの制作・開発に携わられる方々が意識して、未然に防ぐように対処できることであるからこそ、多大な時間と労力を掛けて制作している良質なコンテンツ、延いてはサイト全体の掲載順位に低品質なコンテンツが原因となって悪影響が及ぶようなことがないように気をつけたいところです

Updated / Published