検索
コラム

Googleにとっての“良質なコンテンツ”の定義がハックされた結果――「WELQ」後に起こることSEO的視点で再考

粗製乱造の“キュレーションメディア”が批判の末に閉鎖に追い込まれた。質の悪いコンテンツの発信者はもちろん、Googleをはじめとする検索サービスの信頼性をも揺るがせたこの事件の核心をSEOの専門家が考察する。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 東証一部上場企業であるDeNAが運営する医療系情報サイト「WELQ(ウェルク)」が、不正確な記事の掲載や記事の盗用があったことを理由に閉鎖した、いわゆる「WELQ問題」。同社は2016年12月7日に記者会見を開いて代表取締役社長兼CEOの守安 功氏や取締役会長の南場智子氏らが謝罪し、WELQだけではなく女性向け大手サイト「MERY」など同社が運営するキュレーションプラットフォーム「DeNA Palette」に連なる合計10のWebメディアを全て休止しました。

 私は、デジタルコンサルティング会社であるプリンシプルでSEOの専門家としてさまざまなサイトの収益向上のためのコンサルティングを行っています。その立場から、「WELQ問題」とは何だったのか、テクニカルな側面から解説したいと思います。


Googleが考える3つの検索意図

 昨今、Googleを使って何か知りたい情報を検索すると、いわゆる「まとめ」「キュレーション」的なコンテンツが上位に表示されることに気が付いている人も多いのではないでしょうか。これは、Googleがこうしたキュレーション的なコンテンツを上位表示するようになったことと、それを知った事業者側が、「キュレーションメディア」「オウンドメディア」といった形でメディアを乱立させ、コンテンツページを量産したことが背景にあります。

 Googleは、ユーザーの検索意図は大きく3種類あると言っています。

  1. ナビゲーショナルクエリ:「Yahoo! JAPAN」「Amazon.co.jp」など特定のサイトへ行くための検索
  2. トランザクショナルクエリ:特定の行動(購入・予約・申し込みなどのトランザクション)の意図を持った検索
  3. インフォメーショナルクエリ:単に何か「情報」を知りたいという検索

 この中で、3つ目の「インフォメーショナルクエリ」については、検索ボリュームが大きい割に収益に直結しないため、もともとWeb上での該当コンテンツ情報は多くありませんでした。また、Googleのアルゴリズム上、上位に表示されるコンテンツには情報量が重視される構造になっていました。そこに目を付けた企業が広告収益を目的とし、(質はともかく)情報量の多いコンテンツを多数そろえたメディアサイトを設立するようになったというのが、WELQ問題の背景にあります。

「被リンク」から「コンテンツ」へ

 SEOは、大きく次の3つの要素で成り立っています。

  1. オーソリティ(人気、知名度)
  2. コンテンツ
  3. (Googleの)評価基準

 オーソリティとは、そのコンテンツが何らかの人や機関によってオーソライズされているのか、そのコンテンツの提供者が信頼をおける企業や専門家なのかといったこと。「被リンク」が評価されるのは、リンクされるという事実が人気度や知名度と強い相関があるためです。コンテンツはもちろん、それがユーザーの検索ニーズにマッチしている情報かどうかということ。そして(Googleの)評価基準とは、GoogleのクローラーによってWebサイトがどのように見えているのかということです。これらの掛け合わせで評価がなされ、検索順位が決定します。

 以前はGoogleの評価ロジックも貧弱で、単純にオーソリティ、つまり被リンクに頼っている部分が大きかったといえます。このため、Googleで検索上位に表示されたかったら、そのWebサイトに対して他のサイトからのリンクを増やすことだけ考えればよかったのです。そのため、多くのWebサイトの運営者はひたすらリンクの獲得に取り組みました。かつてSEOエンジニアの仕事といえば、運営するWebサイトにリンクをしてくれるWebサイトを次々に登録していくことでした。実質的に「リンク屋」だったと言ってもいいでしょう。

 そんなGoogleのアルゴリズムが2012年に改訂されました。いわゆる「ペンギンアップデート」です。ペンギンアップデートにより、作為的なリンクを検知して評価の対象から除外することができるようになりました。これは結果的にSEOの要素のうち2が重要になることを意味します(※)。検索キーワードに関連性の高いテーマで、そのテーマについての情報、コンテンツが多くあれば、新規メディアでも検索上位に表示されることが可能になったのです。

※記事初出時、「そんなGoogleのアルゴリズムが2011年に改訂され、2012年には日本でも導入されました。いわゆる『パンダアップデート』です。パンダアップデートにより、作為的なリンクを検知して評価の対象から除外することができるようになりました。これは結果的にSEOの要素のうち1と2が重要になることを意味します」となっていましたが、訂正します。

 これ以降、オウンドメディアと呼ばれる企業Webサイトの立ち上げが盛んになりました。そして同時に、あるテーマに沿ったコンテンツを大量に投下するタイプのメディアサイトが現れたのです。これらの多くは、従来メディアを事業としていなかった企業が新たに立ち上げたものでした。彼らが描いた収益モデルは、検索上位を狙いPVを多く集めることで広告収入を得ることを狙ったものでした。故にこの事業の生命線は、とにかく効率的に(つまり低コストで)大量のコンテンツを生成することにあります。そして、そのための手段として、インターネット上に既にある情報を「まとめる」という方法が用いられました。これを彼らは「キュレーションメディア」と呼んだのです。

Googleのアルゴリズムが「ハック」された

 ここで重要なのが、Googleのアルゴリズムではコンテンツの価値を「テーマに関連した情報であるか」「他のサイトのクローンか否か」をベースに判断しているということです。そして後者、クローンか否かは同じテキストが並んでいるかどうかということでしか見分けられません。つまり、他のコンテンツからコピー&ペーストしたテキストを基にしたコンテンツであっても、文章の構造をいじったり同義語で言い換えたりする「リライト」によって、見た目の上で違うテキストに改変されてさえいれば、「良質なコンテンツ」と見なされてしまう可能性があるのです。もちろん、別のアルゴリズムで情報の信頼性を評価してはいますが、圧倒的なコンテンツ量の前ではさほど意味を持ちません。

 こうして、「アルゴリズムの限界」を逆手に取ることで、内容の真偽が精査されていない無価値な情報が大量に生産され、結果としてGoogleが提供する検索結果という情報の価値は著しく低下してしまいました。見方を変えれば、こうした問題が起こったのは、Googleにとっての良質なコンテンツの定義が「ハック」された結果ともいえます。そしてこれこそが、SEOの視点から見たときのWELQ問題の本質です。

検索アルゴリズムへの影響とWeb担当者が今後考えるべきこと

 インターネットをより便利で使いやすいものにしようと取り組んでいるGoogleは、インターネットにゴミが増えることを嫌います。ゴミが増えれば増えるほど、その中から利用者が望む情報を取捨選択して提供するのに余計な手間が掛かってしまからです。さらにWELQ問題をきっかけに、利用者から「これだからWebは信用できない」というムードが広がるのは、検索というユーザー行動を経済的な価値の源泉とするGoogleにとって、最も避けたい状況です。

 今回の問題を受けて、Googleが何らかの対策を取ってくるのでしょうか。また、具体的にどのような対策があり得るでしょうか。少し考えてみたいと思います。

 まず考えられるのが、著作権違反などに対する手動対応の強化です。Googleは現在も著作権侵害に対する通知窓口(※)を設けており、悪質なWebサイトやコンテンツに対しては手動で警告を発したりペナルティを与えたりしています。このオペレーションは日本国内で行われているため、対応強化をもって今回の問題に対するメッセージとしようとする可能性は高いと考えられます。

※編注:外部リンク

 しかし、それだけでは抜本的な解決にならないのは明らかでしょう。そこで求められるのが信頼性評価のアルゴリズム変更です。Googleではジャンルによって検索上位に表示されるコンテンツを決めるアルゴリズムを最適化しています。例えばレストランを検索する場合であれば、Webサイトの評価基準は「主観」の有無ということになります。具体的には、そのレストランを利用した人からの評価やレビューがたくさん載っているWebサイトの方が、検索するユーザーのためになるだろうということで上位に表示し、フランス料理の伝統や専門技法についての情報などは重要視しないといったことです。そう考えると今後、医療情報など正確性が求められる情報については、例えば「病院からのリンクが多い」など、コンテンツの正確さを判断するアルゴリズムが強化されるかもしれません。ただ、WELQ問題は米国ではなく日本の話ということもあり、アルゴリズムへのチューニングにどこまで踏み込むかは、何とも言えません。

 特に対応は行わず、ユーザーの行動シグナルに任せるという可能性も考えられます。Googleは近年、ユーザーの行動データをアルゴリズムに組み入れて、検索結果の質の向上に機械学習を活用するようになっています。具体的には、検索結果におけるクリック率が高いWebサイトのタイトルとディスクリプションを分析して、類似したパターンを持つサイトをより上位に表示するといったことができます。あるいは、ユーザーが検索結果からクリックでサイト訪問後すぐに検索結果に戻ってきて別のリンクをクリックするようであれば、遷移先が検索ニーズにマッチしなかったと見なして、その検索ワードにおける表示順位を下げるということもあります。このように、膨大なユーザーの行動データを基に、検索結果がよりユーザーにとって満足のいくものになるようにしているのです。信頼性の低い情報のクリック率や滞在時間が下がれば、結果的に上位表示はされにくくなります。Googleからすると長期的にはこれをもって解決策としたいはずです。ただ、現状のアルゴリズムの精度と現実のユーザーの動きを踏まえるとまだまだ十分とは言えないでしょう。

 Googleがこの問題にどういう対策を取るか、あるいは取らないか。結局のところ現時点で確実なことは言えませんが、Web担当者として知っておくべきことは、「Googleのアルゴリズムは(少なくとも長期的には)ユーザーの満足と同義になる方向へ向かっている」ということです。リンクや動的コンテンツ量産といった小手先のSEO手法については、過去のアルゴリズムアップデートにより駆逐されました。今回のコンテンツSEO偏重の問題についても、ユーザーの満足とずれた方向に動き出していることが明らかになれば、何らかの解決策が生み出されるでしょう。

 SEOは短期的な最適化だけを追い求めても、5年後には何も残りません。ユーザーの満足を第一とし、それを適切に実現するのが正しいSEOだという認識の下でWebサイトの改善を進めていく姿勢が、企業のWeb担当者には求められます。

寄稿者紹介

中村研太

 プリンシプル 常務取締役 COO。2008年京都大学理学部卒業。人材企業にてインハウスマーケターとしてSEOなどでWebサイトパフォーマンス向上の実績を残す。Webマーケティングのフリーコンサルタントとして独立後、アクセス解析を軸にリスティング広告、SEO、GTM導入などを支援するWebコンサルティング会社のプリンシプルに参画。ユーザー視点のマーケティングとGoogleの特許論文の分析などを基にしたテクニカルSEOを得意とする。Google Analytics Individual Qualification(GAIQ)、Adwords認定資格保有。


Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る