SEMリサーチ

企業で働くウェブマスター向けに、インターネット検索やSEOの専門的な話題を扱います

Googleコアアルゴリズムのアップデート、何のために詳細を知りたいのか

要約

  • SEO担当者として働くなら、SEOの分析はアクションとセットで考えるべき
  • コアアルゴリズムアップデートの分析で、具体的なアクションを導くことは2020年現在はとても難しい
  • SEOだからと検索エンジンの細かな仕様を探るという発想自体が時代遅れであると認識する必要がある

Googleコアアルゴリズムアップデートの分析をする意義を考える

Googleが年に数回告知するコアアルゴリズムアップデートの実施について、皆いったい何が気になるのだろうか。

何かを分析することは、同時に実行可能な施策を考えることとセットである。企業内のSEO担当者は、分析自体は目的ではなく(インハウスで専門部署を抱えているなら別だが、大半の企業はそういうものは持たないし、必要ないものだ)、事業目標を達成するための示唆や、具体的な施策を見いだすために行うはずだ。

ところでコアアルゴリズムアップデートというのはその名(コア)の通り、基幹となるアルゴリズムの洗練・改良だ。したがって、いくら分析しても「ユーザーにとって役立つサイトを作りましょう」以外の結論しか出てこない*1

「優れたサイトを作りましょう」の結論にしかならない現実

2000年代は、検索技術がまだ未熟であり、大きなアップデートで新たなシグナルやスパム対策が導入されることが多かった。例えば2003年~2004年にかけてのフロリダ・オースティング、ブランデータップデートにおけるHilltopアルゴリズムが導入されたといわれる時期*2は、劇的な検索結果の変化があった。こうした変化は第三者が容易にその変化を認識できたし、それを踏まえて具体的なアクションを立案することが可能だった。これは当時の検索技術革新の幅が大きかったゆえだ。

一方、2010年代、特に機械学習が積極的に活用されてくると、別の記事でも触れた通りSEOの責任範囲外の要素も増えたこと、グロースハックという名のもとの小手先のチューニングでどうにかなる時代ではなくなったなど複数の環境要因により、結局の所「ユーザーファーストでWebサイトを運用管理していこう」という大まかな基本方針の結論しか導けない状況になっている。もちろんエンタープライズSEOだとテクニカルな領域にも目を配る必要があるが、それはコアアルゴリズムアップデートとは関係のない話だ。

この意見には反論もあるだろう。たとえば「同業他社や同業界あるいは他業界の動きと比較したとき、競合のA社は検索結果の露出が大幅に上昇しているにもかかわらず当社は逆に急降下している。ここにはA社と自社の施策の違いがあるはずで、そこからアクションに結びつけることができるはずだ」といった意見だ。これは一見正しい。

しかし第1に、そもそも競合の状況というのは常時監視するものであって、その監視のなかで他社の施策や動向を見ながら自社の施策も常に検討し、反映させるものだ。つまり、アップデートが行われたタイミングで行うことではない。アップデートのタイミングで考えていたら、常に他社に数ヶ月遅れをとることになる。第2に、困ったことに同業のA社と自社に大きな差があった時に、何の要因がそれをもたらしているのか、本当にそれが原因なのか全くわからないことだ。たとえば、ある時点のアップデートt1の時点で順位が大幅に下降しても、次のアップデートt2で元通りになるということがしばしばある。YMYL領域で近年よく観察される傾向だ。だから、ある時点の分析を行い、仮に要因となる可能性を発見したとしても、それは放置でいいのか、本当に改善すべきなのか判断のしようがないのだ。

繰り返すが、2000~2010年の時代は、アルゴリズムの大幅な更新があった時に、第三者としてそのデータを分析して、適切なto-doリストを列挙することが可能だった。だから競合と自社の状況を比較することも意味があった。しかし2012~現在は、機械学習の導入等による検索技術の革新により、分析を通したto-doリストを列挙できるほどアルゴリズムは単純でなくなっている。この状況の変化は認識すべきだ。

私はSEOサービス提供側としても、あるいは事業会社のSEO担当者だった場合であっても、総合的な観点から、そこから有用なアウトプット(アクション)が導き出せる可能性が低い限り、このアップデートの分析に時間を割くという判断はしない。

現時点で有効でも将来にわたって不確定なら選択しない Future-Proof という考え方

仮に何か特殊な方針を見いだすことが可能であるなら、それは次の理由で却下されるためやはり意味がない。その理由とは、Future-Proof という概念だ。

これは、現在だけでなく将来にわたって意味ある施策を継続的に実施していこうという施策方針のコンセプトだ。もし仮にあるコアアルゴリズムアップデートで何か特殊な傾向を見いだしたとしてもGoogleの一時的な不具合である可能性や本質とはほど遠い施策*3にしか落とせない可能性は高く、それはFuture-Proof に反するため結局アクションとして採用することが難しい。

話を戻して、もし私が検索アルゴリズムの分析に時間を割くなら、次のケースだ。それはGoogleが一切言及していない(未公表の)アップデート(サイレントアップデート)が行われた時だ。実はこちらを検出して、何が発生したのか分析するほうが様々な示唆が得られることがある。もっとも、それは私の職責上の理由であり、一般のインハウスSEO担当者には推奨しない。その時間があるなら、もっと事業に貢献するためにリソースを活用すべきだからだ。

目的を考えた分析を

SEOの仕事をしているとアルゴリズムの変化が気になるものだが、それを分析して何をしたいのか?ということをもう一度考えてみて欲しい。目的がまずあって、そのために必要なデータを分析するべきであり、データ分析自体が目的化してはいけない。SEOの専門家が皆口を揃えて「優れたサイトをつくりましょう」というざっくりとしたアドバイスをするのは、中長期的なサイト運用を意識することが遠回りながら最も自然検索流入を維持・最大化するための近道だからだ。優れたサイトを継続的に運用していけば、自ずと Google もそれを評価してくれる(完璧じゃないが)。

*1:なぜGoogleが検索の透明性という名のもと発表しているのか考えたほうがいい

*2:Googleは具体的にHilltopアルゴリズムについて一切言及していないが、当時のSEOのコミュニティは様々な状況証拠からそれ相当のアルゴリズムが導入された結果であろうと推察している。ちなみに当時、WebmasterForumでGoogleGuyというハンドルネームでアドバイスしていたのがMatt Cutts氏と言われている。

*3:2016年に話題となったDeNA社のWELQやMeryが当時実施していた施策は、本質だっただろうか?

COPYRIGHT © 1997-2020 渡辺隆広(わたなべ たかひろ) ALL RIGHTS RESERVED.

SEMリサーチ(www.sem-r.com)に掲載している文章及び図版の無断使用及び転載を禁じます。著作権侵害行為には厳正に対処します。

免責事項:SEMリサーチは、本記事中で触れている企業、商品、サービスの全て(情報)について、有用性、適合性、正確性、安全性、最新性、真実性に関する一切の保証をしておりません。各自の判断でご利用下さい。