米Googleはサーチのレレバンシー(関連性)改善のために2007年に450以上のアルゴリズムの改良を実施した。同社エンジニアリング担当バイスプレジデントUdi Manber氏が明らかにした。また同氏は、検索結果に手を加えることは一切ないと回答しているが、それについてMatt Cutts氏が同氏のブログにて補足を追加し、ウェブスパムなどを手動で取り除く場合があるとした。
#
補足。Googleはウェブスパムを排除する方法として、「オート(自動)」と「マニュアル(手動)」を併用する。スパムフィルタリング技術で検出したスパムページは一時的にインデックスから外す措置によって検索品質の維持に努める。一方、一律のルールに基づいて排除できないような、人による判断が必要な類のもの※は、Googleのサーチクオリティ担当がチェックをして、もしガイドラインに違反すると判断されればインデックスから除外する。
後者の場合、インデックスに再掲載するためにはRe-inclusion Request(再申請)の手続きが必要。
※ すべてがフィルタリングで一律に排除されるわけではない。たとえば100以上のサイトが相互にリンクしあっていたとしても、多数のサイトを運営する大企業が合理的な理由のもと相互にリンクをはっているのであれば問題はないし、逆に検索順位を不正に操作しようとする以外の客観的自由が見つからないものがあれば問題になる。つまり、単純に「多数のサイトが相互にリンクされている」状態があったとしても、その要件だけではアルゴリズムは何の判断もすることはできない (※ 予想外の変な解釈をする人がいたので、文章を一部修正しました 18:30)
(以上、補足で記載した情報はGoogleエンジニア・Matt Cutts氏の講演の内容に基づき、私が日本国内向けにアレンジしました)