Yahoo seo Google > コラム2012年4月- > seoとはロボット的な思考で行わなければならない

seoとはロボット的な思考で行わなければならない

人の目を必要としないためにロボット検索がある。
だからこそ我々ウェブマスターも、seoとはロボット的な思考で行わなければならないものだと認識するべきなのだ。
Yahoo seo Googleメルマガを創刊してから、重要な発見を書くべき場はメルマガへと移行した。
少し前なら書くべきことが見つかれば即座にブログを更新した。
それがなくなった分、じっくりとGoogleについて検証する時間が出来た。

ブログの更新が少なくなったのは、そればかりが理由ではない。
Twitterでも触れた通り、Googleにしっかり仕事をしてほしかったからである。

」で報じた“net”ドメインと“com”ドメインの重複コンテンツは未だ残り、その解消に向けてGoogleには仕事をしてほしかった。
ブログを更新すれば、新しい記事は再評価の対象となる。
つまり、301リダイレクトの解消に割く時間が少なくなる。
Googlebotがこのブログに割くべき頻度は、ほぼ決まっているのだろう。
Googleウェブマスターツールで見られる<クロールの統計情報>は最高で178、最低で7、平均は29なのだから、重複の問題解消に重きを置くなら、更新を控える他はなかったというわけである。
つくづく罪深い仕様を施したものである、FC2は。

謝罪など期待していないし、求めてもしないだろう。
FC2もアメリカの企業だし、Googleもそうだ。
謝罪したら非を認めることになるし、それは損害賠償請求への全面降伏となるわけだから。

謝罪等期待しないが、せめてアナウンスはすべきだろう。
先日、Googleウェブマスターツールでドメイントップページへのリンクやアンカーテキストのデータが突如消失した。
それは今も解消されない。
いち早く海外seo情報ブログの鈴木氏がGoogleウェブマスター向け公式ヘルプフォーラムやご自身のブログにて問題発生を報告して下さったが、本来、この手のアナウンスはいち早くGoogleがすべきだろうに。
自サイトへの問題点を見つけやすいとの謳い文句で登録を薦めるGoogleウェブマスターツールなのに、問題点が見つかるどころか混乱ばかりを引き起こす元凶ではなかろうか?(参照記事「」)

2013年も相変わらずのGoogleのようである。

重複コンテンツとはオリジナルとコピーとの関係で存在し、言わば、早い者勝ちの世界である。
しかし、一度オリジナルコンテンツだと認めてしまうと、どうやらGoogleはその修正が難しいようである。
仮に明らかな著作権侵害であれば、相手側に手動ペナルティを科せば良い。
だが、悪意なき引用の範囲だと、どうしてもペナルティは科せられない。
ロボット検索に頼れば当然生じる結果である。

Googleが如何に天才集団の集まりでも、人意を全て尊重することは不可能である。
それを可能にさせるには、一体どれくらいの人間を必要とするのか、想像も出来ない。
人を必要としないためにロボットがあり、言わば、seoとはロボット的な思考で行わなければならない。(参照記事「」)

ウェブマスターはロボットに寄り添い、その上でウェブマスターの意図を発露するのがGoogle seoなのだろう。

だが先のGoogleウェブマスターツール等の問題に対しては人が対処すべき事案である。
それがあってこそロボットに人の影が見え、血が通ったものに思えるからだ。
今のままではGoogleは単なるロボットである。
人の影が見えないロボットである。

『seoとはロボット的な思考で行わなければならない』と同一カテゴリのseo記事

コメント

非公開コメント