ここから本文です

グーグルが内容薄いサイトに警告 サイトの中身って一体どうやって判断してるの?

2014/2/12(水) 18:01配信

THE PAGE

 米検索大手のグーグルが、無断転載や内容が薄いサイトに対して、検索エンジンから除外する可能性があると警告を発しました。利用者にとってはよい話ですが、一方で無数にあるサイトの質をどのようにして判断しているのか?という疑問も出てきます。

 同社の警告は、2014年1月27日、サイト運営者向けのブログ(英語版)において発表されました。これまでも同社は無断転載をしていたり、広告を誘導するためだけに作成された悪質なコンテンツについては、警告を出したり、検索エンジンでの順位を下げるといった措置を行ってきました。しかし動画サイトなどを中心にこうした動きが後を絶たないため、再度警告を発したものと考えられます。

 世の中には、特定サイトのコンテンツをそのままコピーしたサイトが氾濫しており、オリジナルのサイトよりも検索結果が上位に来てしまうという現象も散見されます。また、広告誘導のみを目的とした中身のないサイトも山のように存在しています。利用者にとってみれば、こうしたサイトは少ない方がストレスがありませんし、グーグルにとっても検索エンジンの信頼性に関わりますから、できるだけ排除した方がよいということになるでしょう。

 しかし、完全なコピペ・サイトはともかくとして、内容が薄いことを本当に機械で判断することができるのかという疑問も湧いてきます。サイト運営者の中には、自分のサイトを勝手に中身が薄いと判断されて、検索順位を落とされてはたまったものではないという印象も持つ人がいるかもしれません。検索エンジンの世界では、グーグルのシェアは圧倒的であり、グーグルの検索に引っかからなければ、そのサイトは世の中に存在しないことと同じになってしまいます。関係者にとっては非常に重大なことですし、必要な情報を見つけ出せなくなる利用者にとってもそれは同じことです。

 しかしこうした心配はほぼ無用となりつつあります。それは近年注目を集めている人工知能の技術と多いに関係しています。これまでもグーグルはWebサイトのコンテンツの質を独自の手法でランキングしてきました。基本的には相互リンクの多いサイトは質が高いとみなす単純な方法なのですが、これだけでは、意図的にリンクを増やしたサイトを高品質と誤認してしまいます。

1/2ページ

最終更新:2015/3/22(日) 2:59
THE PAGE