まさか『グーグル先生』を本気で信じていないよね?
まさか『グーグル先生』を本気で信じていないよね?
ウチの職場は一応(レベルはさておき)IT系を名乗る所であるが、最近、若手(と言っても30歳くらいまで)の日常的な発言の中において、『とりあえずグーグル先生に訊いてみるのが良い。たいていはこれで解決する』というものを聞いた。
私はその発言に対して、半ば反射的に、『そうは言っても某質問箱とか、回答の質がメチャクチャなものもあるからね』とクギを刺した。
一方、インターネットの世界では、かなり意識高い系の記事を書いているビジネス系のブログさんにおいても、「まずはググれ」と書いてあったりする。
新入社員が配属された際に、何かわからないことがあったら、「まずググれ」というのが、近年の常識であるようだ。
そこで標題である。
まさか『グーグル先生』を本気で信じていないよね?
Google はしょせんロボット検索
グーグルをはじめとするWeb検索システムには、従来は、下記の2種類の分類があった。
Web検索サービスの内情には正直、それほど詳しい訳ではないので、現在でも上記の2種類に大別可能であるかは定かではないが、インターネット検索の黎明期においては、「ディレクトリ型」が主流だった。
ディレクトリ型は、あらかじめWebページの内容を審査する人間(エディター)がいて、その人が人力で検索用のディレクトリ情報を更新していた。従って、数は多くできないものの、検索結果の品質はそれなりに高かった。
しかし、インターネットの爆発的な広がりの中で、人間がいちいち審査するシステムでは追いつかなくなってくる。そこで代わって台頭したのが「ロボット型」である。
グーグルは、このロボット型検索の走りである。
ロボット型は、「クルーラー」「スパイダー」などと呼ばれる仮想的なロボットを使い、世界中のWebサイトを自動巡回する。そして、巡回して得られた情報を基に、非公開の様々な「アルゴリズム」を駆使して、キーワード辞書に対するWebページの「ページランク」を順位付けする。
グーグル社は、日々、アルゴリズムの更新を実施しており、できるだけ検索ワードに対して、検索結果が「高品質」になるように努力をしている。それは確かにものすごい事で、おそらくITの最先端分野の一つであろう。世界中に存在するグーグルの仮想サーバーでは、それこそ「AI」「機械学習」といった領域の知恵も投入されて、進化している事だろう。
それでも、そうであるとしても、しょせんロボット検索なのである。
人間の目で見れば一瞬で、「このWebページに書かれている情報には信憑性がない」と判断できるようなページを、完全には取り除くことができない。
日々、改良が加えられているロボット検索のアルゴリズムであるが、きわめて、本当にきわめてざっくり言うと、以下のような点を評価しているにすぎない。
当該ページにどれだけ検索ワードが完全一致するか
当該ページはどれだけ他サイトからリンクされているか
当該ページは頻繁に更新されているか
5年後、10年後はわからない。しかし、現段階におけるロボット検索は、人間の目で直接審査する内容には、まだ遠い。
そもそも「表のインターネット」以外の情報の方がはるかに巨大だ
そもそも。
グーグル検索の精度が限りなく人間に近づいたとしても、肝心の情報の海の母体は、実はインターネットではない。
ここで言うインターネットは、いわゆる『表のインターネット』(表層Web)の事である。
これに含まれないものとしては、ざっくりと挙げるだけでも、以下のモノがある。
企業や組織内の閉じたネットワーク環境にある情報
個人環境のPCやファイルサーバーなどの閉じた環境にある情報
いわゆる『裏のインターネット』で流通している特定の鍵がないと見えない情報
裏のインターネットは、「深層Web」などとも呼ばれる。インターネット上には公開はされているものの、意図的に上記の検索ロボット「クルーラー」の巡回を回避する措置を取っていたり、特定の鍵情報やアプリケーションを介在しないと見ることができなかったりするサイトである。
全世界の電子化された情報の中の大部分は、いわゆる『表のインターネット』(表層Web)からの検索には出てこない。
『グーグル先生』に訊く事も否定しない。大いにヒントにはなるだろう。
だが、盲信は危険だ。
そもそも、「ググる」行為が一般化したのは、ほんの10年~15年くらいの話である。それ以前には、隣の席の先輩に訊くか、マニュアルを探し出して読むか、などであった。
今でも案外、そっちの方が信頼度が高い場合もあると思う。