2003年09月27日

再掲:「情報作成コストと情報消費ニーズのバランス」このエントリーを含むはてなブックマークこのエントリーをはてなブックマークに追加


スポンサード リンク

先日のセミナーで、Blogについて前に書いていた、あの原文はどこにあるのと何度か聞かれたので。

BlogやRSSについて技術的観点から、なぜ流行っているのかという問題について、あるコミュニティに春ごろポストした記事「情報作成コストと情報消費ニーズのバランス」を再度掲載します。

●「情報作成コストと情報消費ニーズのバランス」

Webが普及したのは、HTMLとその周辺技術の情報作成コストと情報消費ニーズがマッチしたからであると思います。セマンティックWebの中心的な役割を果たす
メタデータの普及にも、このバランスが重要なファクターであると思います。

■メタデータ情報作成コスト
1 文書の作成者が自ら手作業または自動で作成する
2 第三者(検索エンジンも含む)が公開文書のメタデータを抽出する

コストについては、データ(この場合、Webページやめたデータを作ること)作成と表示の技術的な難易度が大きく関わっていると思います。また、エンドユー
ザとアプリケーション開発者からのふたつの視点から見たコスト意識を考えるべきと考えます。

【Web(HTML)の場合】
半構造化文書でタグで囲むだけなので一般ユーザにも記述が容易
解析に失敗しても表示が乱れる程度なので開発者もパーザ開発容易

というように、一般ユーザ、ブラウザ開発者にとっての作成コストは比較的低かったと考えます(無論、当時、「はじめて」そういったものを作った偉大な人たちの作業は困難を極めたでしょうし、最先端の技術力の成果であることに変わりはないと考え、敬意を払いますが。)

Webの普及には、Netscapeのブラウザの開発というのが大きく影響していたと思います。それまでのコマンドラインの世界はやはり、利用者のリテラシーという
か、コマンド操作の知識が求められていましたし、そこで得られる情報というのも、極端に実用的か、極端にマニアックかに分かれていたように思います。画像
も見られる現在のWebブラウザーの原型が登場して初めて、一般利用者が消費価値のある情報配信ができるようになったと思います。

また作成ソフト、例えばマイクロソフトのFrontPageやIBMのホームページビルダーのように、驚くほど高機能なツールが廉価に出回っており、作成者はHTMLコード
をほとんど知らなくてもWebページを作成できています。

結論A:「HTMLは書きやすく読みやすい。ツールも普及している」

これに対して、

【XMLメタデータ(RSS・RDF)の場合】
厳密な構造化文書であり完全性が求められる。一般ユーザの作成困難
解析に失敗すると誤動作や停止など重大な障害が発生する可能性がある

というように、一般ユーザの作成も、解析プログラムの作成もどちらもかなりコストが高いですよね。一般ユーザのコストを考えるとき、「普段から文書はタグ
を手打ちでHTMLで書いています」という人がいても「へえ、すごいですね」と思いますし実際存在すると思いますが、「いつも文書は手書きでDTDつきの検証済
みXMLを書いてるんですよ」といわれたら「この人ちょっとヤバイ人かな?」と思います。HTMLはHuman ReadableでXMLはMachine Readableを指向した性質があ
るから、ですね。

開発者からのコストとしては、最近、ZDNETにこんなコラムがありました。私も4im.netのサイト用にRSSパーサを書いた直後なので、大げさだなあと思いつつ、
うなづくところがありました。

・Opinion:恐怖のXML
http://www.zdnet.co.jp/enterprise/0210/30/op01.html
> あなたはどうか分からないが、私個人はおびえている。プログラマーは効率の
> 悪さを克服するためにはあらゆるルールを破る。プログラマーがXMLパーサーを> リライトするときに、パーシングプロセスのスピードアップのために幾つかの
> 標準を無視することは起こり得る。
>
>#(中略 だからXMLの相互運用性なんて幻想だみたいな主張が続く)

無論、Webの世界ではMosaicとNetsacapeの開発者たちがエイヤっと優秀な頭脳とセンスでWebブラウザーを発明して普及させ、その後、良くも悪くもマイクロソ
フトが力技でウリャっとブラウザ市場を統一してくれました。結果として、いまさらWebブラウザーを作ろうという人はほとんどいなくなってしまったと思いま
すが、メタデータの世界ではまだ、標準的なブラウザーが存在していないわけです。そういうことを成し遂げるプレイヤーが出てくる必要があると考えます。
(マイクロソフトもSUNも狙っているようですが。)

ただ、XMLはMachine Readableであるがゆえに、いったん解析してメモリ上に構造を読み込めてしまえば、HTMLにも変換できますし、プログラムに意味のある情
報を容易に渡して応用利用範囲が無限に広がっていきます。逆に言えば、HTMLはブラウザで表示して終わり=Human Readable指向を象徴しているような使い方に
とどまりがちです。

デファクトスタンダードのツールさえ普及してしまえばユーザも開発者もコストはほとんど意識しないでよいレベルまで下がるのではないかと思うのです。(前
のメールで4im.netのメールマガジン->メタデータ自動変換を紹介しましたが、このシステムを使う著者の小橋はXML作成コストなんて意識しませんから)。

結論B:「XMLメタデータはまだ書くのも読むのもツールがないので難しい。デファクトスタンダードのツールさえあればコストはゼロに近づくのに」

■メタデータの情報消費ニーズ
3 メタデータを最終利用するエンドユーザ
4 メタデータを集約して提供するインフォミディアリ

Webの普及には、Netscapeのブラウザの開発というのが大きく影響していたと思います。それまでのコマンドラインの世界はやはり、利用者のリテラシーという
か、コマンド操作の知識が求められていましたし、そこで得られる情報というのも、極端に実用的か、極端にマニアックかに分かれていたように思います。画像
も見られる現在のWebブラウザーの原型が登場して初めて、一般利用者が消費価値のある情報配信ができるようになったと思います。

いまメタデータでできることってなんでしょうか。ひとつの答えはコンテンツ・アグリゲーションとアノテーションだ、と思います。このふたつは結構多義的な
言葉ですが、ここでは、前者はメタデータを集積して価値のある巨大ナリッジベースを作ること、後者はWebページなどの情報に対して、批評や評価や説明を書い
たりすること、としましょう。

【メタデータ消費ニーズ1 コンテンツ・アグリゲーション】

何百・何千のサイトから更新された最新情報の見出しや要約やURLの含まれたメタデータを抽出して、ユーザにとって必要な情報やアプリケーションをフィルタ
リングして提供する。しかも目的に応じてエンドユーザは表示の仕方も変えられる。具体的なプレイヤーとしては、前述のMoreoverなどが該当します。メタ情報
を集約配信しているサービスです。

これらのメタデータを具体的に一般ユーザが使うとしたら、身内になりますがパートナーの小橋昭彦がやっている今日の雑学雑学+を例にしますと

・今日の雑学+
http://www.zatsugaku.com/

は更新と同時に更新内容のメタデータが、以下のRDFが生成されています。

・今日の雑学のRDF
http://www.zatsugaku.com/backend/weblog.rdf

このRDFを使うことで例えば、こんなかんじで、

・架空のRDF利用例のデモサイト
(私が管理していますが純粋にRDF利用の技術デモで更新していないです)
http://www.osanpo.net/daiya/weblog/

左右のブロックにニュース見出しのヘッドラインと個別リンクを表示できます。
こうすることで周辺情報を簡単に加えて、コンテンツをリッチにしてサイトの価値が高まりますし、参照される側はトラフィックを誘導できます。引用する側も
される側も、ここでは需要供給のバランスが確立できています。

これがもっと進めば、あらゆるWeb情報の断片を自由に画面にレイアウトして、グローバルでユニバーサルなMyYahoo!みたいなサービスができます。(開発ベー
スとしてはApache jakarta ProjectのJetspeedなどが有力かもしれません。)

・Jetspeed
http://jakarta.apache.org/jetspeed/site/index.html

【メタデータ消費ニーズ2 アノテーション】

具体的には、WeblogでありWikiであるわけなのです。Weblogブームが現在日本でも起きようとしているみたいですが、あれは基本的にはパーソナルなジャーナル
であり日記であり、それこそ95年ころから日本でも個人ページの一大ジャンルを形成していたコンテンツだ、と思うのです。

ただ、近年のWeblogブームの日記が昔と少し様相が違うのが、多くのWeblogは他のページのURLを肴に評論だとか自論を展開していることなのではないかな、と
思っています。URLを使ったDJセッション(みたいなことは私も昔やっていた覚えがあるんですが...)が、今のWeblogの本質だと考えます。

なぜそういうことになったのかの分析はいろいろあるかと思いますが私の考えでは、WeblogやWikiの書き手=Bloggerが増えたのは以下のような理由があるので
はないか、と思います。(無論、すべての条件を満たすものは逆に少ないかもしれません。)

#ここでいうWeblogは以下のようなディレクトリに分類されるタイプのサイトです。

http://directory.google.com/Top/Computers/Internet/On_the_Web/Weblogs/Technology/?tc=1
http://directory.google.com/Top/World/Nederlands/Computers/Internet/Weblogs/?tc=1
1 個別記事にURLがあり、外部からリンクを張りやすい

サンプル:Metafilterの例
http://www.metafilter.com/mefi/21563サンプル:Radio UserLand系の例
http://scriptingnews.userland.com/backissues/2002/11/12#When:8:20:56AM
サンプル:Slashdotの例
http://developers.slashdot.org/developers/02/11/12/161219.shtml?tid=126

またWikiなどは、その構造上、一ページ一テーマに関する記述が書き込まれやすく、しかもページ名=テーマ名ということが決まっている(WikiName)ので、
Wikipediaのように百科事典をコラボレーションしながら作っていく例もあります。こうなると充実したWikiサイトはオンライン辞書の役割を果たし、一層個別
記事が参照されやすくなっていきます。

・Wikipedia
http://www.wikipedia.org/

この他、WeblogやWikiベースのコンテンツはリンクを張り合うので、Googleのページランクが上昇して人気が出やすいという未確認の噂もあり(その噂はここのMLで聞いたのかもしれないんですけども)。

2 分散した掲示板としてコミュニティ要素が強い

自分のサイトで他人のページの評価をして、評価されたほうはそれに関して自分のサイトで関連情報をコメントするなど、Weblog日記ユーザの間で、サーバは別
々、自分のサイトで主に発言するというスタイルの分散掲示板になっている傾向が強いですよね。

3 更新情報や人気情報を容易に把握できること

記事同士のリンクの参照関係を計算して人気Weblogを表示するBlogdexや最速ニュース検索、地理マップ上にその場所からBlogしている人を探せるサービスなど、メタ情報があるからこそ実現しやすいサービスが多数あり、Weblogコミュニティ活性化につながっているといえそうです。

・Blogdex
http://blogdex.media.mit.edu/
・Daypop
http://www.daypop.com/
・DC Metro Blog Map
http://www.reenhead.com/map/metroblogmap.html
・The New York City Blogger Map
http://www.nycbloggers.com/
・Blogmapper
http://www.blogmapper.com/
・Meetup
http://blog.meetup.com/
・Blogstreet
http://www.blogstreet.com/

4 簡単に作れるソフトやASPサービスが存在していた

フリーや廉価で、技術知識がなくても簡単にWeblogサイトを更新できるソフトウェアやサービスが充実している。メタデータ対応製品も多い。

BigBlogTool ( http://www.bigblogtool.com )
Blogger ( http://www.blogger.com ) is
Greymatter ( http://noahgrey.com/greysoft )
GrokSoup ( http://www.groksoup.com )
LiveJournal ( http://www.livejournal.com )
MovableType ( http://www.movabletype.org )
pMachine ( http://www.pmachine.com )
Radio UserLand ( http://www.userland.com )
Slashcode ( http://www.slashcode.com )
Xanga.com ( http://xanga.com/ )

5 メタデータ自動生成ができること

そしてメタデータに対応している例が多いというのを最後に。

上記の4つの要素にも密接に関わっている部分が多いと思いますが、メタデータがあることで、検索や整理するサービスが成立していき、より情報を見つけやす
く、参照引用しやすく、構造化しやすい、トラフィックを呼び込みやすい、コミュニティ化しやすい、などなど、のメリットを与えています。

メタデータの生成が面倒だ、という以外、デメリットはなく、情報の発信者、受信者にとってよいことだらけ、ですよね。おそらく。

結論C メタデータの消費ニーズは間違いなく存在している

【メタデータビジネスで収益モデルをどう創り出すのか】

それで、インターネットユーザにとってはきっと良いことずくめでニーズはいっぱいあるのに、なぜすぐ実現しないのか、といえば、当然、ビジネスの市場とし
てまだ魅力的ではないから、という理由があるかと思います。

ここは、これだっというモデルが思いついていたらさっさとその事業を自分の会社で開始しているわけなので(笑)、決め手はないのですが。

Webにたとえて言うならば、現在のセマンティックWebは、

ある程度HTMLページはあるのにブラウザがない

という状況と私は認識しています。

メタデータを利用できるブラウザやソフトウェアの対応は、大手ソフトウェアベンダー経由でもオープンソースでも、進んでいるわけですから、メタデータの時
代は、かつてNetscapeが登場したころのように、いま一番面白い、火付け役の登場を待っている時期なのではないか、と思うのです。

さらに、少し広げてWebサービスやオントロジーサービス、モバイルエージェントサービスも含めた、セマンティックWebというスコープで考えるならば、SOAPやUDDIのようなWebサービスの普及が進めば、マイクロソフトのデジタルダッシュボード構想みたいに、デスクトップでに必要な作業をすべてをひとつの画面で行える万能アプリケーションが実現できる、と思います(これはUNIXではEmacsが事実上、それに近い環境を提供していますしね。無論、もっとグラフィカルでネットとシームレスになる必要はあると思いますが)。

こうなると今多数いるオンラインソフトの開発者たちがWebサービス開発になだれ込んでくるのではないかと期待しています。Webサービスのホスティングビジ
ネスというのが出てくると考えられます。現在のVectorやDownload.comみたいなダウンロード提供サイトの果たす役割に変わる、ビジネスが成立するような気がしています。

また相互運用性の保証ビジネスも登場できると思います。現在、Webでいうならセキュリティ保証のベリサインのような、Webサービスの保証機関が必要でしょ
うし、ドメインネームのレジストラのように、UDDIその他の登録業務を行うビジネスも大量発生できる、と思うのです。



スポンサード リンク

Posted by daiya at 2003年09月27日 23:50 このエントリーを含むはてなブックマークこのエントリーをはてなブックマークに追加
Daiya Hashimoto. Get yours at bighugelabs.com/flickr
Comments

この特集、すごく参考になります。もともとblogを始めたのは、どの解説を読んでも、その本質的な狙いどころが分からなかったからです。もっとも、実際に使い始めても、日記の域をいつまでも出れませんが...

blogをコミュニティーに進化させる手法を、一度取り上げてもらえませんか?Googleのディレクトリーなどは、そのための有効な手法なのかな?

Posted by: kenny at 2003年09月28日 22:13

コミュニティの定義にもよると思うのですが、

・せかいのまんなか
http://webmania.jp/~keitsuda/
Blogのリンク数を数えてランキング(米国Blogdexに似たコンセプト)

とか

・Ask Jeeves の新版検索エンジン運用開始
http://japan.internet.com/wmnews/20030122/11.html
文書をお互いに言及しあうコミュニティとしてとらえて検索スコアに繁栄したTEOMAの例

というような考え方はあるようです。MovableTypeにも実装されているトラックバックが日記を自然な形でコミュニティ化させていく仕掛けとして有効だと思うのですが日本人はシャイなのかあんまり使ってませんね。

Posted by: daiya at 2003年09月29日 20:23