こんにちは。橋本@アクセス向上委員会です。 インターネットエージェントに関して言いたいことが多かったので、メーリングリスト投稿としては私にとっても自己記録の長文になりますが投稿させてください。メールにして2千行程の小論文になってしまいました。 ------------------------------------------------------------------------------- 【タイトル】 ● 成功するインターネットソフトウェアエージェント論 〜 分類と分析、戦略と未来〜 作者(Copyright): 橋本大也(アクセス向上委員会) 日時 : 1999年4月2日 バージョン : 1.0 オリジナル URL : http://www.access.or.jp/agent/index.html 連絡先 : hasimoto@sf.airnet.ne.jp ICQ Number : 5907526 【このドキュメントの目的】 このメールはアクセス向上委員会メーリングリストへの投稿です。 ではなくて、 インターネット上にはさまざまなサービスを実現するエージェントが存在しています。そもそもWebブラウザやメールソフトがエージェントですし、コンピュータ自体がエージェントです。情報技術において、エージェントと言うのは非常にありふれたものなわけですね。これを今分析してみたいのは、インターネット上に単純なアクセスカウンタや掲示板CGI以上のインテリジェンスを持ったプログラムが増え始め、人気のエージェントが出現してきている現状、Webサイトやサービスの成功を考えるにあたって欠かせない重要な要素に成り始めたと考えるからです。 そもそも私は成功するWebサイトコンテンツもまたエージェント的要素をはっきりさせると良いものだろうと常々考えてきました。何のサイトか分からないサイトは失敗し、ユーザにとって何をしてくれるサイトか、をはっきりさせることが重要であると思うのです。 ユーザに知識を与えてくれるサイト、楽しませてくれるサイト、議論の場を提供してくれるサイト、計算してくれるサイト。単純にテキストや画像オンリーのサイトであっても、エージェント要素はあるし、その要素を明確に打ち出すことこそ成功の秘訣でもあると考えました。 このエージェント要素を高度化し、何らかのインテリジェントな振る舞いを持たせたものが以下で分類、分析、議論したいインテリジェント・ソフトウェア・エージェントです。既存のエージェントを分析することによって、今後どんなエージェントを作ったら成功するか、またはエージェントの活動によってインターネット利用がどのように変化していくかを考えるのは、Webサイト成功戦略を考える上で有益な議論になるのではないかと思います。 以上の目的を持ちまして以下の文章をすすめたいと思います。大変長文になりますが、みなさんのお考えを聞かせてください。 ------------------------------------------------------------------------------- 【このドキュメントの構成】 長文である為目次を作成します。 ・【タイトル】 | ・【このドキュメントの目的】 | ・【このドキュメントの構成】 | ・【インターネットエージェントの分類】 | +■Trail Finder 成功した先人の検索経路をたどる +■Expert Finder 欲しい情報を持っている専門家を探す +■Friendship Manager オンライン友人関係を築き、そして維持する +■Nodes Activator 情報ネットワークの接点を強化する +■Collaborative Rating Server 協調型レイティングサービス +■Relatives Finder 類似した情報をみつける +■Auction Applicant&Auctioneer オークションの代理人となる +■Push Information Agent 情報をユーザの手元まで届ける +■Anonymous Proxy 匿名での情報交換を可能にする +■Political Organizer 賛同者を集めてパワーを作り出す +■Associated Link Maker 関連性を発見しハイパーリンクを結ぶ +■Multiple Searcher 複数の検索システムへ問い合わせ、結果をまとめる +■Knowledge Engine データを知恵に変換する +■Geographical Information Mapper 雑多な情報を地図上に配置する +■Real-time Monitor&Alert リアルタイムに状況を監視しユーザの注意を喚起する +■Trail Finder 成功した先人の検索経路をたどる +■Expert Finder 欲しい情報を持っている専門家を探す +■Friendship Manager オンライン友人関係を築き、そして維持する +■Nodes Activator 情報ネットワークの接点を強化する +■Collaborative Rating Server 協調型レイティングサービス +■Relatives Finder 類似した情報をみつける +■Auction Applicant&Auctioneer オークションの代理人となる +■Push Information Agent 情報をユーザの手元まで届ける +■Anonymous Proxy 匿名での情報交換を可能にする +■Political Organizer 賛同者を集めてパワーを作り出す +■Associated Link Maker 関連性を発見しハイパーリンクを結ぶ +■Multiple Searcher 複数の検索システムへ問い合わせ、結果をまとめる +■Knowledge Engine データを知恵に変換する +■Geographical Information Mapper 雑多な情報を地図上に配置する +■Real-time Monitor&Alert リアルタイムに状況を監視しユーザの注意を喚起する +■Language Translator 異なる言語を翻訳する +■Conflicts Mediator 衝突を解決、回避する仲裁者 +■Document&Software Compiler 文書やソフトウェアを自動生成する +■Instant Contact Manager リアルタイムコミュニケーションを支援する +■Download Manager ダウンロードを管理する +■Context Abstractor ユーザの置かれたコンテクストを抽出する +■Virus&vaccine ウィルスとワクチン +■Search Engine Submitter サーチエンジン一括登録 +■Brain Storm ブレインストーミングを支援する +■Mail Magazine Publisher メールマガジン発行代行システム +■Advertising Controller オンライン広告配信の管理とマーケティング情報抽出 +■Remote Sensor&Worker 遠隔操作で五感情報を取得する +■MUD ChatterBot バーチャルコミュニティ内のノンプレイヤーキャラクタ +■Proof reader&code Validator 文章の校正チェック、コードの正当性チェック +■Accessibility Helper アクセッシビリティ支援エージェント +■Price Agent 価格比較エージェント +■WebSpider&UpdateChecker Webリソースのモニターエージェント +■Super Agent Decision Maker 自律的意思決定を行う | ・【インターネットエージェント周辺のテクノロジー】 | +■Web Spiderに見る代表的なインターネットエージェント +■分散処理するエージェント +■WebサーバにプラグインするServlet型モバイルエージェント +■エージェント言語、開発環境、フレームワーク | ・【成功するインターネットエージェントとWebコンテンツに関する考察】 | +■インターネットで愛されるGUIキャラクタエージェントを考える +■ブラックボックスよりも半透明なボックスがしばらくは有効か +■エージェント時代に純粋なコンテンツ指向のWebサイトの取るべき戦略 | ・【そしてどうなっていくのだろうか。勝手な未来予測】 +■インターネットは記憶の遺伝子を継承するミーム型エージェントのプールとなる +■ゲーム理論からドラマ理論へ進化、高度化する戦略アルゴリズムへスポットライト +■感情を持ち始めるエージェントと人間の生命観、社会経済システムへの影響 | ・【参考文献】 | ・【最後に:もしも全部読んでくださったら大感謝!】 ------------------------------------------------------------------------------- 【インターネットエージェントの分類】 最初に大分類をつくり、ツリー状のエージェント体系を作ろうと考えましたが、実際にインターネット上のエージェントを観察すると、その目的や振る舞いは多様であり、特に高度なエージェントほど多数のエージェント要素の複合系になっているため、美しいツリー構造を描くのは難しいと判断しました。例えば、エージェントの代表例とも言える、検索エンジンは、探索ロボット、インデクサ、日本語形態素解析、検索クライアントなどの4つのエージェントの複合体とみなすことができます。メタサーチエンジンや一括検索エンジン登録サービスといった高次のエージェントが更にこの上のレイヤーに加わります。 そこで以下では、個々のエージェントの目的を本質と考え、何をするエージェントなのか、擬人化しながら分類してみました。分類項目作成は具体例をベースに行っているので、若干恣意的で多数に及びます。 これらのエージェントを分類していく過程で現在のインターネットエージェントはあらゆる分野に広がっていることを確認しました。簡単なCGIレベルのものから、複雑な分散オブジェクトや人工知能の研究成果の応用まで、技術的なレベルや設計思想も非常に幅広いものでした。 ■Trail Finder 成功した先人の検索経路をたどる ・Direct Hit http://www.directhit.com/ 検索を繰り返していると、以前あのページにたどり着いたときはなんというキーワードを使ったかな、と過去の自分の成功した検索履歴を思い出そうとします。同じような属性を持った人間が検索していく場合、同じような経路をたどるわけですから、この検索履歴=Trail自体が重要なデータになるはずです。 Direct Hitは一見通常のサーチエンジンですが、過去のユーザの検索利用情報をストックしており、以前Aというキーワードを使ったユーザは最終的にBというWebサイトを参照したというデータをスコア化して検索結果表示において反映します。 Direct Hitは特定のサーチエンジン検索履歴を見るものですが、情報を探す道のりはサーチエンジンに記録される情報だけに限定されているわけではありません。AというページからBというページを見てCに至ったという経路情報はすべて有益に再構成できるはずですし、WWW以外のリソースのログも参照できれば更にTrail Finderは強力なエージェントになります。 例えばNetscape Navigatorでロケーション欄に「about:cache」と入力するとハードディスクキャッシュを参照することができます。最近のブラウザ利用履歴とリネームされたキャッシュ実体へのリンクが表示されます。既にこのキャッシュを再構築してオフラインブラウズを可能にする製品は多数発表されていますが、近い将来にはこのキャッシュ情報を再構築して、情報へのTrailを再構成して見せるようなアプリケーションが登場するのではないでしょうか。 後述しますインターネットブーメランや他のシェアウェアでは、既にWebブラウザのキャッシュの再構築と検索は実現されています。またMSIE5では、Webの検索フォームのオートコンプリート機能が搭載され、過去の検索キーワードを再現することができるようになりました。今後は同一目的の検索利用者の検索履歴にアクセスしたり共有するという使い方も出現してくるような気がします。 ■Expert Finder 欲しい情報を持っている専門家を探す インターネットで検索していると、何百ページをネットサーフィンするよりも誰か詳しい人に質問を行った方が、問題を解決する時間が短縮されたりします。インターネット上で最も有益で役立つリソースは、Webサイトでもデータベースでもなく、人間であると思います。ユーザが求めている必要な知識を持った専門家を探すのがExpert Finderです。 Expert Finderの上位概念にPeople Finderが考えられます。Human Filter Agentの亜種と分類することもできるでしょう。People FinderのクラシックなものにはBigfoot( http://www.bigfoot.com/ )のように電子メールアドレスやWebサイトをメインと捉えた人物検索エンジンがあります。しかし、プライバシー情報露出への懸念、セキュリティ上の問題などもあり、収録人数は数百万人に達してはいても、その人物のキャリア、専門範囲、応答可能性やバックグラウンドに関する、本当に必要としているデータを検索することは困難になっています。 現在のインターネットにおいて最もよく機能しているExpert Finderはメーリングリストではないでしょうか。メーリングリストでは発言内容やシグネチャファイル、メールアドレスのドメイン名、ヘッダ情報から、個人プロファイルに必要なほとんどの情報を推測することができます。また専門知識を持ったExpertユーザは、コミュニティで発言していること自体が、Expertとしての存在をサービスに登録していることにもなります。 またWebにおいてもExpertFinderは登場しています。 ・Experts-exchange http://jp.experts-exchange.com/ 今後、Expert Finderの可能性のひとつとして、「師弟関係」をオンライン上で作り出すようなサービスが考えられそうです。現実の世界において学習過程で有効に機能している「師弟関係」をオンラインで効率的に再現するのです。短期的な師弟関係には有料の情報提供でも良いでしょうし、長期的で現実世界に似た師弟関係のような、好意と尊敬、長期的投資という視点から生まれる師弟関係を作るGuild Builderエージェントも面白そうです。 ■Friendship Manager オンライン友人関係を築き、そして維持する ・SixDegrees http://www.sicdegrees.com/ ・ともめーる(運営会社の社長の門田氏は更に発展させたいと意欲的) http://www.mailfriend.net/ 「友達を作ろう」的なオンライン広告が国内国外を問わず増えてきました。インターネットユーザはそんなに孤独な人物が多いのかと頭を抱えそうになりますが、ネットワーク上で友人関係を作ることは、情報交換の活発化と情報提供インセンティブ強化につながります。インターネット上の友人関係が増えれば増えるほど、インターネット全体の情報流通量は高くなるはずで、Friendship Managerの果たす役割は重要であると考えます。 ただし、問題点も指摘されています。メールアドレスだけの個人情報によって見知らぬ人間同士を結びつけるサービスは、ネットストーカーなどの嫌がらせや犯罪に利用される可能性があります。 友人関係でなくても、例えばオフラインの結婚支援サービスなどでは既にPCのデータベースで独身男女をマッチングしているので、これはマッチングエージェントの分かりやすい例ですね。 ・Ancestry.com http://www.ancestry.com/ のように系図情報を入力していき、最終的に巨大な米国の系図を作るご先祖様データベースプロジェクトもあります。人間同士の関係をネットワーク上に再現していくエージェントは世界のあらゆる文化の中にある人間関係を模倣したものが今後も登場しつづけそうです。ある意味では敵対関係さえもネットワークに投影されると面白いかもしれません。 また文化人類学分野で古くは構造主義論においてクロード・レヴィ・ストロースが好んで例示したような複雑で特殊な「西洋文明化されていない」地域での親族構造や神話内の神々や人間の関係など、私たちの社会では存在していない、マイナーな人間関係さえ、ネットワークへの応用を検討するのも新しいエージェントを考える上で重要なヒントになりそうです。 ■Nodes Activator 情報ネットワークの接点を強化する ・LinkExchange http://www.linkexchange.com/ ・WebRing http://www.webring.com/ インターネットはユーザの端末や各種サーバを点と線で結ぶネットワークの一種 です。IPやさらに下位レベルでのネットワークトポロジーにおいてルータや相互 接続ポイント=Nodes(結節点)が存在しているのと同じように、下位ネットワーク トポロジーの上に別の有機的な情報サービスネットワークが形成されています。 個人やコミュニティ、各種サービスの連結Nodesを強めたり、活性化したり、ある いは新しいNodesを産み出すのがNodes Activatorエージェントです。相互バナー広 告交換サービスのLinkExchangeや同種のWebサイトのリンクサービスWebRingなどがこの一種です。 コミュニティとコミュニティを結ぶNodes Activatorも、もっと存在すると良いと考えます。例えば関連する掲示板やメーリングリストが複数ある場合、このふたつのコミュニティには連携すればさらに充実した情報交換を行えるチャンスがあります。しかし、現在は管理者同士が知り合って、じゃあ、くっつけましょうか、などという合意をマニュアルで結ぶ必要があります。 コミュニティの発展は難しいもので複雑な人間関係や利害関係が絡み合って、その結果適切に運用されたコミュニティだけが有効に機能します。すべてのコミュニティが連携すれば良いと言うものでもないわけですが、例えば、どのコミュニティに提出したら良いのか判断が難しい質問を抱えたユーザがいたとして、最も応答してもらえるResponsive度が高いコミュニティはどこかを検索できると役立ちそうです。また、特定のコミュニティで解決できなかった質問を他のコミュニティへ提出できる仕組みなども考えられます。 ニュースグループのクロスポストのような、ユーザとサーバのリソース節約の仕組みも今後他のプロトコルを使ったコミュニティへ持ちこむのもNodes Activatorと考えて良いかもしれません。 ■Collaborative Rating Server 協調型レイティングサービス ・Firefly http://www.firefly.com/ ・映画情報のMovieFinder http://www.moviefinder.com ・音楽情報のMyLainch http://www.mylaunch.com/ ・Web情報のWiseWire http://www.wisewire.com/ ・日本語ではまだ珍しいMyBest(書籍、音楽、映画など) http://mybest.js-corp.co.jp/ ・世界初だったメール版のコラボレイティブフィルタリング Firstnews Premium http://www.firstnews.com/premium/ 他の多数のユーザの属性や嗜好を元に、ある情報を推薦するサービスがCollaborative Rating Serverです。AとBが好きな人はCも好きという傾向を多数のサンプルから割り出し、AとBが好きと言ったユーザにCを薦めるというシステムです。しばしばのReccomenderの要素を持つエージェントと結びつきます。 FireFlyはマイクロソフトに買収されて話題を呼んだ企業でしたが、この他にもコラボレイティブフィルタリングを行うサーバ・ミドルウェアは多数存在しています。 ライセンスフィーはかなり高額のものが多いので気軽に導入はできませんし、有効サンプル数も10万単位といわれます。それだけのサンプルを集めるコストもかかります。導入はあまりやさしくないかもしれません。 ・GUSTO http://www.gustos.com/index.html ・Grouplens http://www.cs.umn.edu/Research/GroupLens/ ・Likeminds http://www.likeminds.com/ ・dka http://www.dkaweb.com/ ■Relatives Finder 類似した情報をみつける ・Alexa http://www.alexa.com/ ネットスケープ社のブラウザにも組み込まれたので既に有名になってしまいましたが、Alexaのサービスは現在ブラウザが表示しているのに関連する類似したサイトを表示するエージェントです。これを実現するためにAlexaはテラバイト級のWebアーカイブデータベースを保持しているそうです。 また類似した情報を探すと言う点ではテキストやWebページ以外の分野でもインターネットに登場した技術があります。 ・オムロンのインターネット対応類似画像検索システム http://www.wg.omron.co.jp/announce/gazou_kensaku.html ・Arthur (ART media and text HUb and Retrieval System) http://www.ahip.getty.edu/arthur/new_amore/ 類似画像の検索については、単に同じような画像を探したいだけでなく、例えば人工衛星が撮影する気象情報の天気図データベースを検索して予報に用いるなどの研究、実用は既に行われているようです。色の情報分布であるカラーヒストグラムを 情報を抽出してそれを比較することで、高速に類似画像を検索可能にしている高度なものと、ALTタグやキーワードなど付加したテキスト情報を比較する原始的なシステムとの2つの手法があるようです。 またCTI分野で利用されている音声認識システムや、端末で使うウィルスワクチンソフトなども前者は音声の波形の、後者はバイナリファイルのデータ上の特定のデジタルパターンの比較という点において仕組みは同じようなものです。類似を検索するというのは検索テクノロジーの基本と言うことなのかもしれません。今後は例えば4次元以上の高次元な構造比較、リアルタイムなデータ比較、マルチメディア(音声+動画)の比較といったより高度な研究に向かうものと思われます。 ■Auction Applicant&Auctioneer オークションの代理人となる ・オンラインオークションの代表格 eBay http://www.ebay.com ・OpenSite http://www.opensite.com ・オークションの老舗 Sothebys http://www.sothebys.com ・City Auction http://www.cityauction.com ・Auction Port http://www.auctionport.com/ ・Bid4it http://www.bid4it.com/ ・Sellathon http://www.sellathon.com/ ・Super Auction http://www.surplusauction.com/ ・Onsale Exchange http://www.onsale.com/exchange.htm ・自動車関連アイテムのオークション Mobilla http://www.mobilia.com/ ・特許ライセンスをオークションする Patent and License Exchange http://www.pl-x.com/ オークションを行うエージェントです。現在はオークションの主催者の役割を担うエージェントがメインですが、今後は購買決定エージェントや、不正監視エージェントもまた重要な役割を占めることになりそうです。事実、不正監視エージェントはサーバの機能として現在も織り込まれています。 オンラインオークションの状況をレポートしているAuction業界誌AuctionWatchでも、不正行為やその防止方法がニュースになったり、議論されたりしています。 ・AuctionWatch http://www.auctionwatch.com/ この掲示板ではリングと呼ばれる共謀グループでオークションに不正介入し、落札価格を操作したり、リング内で保険的な機構を発達させることでオークションでの落札可能性を高め、リスクを減じる集団の是非などが論じられています。 最高値をつけた参加者が、2番目の高値をつけた人物の価格で実際には購入するなどの新しいオークションの仕組みや、リザーブプライスと呼ばれる買い手に非開示の最低売値価格設定など、さまざまな仕組みで、売買の両者の納得の行く仕組みを模索しているようです。問題が複雑になればなるほど、エージェントの活躍する余地が、オークションの内部にはありそうですね。 ■Push Information Agent 情報をユーザの手元まで届ける ・E-Clip http://www.clip.ne.jp/ ・BackWeb http://www.backweb.co.jp/ ・PointCast http://www.pointcast.co.jp/ ・Intermind http://www.intermind.com/ ・TeleText http://www.impress.co.jp/teletext/ ・DesktopNews http://www.desktopnews.com/ ・InterVU http://www.intervu.com/ ・NewsPage http://www.newspage.com/ ・My YAHOO! http://my.yahoo.com/ ・Marimba http://www.marimba.com/ Pointcast社がスクリーンセーバを使った情報配信システムを発表して以来、多数のプッシュ型情報サービスが登場しました。これによって、情報を利用者が取得するために能動的にアクセスする「プル」型と、情報が情報提供者から利用者へ送りこまれる「プッシュ」型という、情報サービスの2形態が明確に区別されました。 ニュースや経済情報などのフロー情報の配信にプッシュ型は向いていますが、専用ソフトが必要であったり、常時接続や高速回線を前提としたタイプのサービスが多かったためか、 当初期待されたほど普及はしませんでしたが、テキストベースの原始的プッシュ型サービスである電子メールマガジンは世界で数万という単位で生き残っています。 今後はこの電子メールのプッシュサービスの進化が期待できそうです。電子メールは古くから存在するインターネット情報サービスですが、現在普及しているのはPOP3とSendmailというかなり昔に作られた技術です。サーバサイドでのメールのフィルタリングやマイニングといったインテリジェントなエージェント処理に向いていません。メーリングリストサーバプログラムの開発は「安定した配送」に注力しているようで、コミュニケーション支援機能に色気を出したソフトウェアが少ないように思います。ヘルプやアーカイブの取り寄せ以上の積極的な機能の盛り込みを期待したいところです。 例えば、メーリングリスト内にコミュニケーションを支援するロボットを常駐させ、投稿メールに脚注をつける、投稿内容に関連したURLをフッターに追加するといったエージェントは面白そうです。例えば「インターネットエージェント」というサブジェクトのメールを出すと、投稿者のメールと同時に最後にエージェント関連のURLが列挙されたり、「インターネット」「エージェント」といった言葉の定義が脚注として追加されたりする機能です。 また、最近ではメーリングリストによっては、サブジェクトに手動で内容のジャンル分類をつけることが推奨されているコミュニティもあります。例えば私が参加しているWebデザイン関連のメーリングリストでは、 以下、WEBDESIGNメーリングリストの参加者への説明から引用( http://www.webdesign.or.jp/Ml ) 「 話題が多岐に及びまたトラフィックも多いため、サブジェクトに関するガイドラインを設けました。メールのサブジェクトの先頭に投稿内容を表すカテゴリーを記入するというルールです。下記にあてはまらない内容の場合は適当にアレンジしてお使いください。 [info] イベント、勉強会、オフ会などのご案内 [wanted] 求人、メンバー募集 [business] マーケティング、ビジネスに関する話題 [design] デザイン、アート全般に関する話題 [system] インフラ、ハードウェアに関する話題 [program] HTML,JAVAなどのプログラムに関する話題 [q_*] 質問の場合は上記サブジェクトの先頭に[q_]を付ける。 」 といった推奨がありました。これによって、多数のメールを読者が分類する手がかりになりますが、実際に毎回投稿サブジェクトに分類を手作業で付加したり、受信したメールを振り分ける設定を行うのは面倒なものです。こういったコミュニケーションを整理するメールエージェントも登場してくれるといいなと思います。 ■Anonymous Proxy 匿名での情報交換を可能にする ・Zero Knowledge Systems http://www.zks.net/ ・Anonymizer http://www.anonymizer.com/ Anonymizerは公開Proxyサーバです。Webサーバなどのインターネットサービスを利用するにあたって、アクセスしているクライアント端末のIPアドレスやドメイン名、ネットワーク経路情報などを代理サーバを通すことで匿名化することが目的です。本来は、政治的なマイノリティが、危害を加えられることなく自由に情報発信できるようにするという目的もあったようです。 現実には、アノニマイザはクラッキングや嫌がらせに使われることも多く、問題視されてきました。先日のAnonymizer本家のプレスリリースでは1999年1月の利用が800万ページビューあったそうです(同社は無料版及び有料版のアノニマイザを提供しています。)から、実際には利用者の目的はどうあれ、匿名化の需要はあるようです。 今後Intel社がCPUにチップIDを搭載し、各メーカーのBIOSも対応を始めるような状況になればサーバ管理者は誰がアクセスしてきたかの詳細なログを取ることができるようになるかもしれません。インターネット利用者調査の大手GVUサーベイにおいても、米国でのインターネットの懸案事項第一位に検閲や監視が上げられていました。今後はProxy以上に、汎用的なアノニマイザの需要もでてくるかもしれません。 例えば、Zero Knowledge Systems社のFreedomはユーザの個人情報をWebサーバやメールサーバに残さないようにする、アノニマイザの進化した形態です。こちらは、より下位のレイヤーで通信内容を暗号化することで、個人情報の漏洩を防ぎます。 ■Political Organizer 賛同者を集めてパワーを作り出す ・The E-The People http://www.e-thepeople.com/ The E-The Peopleは数十万人の米国地方公務員のデータベースを持っています。サイト上からフォーム上に様々な嘆願書にサインしたり、自治体への要望を書き、クリックするだけで、嘆願書が該当する公務員(最高3人)に送信される仕組みです。 例えば、車を運転していてくぼみにはまって困ったなどということが起きたら、The E-The Peopleのサイトで「道路と交通」のジャンルを選択して住所を入力し、困った状況を送信すると、The E-The Peopleはその文章を、適切な地方公務員にメールで送ります。もし該当する公務員がインターネットアクセスを持っていない場合には、FAXで送信してくれます。 しかし、ひとりの声は弱いものです。The E-The Peopleは更に、そのメールを、住所の近い隣人の10人に同報送信することができます。そして、その嘆願書にサインしてくれるよう依頼することができるのです。言わば政治的な力のベクトルを揃え数を結集させるエージェントです。ジョン・レノンの歌にPower To The Peopleという歌がありますけれどまさにそんな感じですね。 ■Associated Link Maker 関連性を発見しハイパーリンクを結ぶ ・Voycabulary.com http://www.voycabulary.com Voycabulary.comではURLかプレインテキストの文章をフォームに入力してサブミットボタンを押すと、その参照先のWebページやテキストに登場する各単語やフレーズが、リンクとして表示されます。リンクをクリックすると意味を説明する英英辞書の該当ページに飛びます。 また英英辞書だけでなく辞書をプルダウンメニューで切り替えて指定すれば、フランス語、ドイツ語、イタリア語、ロシア語、スペイン語、ポルトガル語などなど25種類以上の外国語や専門辞書を使うことができます。 このように文章の単語に関連したページへのリンクを張るという形はWebページ間の関係をより密接なものにし、情報探索を容易にします。 この分野で将来登場しそうなのは、辞書自動リンク型掲示板です。掲示板にユーザが書きこむと、その投稿内容を表示する際、自動的に単語に関連ページへのリンクが張られると言うものです。 例えば、「マイクロソフトと司法省は独占禁止法で訴訟を起こしていると報道されている。」という文章が投稿されたら、「マイクロソフト」や「司法省」はそれぞれのWebサイトへ、「独占禁止法」はその条文データベースや解説記事へ、「報道されている」の部分は実際に報道されたニュースサイトの記事へリンクされれば、掲示板ディスカッションを支援する仕組みできると思います。 マイクロソフトがWindows98Plusパッケージに収録しているDeluxeCDPlayerにもAssociated Link Makerの要素が強いと言えます。このソフトはCDプレイヤーに入っているCDのIDを検出して、インターネットのCDデータベースへ接続してアーティスト名や曲名、関連Webサイトを表示するものです。 CDデータベース大手には ・CDDB http://www.cddb.com/ がありますが、今後はAssociate Link Makerに対して情報を提供するデータベースもどんどんでてくることでしょう。XMLフォーマットがこの分野では盛んに使われるのではないでしょうか。 ■Multiple Searcher 複数の検索システムへ問い合わせ、結果をまとめる ・Dogpile http://www.dogpile.com/ ・MetaCrawler http://www.go2net.com/search.html ・InferenceFind http://www.infind.com/ ・MetaFind http://www.metafind.com/ ・Copernic http://www.copernic.com/ ・InfoQuest99 http://www.inforian.com/ ・検索大魔神 http://www.cybersoft.co.jp/ ・JumonWorldSeek http://www.asahi-net.or.jp/~sf7t-kum/products/worldseek/index.htm 検索エンジンの数が増えてきましたが、多くの検索エンジンはデータの収録数や内容が異なっています。世界の検索エンジンを調査しているSearch Engine Watchには各サーチエンジンのデータベースの比較や検索結果の違いなどの詳細なレポートがアップデートされています。 ・Search Engine Watch http://www.searchenginewatch.com/ このような状況下では、徹底的にキーワードに基づいてWeb上のドキュメントを洗い出したいユーザは複数の検索エンジンを使わねばならないという面倒な事態になります。誰しもYAHOO!で検索して満足な結果が出ないのでGOOやInfoseekで検索された経験があると思います。 そこで一斉に複数の検索エンジンに問い合わせを行い、返ってくる結果を集めて、重複しているものや存在していないページを割り出してマージしたレポートを提供するツールが続々登場しています。私もInfoQuestなどを購入して使っています。毎日にように私のメールボックスには「○○について教えてください」という質問が届くのですが、調べる時間が十分にないときには、これで○○についてサーチして100件程度のレポートを出力させ、それをメールに添付して「これです」返信しています。中には私がわざわざ手動で調べたと思ったのか恐縮されたり、「ほんの10分でこれを調べたのですか?」と驚かれる方がいらっしゃって、そういうときにはとても愉快です(笑)だってそうやって驚かす為に買ったのですから。 またローカルファイルの検索も同時に行える検索大魔神や、FTP SearchやNetNews検索のDejaNews検索まで利用できるInfoquestなども登場しており、プロトコルやオン・オフラインを横断して一斉に検索できるのは大変魅力です。Multiple Searcherは次に紹介するKnowledge Engineの一部となる可能性が高いようです。 ■Knowledge Engine データを知恵に変換する ・インターネットブーメラン http://www.justsystem.co.jp/ib/ ・Conceptbase http://www.justsystem.co.jp/cb/index_b.html ・DataHunter http://www.sharp.co.jp/datahunter/ 英語の自然言語の概念ですと、Data→Information→Knowledge→Wisdomという順で情報はより高次の段階へ昇華していくようです。自然言語の区分けなので科学的にそれぞれの違いを明白にせよと言われると辞書を引く程度の非科学的分類を抽出するくらいしかできないのではありますが、逆に誰にでも分かりやすい分類かなと思います。 この分類は 人間が目にする量的には Data>Information>Knowledge>Wisdom 必要としている量的には Data<Information<Knowledge<Wisdom というこれまた曖昧ですが確固とした序列が描けると思います。有名なコンピュータコラムニストが恐ろしげに「情報過多で人類社会が混乱し破滅する」と脅すほど、Information Overloadは深刻ではないと私は思うのですが、インターネットが情報で溢れており、毎日これでもかというばかりの量の情報が送りこまれてきて、それらをどう扱ったら有効に使えるのか分からないという状況はあると感じます。 このような情報の高次化を代行してくれるのが、知識エンジンエージェントです。インターネット上にそのような専門の知識エンジンが存在するかと言うとまだないと思うのですが、兆候はあるように思います。 例えば、1999年2月にジャストシステムが発売した情報活用ソフトのインターネットブーメランというデスクトップアプリケーションなどがそうです。私も購入して使っています。このソフトウェアの核となったConceptBaseという類似情報抽出システムはジャストシステムが長年注力開発している技術です。意味による探索・分類によって動的な文書管理=情報共有を実現しようという試みなのですが、これを実装したインターネットブーメランはオンライン・オフラインのドキュメントを言葉を中心に捜したり分類整理できるソフトです。 私は既にLinuxでNamazu+Kakasiの検索エンジンシステムや、日常使うWindows端末との部分的なスケジュールミラーリング、Webブラウザキャッシュのインデックス再構築と検索、夜間自動翻訳などを独自で作っては壊しを繰り返してきたので、インターネットブーメランが登場したとき、ああ、この便利だけど複雑なシステムが一般化するのかと感じました。実際使ってみると、速度面や自由度で制約はあるものの結構インターネットブーメランも使えるものでした。 今はまだ企業の管理者やデータを集めて物を書く職業ライター以外では大規模ドキュメント管理の問題は発生していないのかもしれませんが、ハードディスクの値段が下がり、10Gバイト単位でHDDを個人が購入することは難しくありません。お金のあるわけではない私でもメインマシンは30Gの容量を確保できました。こうなると潜在的には大規模なデータから体系だった情報を抽出する検索+分類+アルファのシステムは次第に需要を伸ばしてくると思います。 ちなみに今私は、この文書をWZEDITOR4.0という高機能エディタを自分の設定でカスタマイズしてアウトラインプロセッサ表示で作成しています。また部分アイデアをツリー上に展開しておくWZMEMOという付属ツールも愛用しています。どちらも1万字を超えるような大き目の文書を作る場合には欠かせないツールです。 アイデアプロセッサは、思いついたメモや情報クリップを元に、文章を書く為に有益ですが、テキストエディタ、電子メールソフトやWebブラウザといったいつも使うツールとの連携や安定性が最も重要なファクターになると私は考えています。WZEDITORの場合はエディタや電子メールソフト、GREPツール、ファイラーと一緒に提供されています。 ・WZ Editor4.0 http://www.villagecenter.co.jp/soft/wz40/ こういったアイデアプロセッサやアウトラインプロセッサ単体としては、国内では、ベンチャー企業のメディアポリスが開発するThinkBookなどがあります。 ・ThinkBook http://www.mediapolice.com/ これもまた試用してみましたが、アイデアプロセッサに特化している分、高機能です。慣れれば使いやすいと思います。今後、例えば他のアプリケーションのテキストコントロールもしくはリッチテキストコントロールの保持するテキスト情報をフックして、ThinkBookへ横取りできるような機能が盛り込めれば大変便利になるでしょうね。ただ、Windowsメッセージのフックは難しい技術で、実際やろうとすると不可能だったりするのが難なのですが最近では文化オリエント社の販売するSpyWorksというフック専門のような特殊なActiveXコンポーネントを使うといけるのかもしれません。 ・SpyWorks http://www.boc.co.jp/Gateway/Japanese/Products/PowerPlus/SpyWorks/SpyWorksJ.htm ■Geographical Information Mapper 雑多な情報を地図上に配置する ・MapFan http://www.mapfan.com/ ・Mapion http://www.mapion.com/ ・ミルウォークマップ http://www.miruwalk.ne.jp/ ・ご近所さんを探せ http://www.gokinjo.net/ ・駅前探検倶楽部 http://ekimae.toshiba.co.jp/ ・Mapoo http://www.mapoo.or.jp/ ・クチコミ地図情報 http://venus.alpsmap.co.jp/forum/kutikomi/index.html ・モーバイルインフォサーチ2実験 http://www.kokono.net/ ・SnapTrack http://www.snaptrack.com/ 地図上に情報をマッピングするサービスです。 また、時々、雑誌企画などでインターネット勢力地図などという、大きな勢力は大きな文字で小さな勢力は小さな文字で、提携関係の強さを結ぶラインの太さで表すような地図がありますが、あれをオンラインでリアルタイムでやってみるのも面白いかもしれないですね。現在マッピング技術の分野では、地理的な広がりに加えて時系列の情報の変化を再現するプロジェクトが研究されています。地球の歴史がSimCityのように動いて見えて、どこまでも拡大でき、オブジェクトをクリックすると関連サイトに飛ぶ、歴史地球儀データベースが登場するのかなあと予感します。 ■Real-time Monitor&Alert リアルタイムに状況を監視しユーザの注意を喚起する ・Mind-it http://minder.netmind.com ・wasurenaide.com http://www.wasurenaide.com/ ・eOrganizer http://www.eorganizer.com/ ・Remember It http://www.rememberit.com/ ・Yahoo Calendar http://calendar.yahoo.com ・PC Quote http://www.pcquote.com/ ・Timely Quote http://www.timelyquote.com/ ・StockVue http://www.alphaconnect.com/stockvue/default.asp ・TWeather http://www.vector.co.jp/vpack/browse/software/win95/edu/sn078720.html Mind-ItはWebページが更新されたときに電子メールでサービス登録読者に更新を通知する世界最大の無料サービスです。 また電子メールで登録した日時に登録した内容を電子メールで送付する通常のリマインダーとしては他にも数十の無料・有料サービスが存在しています。国内でもwasurenaide.com(忘れないでコム)という絶妙なネーミングのサービスもあります。 こういったサービスは常時接続ユーザなら忘れることがありませんが、ダイヤルアップユーザの場合、その日時にISPにつないでメールを落とさない限り通知が受けられないので、むしろ付箋紙ライクなデスクトップアプリケーションや、スケジュールPIMソフトウェアなどにも実装されている同様の機能を利用するのが一般的かもしれません。 その点YahooCalendarはオンライン版のスケジュール管理ソフトですが、デスクトップアプリケーションも配布しており同期を取ることが可能です。また利用者同士のスケジュールデータをシェアできたり電子メール、ポケベル、インスタントメッセージングソフトへの情報送信する高度なリマインダー機能もあります。 そして株価情報の分野では特にこの分野は進んでいます。PC Quoteは専用ソフトで、TimelyQuoteは電子メールでそれぞれ株価をユーザに伝えています。その他多数ありますが、設定した価格になったら通知するタイプもあります。リアルタイム情報は有料だが、15分遅れになると無料と言うサービスもあり、なるほど面白いビジネスだなと思ったりします。国内でも専用端末形式のサービスがありますが、まだちょっと趣味で個人投資をかじってみようかという程度のユーザには高価ですね。 TWetherはインターネット経由で日本気象協会( http://www.jwa.go.jp/jwa.html )にアクセスし、1週間の天気予報を表示するソフト。自動的に1時間に1回(指定可)更新する機能を持ちます。7地域58地方を指定するだけで、先1週間のお天気マーク、降水確率、最高気温、最低気温の予報を表示してくれます。天気予報を見るのに、いちいちWebブラウザを立ちあげて、天気予報サイトを見る必要がなくなります。使ってみるとかなり便利です、これ。また、取得したデータはテキストファイルに落とせるので、友人にメールで天気を知らせたりするのにも使えます。 またこの他にも一般サービスではありませんが、ISPの管理者などは大抵管理下のサーバが不安定になったり落ちたりするとポケベルがなるように設定されていますし、船舶会社や輸送会社も夜間の事故発生時に自動で管理センターのベルを鳴らすシステムも私は実際に見学したことがあります。こういったシステムもこのエージェントに分類できそうです。 ■Language Translator 異なる言語を翻訳する ・Babylon日本語版 http://www.babylon.com/jpn/ ・ドクターマウス http://www.justsystem.co.jp/product/applicat/drmouse/ ・RichLink http://www.sentius.com/Sentius/Japanese/index.html ・ChatR http://www.itl.atr.co.jp/chatr/j_tour/index.html Babylonは分からない英単語を選択して右クリックすると日本語訳が表示される、デスクトップ翻訳ユーティリティです。仕組み的にはOCRと同じ原理で、画面上の文字をパターン認識しているので、どのアプリケーションでも同じように使うことができます。また、 辞書にない単語はユーザが「提案」することができ、辞書自体がインターネットコミュニティの力を借りて成長していくと言う面白さもあります。 ジャストネットが開発したドクターマウスもまたクリックに対応して英語を翻訳するユーティリティです。漢字にカーソルを合わせるとひらがなのふりがなを表示する機能もあり、 漢字の苦手な外国の日本語学習者にも使えそうです。 RichLinkはブラウザにプラグインする形式の翻訳ソフトです。対応したWebページをプラグインを導入したブラウザで表示すると、単語ごとに翻訳辞書や専門用語辞書の定義を参照できます。プラグインソフトやオーサリングソフトを必要としているので、やや敷居が高いのですが、朝日新聞社のWebサイトで使用されるなどの実績を誇ります。 ・朝日新聞社 辞書機能付き英文記事を充実 http://www.asahi.com/information/popupnew.html そして、エイ・ティ・アール音声翻訳通信研究所が開発している多言語音声合成システムのCHATRは未来指向のリアルタイム音声翻訳システムです。7言語を使ったユーザが母国語で音声通話すると、相互の言語の言語に自動翻訳され、音声として出力できるというものです。この認識や翻訳制度があがれば、7カ国の人間が母国語でチャットすることが可能になります。今後の精度向上次第では、IRCやNETMEETING、ICQなどの翻訳プロクシサービスとしてだけでなく、電話やテレビなどともつないで、より広範なインターネット全体のグローバルコミュニケーションインフラになる可能性がありそうです。 ■Conflicts Mediator 衝突を解決、回避する仲裁者 これは、類似したものがあるかと思ったのですが意外にみつからなかったエージェントです。コミュニティでの意見の衝突を仲裁したり、科学的な討論の場で論理的な矛盾を解消する為のエージェントです。 自然言語を解析して議論の文脈を判断するエージェントは開発がとても困難ですが、比較的単純なコミュニケーションの内部であれば、現在でも実現はできそうですが、何かご存知の方いらっしゃいますか? ■Document&Software Compiler 文書やソフトウェアを自動生成する ・WebFX http://zippy.sonoma.edu/kendrick/webfx/ ・WebGFX http://www.webgfx.ch/ ・ 直子の代筆Internet http://www.teglet.co.jp/index-j.htm ・WebNote Clip http://www.friendlylab.co.jp/clip/ Webサイト作成に使うバナータイトル画像やアイコンを、指定した通りに自動生成したり、テンプレートに必要な項目を入力することで電子メールや手紙の代筆を行うのがこのエージェントです。ドキュメントやプログラムなどのファイルを出力する点が特徴と言えます。 WebNoteClipはユーザが指定した機能と外観を持ったCGI掲示板のプログラムを出力しています。 このタイプのエージェントでは今回は発見できなかったのですが、GCCなど本格的な言語コンパイラにCGI経由でアクセスして、ソースコードを改変し、プログラムを出力するものも考えられるかと思います。 そして、これらは人間がコンパイルを依頼していますが、いずれはソフトウェアエージェント自身が再帰的に自己をコンパイルしていくかもしれません。何らかの知識エンジンエージェントと協調して、取るべき戦略を学習し、自己複製しながら成長していくソフトウェアエージェントはある意味究極のエージェントかもしれません。 ■Instant Contact Manager リアルタイムコミュニケーションを支援する ・ICQ http://www.icq.com/ ・YAHOO!PAGER http://pager.yahoo.co.jp/ ・Excite PAL http://www.excite.co.jp/pal/ ・EGN http://www.entr.net/ ・AOL Netscape Instant Messenger http://www.newaol.com/aim/netscape/ ・IP Messenger http://www.asahi-net.or.jp/~VZ4H-SRUZ/ipmsg.html ICQに代表されるインスタントメッセンジャーは、同じソフトを利用しているユーザが現在オンラインかどうかを確認し、オンラインであればメッセージを送ったり、チャットを行ったりするソフトウェアです。 ICQは他のチャットやインターネット電話、オンラインゲーム、翻訳ソフトなどのソフトウェアと連携しており、ネットワークユーティリティ、アプリケーションランチャー、デスクトップポータルサイトという側面が強くなってきました。EGNはMP3プレイヤーを内蔵するなどして差別化戦略を打ち出して追い上げを狙っているようですし、AOLは傘下に置いたネットスケープナビゲータへの実装と言う可能性を秘めているので穴馬と言えそうですね。 これだけ人気がありながらも、ユーザインタフェースの使いやすさにはやや疑問を感じるのでありますが、GUI対話型キャラクタや実世界インターフェースの形を取らなかったのは、実は正解だったのかもしれません。省スペースで機能主義のインターフェースがデスクトップアクセサリとして普及した理由と言えそうです。 ■Download Manager ダウンロードを管理する ・Go!Zilla http://www.gizmo.net/ ・GetRight http://www.getright.com/ ・DownloadAssistant http://www.iolo.com/dla/ ・DownloadButler http://www.lincolnbeach.com/butler.asp ・DownloadWizard http://www.downloadwizard.net/english/features/index.html ・FastFTPSearch http://ftpsearch.lycos.com/ ・Archie による FTPサイトの検索 http://www.wg.omron.co.jp/AA.html ・Wget ftp://ftp.gnu.org/pub/gnu/wget/ ・httpmail http://www2.pos.to/~negi/public/httpmail.html ソフトウェアのレビュー記事作成の仕事などをしていますと、毎日何本ものソフトウェアをダウンロードすることになります。ダウンロード作業の効率化のためのエージェントソフトウェアも海外を中心に多数が存在しています。GetRight、DownloadAssistant、DownloadButler、DownloadWizard、Go!Zillaなどのデスクトップアプリケーションです。 これらのダウンロード専用ソフトは、 途中で回線切断された場合の途中からダウンロードをやりなおすレジューム機能 目的のファイルをアーカイブしているネットワーク的に近いFTPサーバを探す機能 ダウンロードしたファイルの分類機能 などの機能を搭載しています。ブラウザのダウンロード機能(ファイル保存)をフックして、それぞれの外部ソフトウェアが起動できるように設定できる点が便利です。 ネットワーク的に近いAnonymousFTPサーバを検索するプロトコルには従来からArchieがありましたが、これを洗練させたデスクトップアプリケーションと言えそうです。 マルチメディアファイルの検索エンジンScourでは最終的には大きなマルチメディアファイルをダウンロードするユーザが多いためか、専用のダウンロードマネージャーを配布しています。 ・Scour Media Agent http://www.scour.net/sma/index.phtml また、Web探索ロボットのようにURLのツリーをたどって指定した深さ、あるいは指定した拡張子のファイルを一括ダウンロードするWgetや、自動巡回した結果、指定したファイルを電子メールで送信するエージェントhttpmailなどもあります。 ■Context Abstractor ユーザの置かれたコンテクストを抽出する ・rfc2109 HTTP State Management Mechanism (Cookie技術のRFC) http://www.cis.ohio-state.edu/htbin/rfc/rfc2109.html ・HyperTak http://www.hypertak.com/ Context Abstractorは各種情報提供サービスのカスタマイズを行う為に、ユーザが現在置かれている状況を把握するエージェントです。代表的なものにWebのCookie技術があります。Cookieはブラウザの内部に保存されたテキストファイルに情報を追加・参照することでユーザのWebサイトブラウズ履歴や、事前の登録プロファイルにもとづいてカスタマイズされた情報サービスを提供します。 しかし、事前にプロファイル登録が行われていた場合、サーバ管理者は個人の特定に限りなく近いアクセスしたユーザのログデータを取得可能な為、プライバシーが破られることを嫌うユーザも多数存在しています。 、 ・CookieCrusher http://www.thelimitsoft.com/cookie.html そのようなユーザの為に、Cookieファイルを消去するエージェントソフトウェアも開発されています。 また、Hypertak社は端末にインストールするブラウザ監視ソフトを希望者に契約の上、利用してもらい、その結果得たユーザのアクセス状況をマーケティングデータとして企業に販売します。このクライアントソフトなどもContext Abstractorと言えそうです。 またユーザのコンピュータ・インターネット利用のログを提供する代わりに、無料でPCを提供するFreePC社は当初1万人の提供枠に100万人以上の申し込みがあったことで話題になりました。 ・FreePC http://www.free-pc.com/ 今後、さまざまなエージェントが登場すると思われますが、多くのエージェントにユーザのバックグラウンド情報を取得するこのタイプのエージェントが協力する可能性は高そうですね。 ■Virus&vaccine ウィルスとワクチン ・シマンテック Antivirus Resource Center http://www.symantec.com/region/jp/sarcj/sarcj.html ・Trend Micro’s free virus scanning service http://housecall.antivirus.com/ ウィルスをエージェントに分類するのはおかしいような気もしますが、これも良く考えると、悪意の作者が他人のコンピュータや情報社会を混乱に陥れるためのエージェントと見なすことができそうです。自己増殖してネットワーク上を複製で埋め尽くしていくウィルスやワームと呼ばれるこの特殊なソフトウェアこそ、昔から実現されているモバイルエージェントと言えるのかもしれません。 これに対してウィルスの検出や除去を行うワクチンソフトが売れています。日本の株式市場でも店頭公開した数少ないITベンチャー企業のトレンドマイクロ社のWebサイトでは、ActiveXコンポーネントによって、オンラインで端末のウィルスチェックができるようになっています。これは私が知る限り現段階で唯一のワクチンエージェントです。 ■Search Engine Submitter サーチエンジン一括登録 ・さぶみっと!-JAPAN- http://submit.dragon.co.jp/ ・一発太郎 http://ippatsu.net/TARO/ ・Submit-it http://www.submitit.com/ ・Add It! http://www.liquidimaging.com/submit/ ・Submit Blaster http://www.rtlsoft.com/submitblaster/ ・PositionAgent http://www.positionagent.com/ 多数の検索エンジンへの登録を一括で代行してくれるエージェントです。数十から数百のサーチエンジンへ無料・有料で投稿を代行してくれるサービスです。アクセス向上委員会MLでは誰もが知っていてお世話になっているだろうということで説明省略します。 なお、サーチエンジンで何番目に表示されるか。現在のサーチエンジン内での自分のWebサイトのプロモーション効果を確認するエージェントソフトにPositionAgentというのがあります。このふたつが連携して、自動で登録、確認、より効果的な再登録を行ってくれるロボットが欲しいですね。さぶみっとの次はそんなエージェントが誕生するのではないでしょうか。 ■Brain Storm ブレインストーミングを支援する ・伝説 --生涯の伝説の全部(の一部(^^;)-- http://cgi.tky.3web.ne.jp/~hiya/legend/index.shtml ・臨床症例データベース(医学用語シソーラス利用) http://www.nacsis.ac.jp/ir/dbmember/shorei-j.html ・WebSPIRS http://webspirs.kinokuniya.co.jp/webspirs40/toc.html ・辞スパ スタンダード http://www.three-a.co.jp/products/dict/standard/ ・Internet Anagram Server http://www.wordsmith.org/anagram/ 例えば「伝説 --生涯の伝説の全部(の一部(^^;)--」に私の名前を入れたら以下のような文章が出力されました。 「 もはや手段は選ばぬ、橋本大也を呼べ! 「世界征服」という言葉にかつてないロマンを感じる。時に橋本大也、11歳。 15歳、ドミニオンの侵攻を受け、DS9より撤退を余儀なくされる。 22歳の夏、どうしてもコミケでスペースが取れずに暴れる。良い汗をかいた。 シャア:「ええい、連邦の橋本大也は化け物かっ!」 そして31歳で天を掴んだ。 ムクムクと名乗る赤マントのムササビを探して街道ぞいに歩き回るも、結局発見ならず。グッドEDを断念する。 40歳の時橋本大也はカルニ・マグイッチと呼ばれるようになった。 得意技はマヨネーズまるごと一本一気のみだった。 57歳の時「カルニ・マグイッチちゃんラーメン」が新発売され子供達の人気を得るが、五年経っても新発売のままであった。 カルニ・マグイッチ、4年間付き合ってきた相手と60歳の時に結婚。しかし、夫婦生活もそう長くは続かなかった。 71歳、3本足打法を駆使してホームラン王に! 市役所の壁に大フレスコ画を描く。その時80歳。 90年後、新モデルの登場とともにカタログから消える。 」 また、臨床症例データベース、WebSPIRS、辞スパ スタンダードは類義語データベース=シソーラスを利用して、検索されたキーワードと一緒に連想できるキーワードを表示します。 Internet Anagram Serverでは英語で意味のある文字の並べ替えパターンをすべて表示してくれます。シソーラス搭載のサーチエンジンもそういえば増えてきました。 こういったプログラムはアイデアを出す際に有効なエージェントとして活躍しそうです。 ■Mail Magazine Publisher メールマガジン発行代行システム ・まぐまぐ http://www.mag2.com/ ・ココデ・メール http://mail.cocode.ne.jp/ ・Macky! http://macky.nifty.ne.jp/ ・フライヤーマシーン http://flier.jcss.net/ ・めるぽっと http://melpot.net-planning.co.jp/ ・Pubuzine http://www.pubzine.com/ ・ClickIncome http://www.clickincome.net/ 元祖のまぐまぐの成功に続いて、次々に類似サービスが誕生しました。ただ真似をしただけではなく、バックナンバー公開サービスや添付ファイル送信サービス、広告送信サービス、スパム防止の為の保護機能など各社、読者や発行者に対して差別化戦略を打ち出して追い上げようとしているようです 数が増えたことによって、同じメールマガジンを複数のシステムから発行する発行者も増えました。私は現在はアクセス向上委員会通信三万部ほどを、まぐまぐ及びトライコーン社の商用発行システムアウトバーンを使って発信しています。しかし、6つの発行システムから発行する作者も珍しくはありません。本当は、各社が連動して、一度の作業ですべてのシステムから発行できれば便利です。また同じ情報を一斉に流すのであればマルチキャスト的な放送システムを使って情報を流すことも考える余地があるかもしれません。 特にまぐまぐクラスの配信システムであれば、ネットワーク的にノードが混雑する可能性もあると思うからです。 まぐまぐは進化フェーズによって、仲間内のメール配信システム、メールマガジンのオープンな発行代行システム、メールマガジンのサーチエンジン、そしてポータルサイトへと変容してきたように思います。今後、どのようにメールマガジン発行システムが姿を変えて行くのか楽しみです。 海外では、LinkBotやOneListのように、読者の属性情報を集めたり、バックナンバーを公開したり、検索システムをつけたり、あるいはコミュニティ機能を提供すると言う方向で進化しているようです。 ・ListBot http://www.listbot.com/ ・OneList http://www.onelist.com/ ■Advertising Controller オンライン広告配信の管理とマーケティング情報抽出 ・DoubleClickのDARTシステム http://www.doubleclick.com/ ダブルクリック社のバナー広告配信サービスは独自技術のDART(ダイナミック・アドバタイジング・レポーティング・ターゲッティング)テクノロジーを採用することで、アクセスしてきたユーザの属性を瞬時に分析して、ターゲット広告を表示するのがセールスポイントになっています。 広告主はダブルクリック社に対して広告バナー画像を預け、インプレッションに応じた料金を支払います。ダブルクリック社は世界の有名人気サイトのバナー広告枠を押さえており、預かったバナー広告を広告主の指定したパターンで配信します。 DARTはプロバイダのサーバネームと地理的対応関係のデータベースを参照して、瞬時にアクセスしてきたユーザの地理的位置を調べたりCookies情報によって属性の一部を取得して、適切な広告を配信します。 広告主は配信されるWebサイトを、コンテンツに関連したキーワードで指定したり、「20代女性の企業ユーザ」「30代の日本人の技術者」というようにオプション指定を行うことでより細かいターゲットのセグメンテーションを行えます。例えば、IBM社がスタンフォード大学の端末からアクセスしてきた学生に対して「スタンフォード大学卒業後の人生はどうなさいますか?」というようなリクルーティング目的のバナー画像を配信し、同大学の学生をあっと言わせたという有名な事例もあったと1年半くらい前、同社CEOのケビン・オコナー氏来日時に直接インタビューして聞いてきました。 同様のエージェントは属性認識の程度は異なりますがLinkExchangeなどのバナー広告交換プログラムにも実装されています。 ■Remote Sensor&Worker 遠隔操作で五感情報を取得する ・Motion Processor http://www.mpfan.com/mp/index.htm ・The Trojan Room Coffee Machine http://www.cl.cam.ac.uk/coffee/coffee.html ・BeWare01: satellite http://www.sensorium.org/beware01/index-j.html エージェントは必ずしも通信先がソフトウェアである必要はなく、ハードウェアの場合もあるかもしれません。ごく早い時期に研究室のコーヒーメーカーのリアルタイム静止画像をインターネットにつないで放送した(しかもATM利用らしい)ことで有名なThe Trojan Room Coffee Machineにはじまって、時刻あわせに使われるNNTPサーバや、気象情報システム、あるいは簡単なロボット(可動型Webカメラなど)が登場しました。 遠隔にあるデバイスが環境に関する情報を送信してくれたり、何らかの操作を実際に行うエージェントにRemote Sensor&Workerという名前をつけてみました。 実は私もそういったデバイスを最近入手しました。Motion Processorという代物です。 MotionProcessorアイデアコンテストというキャンペーンがあり、こんなデバイスがあったらあなたは何に使ったら良いと思いますか?というテーマの一般公募があったので、アイデアを書いて送ったところ、入賞したようで、実物と開発者キットが送られてきました。 そして開発者の間でコンテストをやります、よろしく、との連絡がありました。いつのまにか私は開発者予備軍と見なされていたようです。うまいなあ、コンテスト主催者さん。 これは一瞥するとWebCCDカメラなのですが、レンズの部分には赤外線センサーが複数ついており、デバイスの前の物体の動きを赤外線でキャプチャしています。例えば指で方向を指すとカーソルがそちらへ動いたり、こんにちは、とお辞儀をすると画面の中のキャラクタもお辞儀を返してくれる、そんなソフトウェアが開発できるのです。 今までPCへの入力と言うとキーボードかマウス、音声程度であったわけですが、動きまでも入力として与えられるとすると応用可能性はとても広そうです。これをインターネットにつなげれば、国際ジャンケン大会も可能なのですが、そんなことの為に作ったんじゃないでしょうね。 ■MUD ChatterBot バーチャルコミュニティ内のノンプレイヤーキャラクタ ・UltimaOnline http://www.owo.com/ ・HalfLife http://www.sierrastudios.com/games/half-life/ 最新のマルチプレイヤーのネットワークロールプレイングゲームはUltimaOnlineを初めとして一通り試しているのですが、登場人物はプレイヤーキャラクターとノンプレイヤーキャラクタ(NPC)の2つに別れます。NPCはそれなりの知能を持っており、簡単な会話が成り立つ場合があります。 大抵はストーリーを進める為の説明役として登場するNPCですが、今後、ネットワークゲームでは、よりインテリジェントなNPCを実現しようとしているようです。例えば米国のPCゲームの権威とも言えるPCGAMERレビューのランキングで歴代一位97点に輝くHALF LIFEは、Doom→Quake→Quake2→Unrealといった3Dアクションシューティングの傑作ですが、そのモンスターの挙動が発売時にユーザの高い評価を受けました。 私も最後までクリアして毎晩世界のHalfLifeプレイヤーと戦闘を繰り広げたのですが、 シングルプレイも同じくらい熱中していました。モンスターに向かって射撃すると、モンスターは一時退却した後、仲間を呼んできたり、後をつけて来たりといった高度なAIが実装されていたせいです。またNPCもまた話し掛けると戦闘を援護してくれたり、ドアを開けてゲームを先に展開させてくれたりします。 MUDとはMultiPlayersDungionの略で、このようなマルチプレイヤーゲームのような社会を示す言葉ですが、良く考えるとインテリジェントエージェントにとって、ゲームの世界もインターネットの人間のコミュニティの世界も扱いに変わりはないわけですね。そのうちエージェントから私たちの作るWebサイトへの感想のメールが届いたりしそうですね。あ、スパムロボットがもういますね。 チャットボットもこの分類に入ります。例えば私が毎日使っているIRCクライアントソフトのWoolChatにはチャットの他の参加者の発言内容に対して自動応答で発言するプログラマブルなマクロがあります。 ・WoolChat(IRCクライアントとしてユーザインターフェースがピカ一) http://www.kinet.or.jp/naka/tomo/ 基本的にオンラインの時にはずっとIRCを立ち上げているので、これで遊ぶことに情熱を燃やした日々がありました。某新着ホームページ情報メールマガジンのタイトルとURLを 1万件ほどメールマガジンバックナンバーからGrepでCSVデータベース化してこの数人の仲間内のチャットで私的に公開していたことがありました。「ホームページ」と誰かが発言するたび1万件のデータベースからランダムにURLがチャットに表示されるので、暇つぶしとしては最高でありました。実はその後、悪乗りしまして、まぐまぐ発行ログのページをこれまたGrepして、「まぐまぐ」という発言に対する数千件のメールマガジンランダムリコメンドボットもやっていました。最後は「けんぽう」と叫ぶと日本国憲法の条文がランダムに出るようにしたあたりで、参加者に厭きられたのでやめました。こういうのがチャットボットです。 (過去の話でしかも、数人の非公開グループチャット内の実験でした。著作権的にはちょっと問題があったかな。でもどちらも公開データベースだったので、T社のH社長、M社のF開発者氏お許しを。もうしませんー。) 余談ですが、エージェントとかバーチャルリアリティと言った言葉にピンとこないと言う方はネットワーク対応のマルチプレイヤーゲームをプレイされると良いのかもしれませんね。私は3年前Diabloにはまりました。インターネット分野でベンチャーを志していた先輩方4人で毎晩何時間もダンジョンに潜っていたのですが、今や私以外の3人は人気サービスを運営するインターネット企業の社長さんになってしまいました。今はゲームやりましょうよと言っても忙しくて相手してくれません。私も遊んでる場合じゃないだろうといえばその通りなんではありますが(笑) 次はこれだな→Daikatana ( http://www.daikatana.com/ ) ■Proof reader&code Validator 文章の校正チェック、コードの正当性チェック ・WebSter http://www.goldendome.net/Tools/WebSter/ ・DoctorHTML http://www2.imagiware.com/RxHTML/ ・WebSiteGarage http://www.websitegarage.com/ ユーザの書いた文章やそのファイルのURLを与えると単語のスペルチェックや文脈の正当性をチェックします。HTML文書の場合には、W3CのHTML文法を守っているかどうかや、ブラウザの互換性をチェックしてくれます。HTMLの互換性チェッカーはリンク切れ確認やファイルサイズの確認機能もついて総合的なサービスになってきているようです。 今後は単純な文法チェックから、シソーラスや学習データベースも導入して、人間のプルーフリーダーと同じレベルの文章読解チェックを行うエージェントも出現するかもしれません。Webを公開していると、漢字が間違ってますよとメールで指摘する嫌なロボットも登場するかもしれませんね。これはもう今でも作ることは簡単なわけですし。 ■Accessibility Helper ・IBM こころWebの音声読み上げソフトに関連するWebページ http://ftp.ibm.co.jp/kokoroweb/chap14/kkr14d1.html http://ftp.ibm.co.jp/kokoroweb/chap07/kkr07d1.html 身体が不自由な方や、お年寄り、もしくはモバイル環境など、情報インプットに何らかの問題が生じているユーザに対して情報活動の遂行を支援するエージェントです。IBMのアクセッシビリティ推進活動こころWebのサイトに紹介されている音声読み上げソフトなどが該当します。 ■Price Agent 価格比較エージェント ・BargainFinder http://bf.cstar.ac.com/bf/ BargainFinderはアーサーアンダーセンコンサルティングの開発する価格比較エージェントです。CDなどのWebショップを巡回して各店舗の価格を比較したリストをユーザに提供します。ユーザが求める商品の最安値と店舗が一発で分かる仕組みです。将来的にはこういった複数のWebショップを一覧したり、編集したりしながら読むブラウジングスタイルが一般化するのではないかと思います。街の小さな店舗に出向くよりは大型デパートで商品を一覧できる集中のメリットがWebショップでは大きいと考えるからです。無論、それはロイヤリティマーケティングによって、高級商材や嗜好品は別の方向があるのかもしれませんが。 商品属性に関する記述は現在は業界ごと、企業グループごとに異なるものですから、Web上にエージェント用の商品に関するメタ情報を記述するのは実際には難しいことかもしれません。現在、もし同じようなことをやりたいとすると、HTMLから価格や属性とおぼしき情報を推測して取得するエージェントが考えられます。 ・MetaCommander http://www.kdel.info.eng.osaka-cu.ac.jp/~mc/manual.html このMetaCommanderはJavaによるWeb巡回エージェントでURL指定したWebページ群をローカルにダウンロードするエージェントですが、面白いのは対象ページのHTML要素を指定することで、その一部を切り出して取得することが可能な点です。例えばニュースサイトなら、見出し記事はH1ですとか大きなフォンとで指定されていますから、それぞれのニュースサイトのHTMLの法則を研究すると、世界中のニュースサイトの見出しと記事へのURLを一箇所に集めることが可能です。 ■WebSpider&UpdateChecker Webリソースのモニターエージェント これらに関しては詳細後述しますので説明を省略致します。 ■Super Agent Decision Maker 自律的意思決定を行う 他のエージェントはすべて人間の代理になって情報を集め、最終的な意思決定は人間が行っていますが、このスーパーエージェントは、人間に代わって意思決定と行動を行うものです。企業で言うならば、ジェネラリストタイプの社員と言えましょうか。 エージェントが意思決定を行うには一般にゲーム理論や神経系の研究が応用されますが、なんにせよ、外部からの情報入力が人間ほど豊かではないですし、常に不完全情報系の中でのベストエフォートが求められます。この不完全情報から状況を判断しベストエフォートの行動を行う環境はベイジアンネットワークと呼ばれています。 ------------------------------------------------------------------------------- 【インターネットエージェント周辺のテクノロジー】 ■Web Spiderに見る代表的なインターネットエージェント 検索エンジンやユーザが再帰的にURLを巡回してHTMLファイルをデータベースへ収録する為にダウンロードする目的で使われるのがWeb Spiderです。これらは、 ・The Web Robots Database http://info.webcrawler.com/mak/projects/robots/active.html ・User-Agentについてのたわごと (日本語でしかもとても詳しい!) http://www.dais.is.tohoku.ac.jp/logs/agentgripes.html に見られるように、非常に数が多いのですが、ほとんどは同じような振る舞いをする特徴があります。事前に与えられた条件によってURLのリンクを再帰的にたどり情報を持ち帰ります。 ・A Standard for Robot Exclusion http://info.webcrawler.com/mak/projects/robots/norobots.html ロボット排除規則と呼ばれる、上記の法則を守るように実装することがWebSpider開発者には期待されており、Webサーバに負荷をかけず、そして、明示的にSpiederを拒否するサイトの情報は拾わないなどのルールが設定されています。 ソースが公開されているもののうち、最も古いSpiderはMomSpiderです。 ・MomSpider http://www.ics.uci.edu/pub/websoft/MOMspider/ これはUniversity of California, Irvine (UCI)、University of Colorado at Boulder (CU)、University of Massachusetts at Amherst (UMass)、Arcadia at Purdue Universityの4大学によるソフトウェアエンジニアリングに関するタスクフォースで開発されたものです。(このプロジェクトから誕生した意欲的なテクノロジーにはChimeraというWebを使った新しいハイパーメディアシステムがありますが、これは本稿では割愛。) ・Arcadia Research Project http://www.ics.uci.edu/~arcadia/ ・Chimera Heterogeneous Hypermedia System http://www.ics.uci.edu/pub/chimera/ MomSpiderはPerl4とlibwww-perlで動くソフトウェアで94年に発表されています。実際にはアップデート作業はもう終わっているようで、Webエージェントの原型を見るにはこの枯れたソースコードを研究してみるのもよさそうです。Perl5のLWPライブラリを使って書きなおせばこのプログラムはかなり簡単に作り直すことができるでしょう。 また電子メールとの連携したエージェントサービスを作る際の勉強になる例として ・「ホームページ自動巡回」エージェント httpmail http://www2.pos.to/~negi/public/httpmail.html があります。これは指定した一枚または複数のWebページのURLを専用Webのフォームで指定すると、指定したメールアドレスにHTML(あるいはプレーンテキスト化された内容)が送信されてくるエージェントです。URL再帰探索、HTMLtoテキスト変換、電子メール送信、認証、セキュリティなど実際にエージェントプログラムを作る上での知識がソースコードから学べます。私もインストールしてみましたが各社のニュースチェックなどを頻繁に行わなければいけない人間にとってはブラウザで巡回しないですむので大変便利です。 (開発者の楠哲士氏は確か私の大学の先輩かもしれません、というか間違いなくそうでしょう。面識はないのですが昔、早稲田大学の学内ネットニュースで氏の博識に随分勉強させて頂きましたが、社会人になってもまた勉強させて頂いております。) 同様のチェックでスクリーンショットも含めて電子メールかFAXで送ってくれるビジネスも海外にはあります。 ・CyberCheck http://www.cycheck.com/services/monitoring.html ■分散処理するエージェント 国内にも素晴らしいエージェント開発者が他にもいます。日記監視エンジンの朝比奈アンテナです。 ・朝比奈アンテナ http://masshy.fastwave.gr.jp/hina/release/ 日記系Webサイトのウェブマスタにはそれなりの知名度があるのですが、日記ウェブマスタ以外ではあまり知られていないかもしれません。多数の日記のページの更新時刻を取得して読むべき新しい日記をリストアップしています。 ・朝日奈葉子のアンテナライフ(横浜版) http://www.yk.rim.or.jp/%7Ekiwamoto/hina/ でその更新チェック結果が公開されています。 朝日奈アンテナは、複数のアンテナ間で更新時刻情報を共有する分散キャッシュ機構が実装されています。これによってネットワークやサーバのの負荷を軽くし、しかも多数のサイトの情報を高速にチェックすることが可能になります。 ・Squid http://squid.nlanr.net/Squid/ プロクシ・キャッシュサーバとしても人気のSquidはインターネット・キャッシュ・プロトコルで他のキャッシュサーバと通信して分散データをUDPプロトコルで共有する機能があります。 ・Internet Cache Protocol (ICP) ftp://ftp.isi.edu/in-notes/rfc2187.txt 基本的なところでは他にもDNS、ネットニュース、WAIS検索などが分散システムですが、 作るのが結構やっかいなのと、インターネット情報エージェントの為の汎用通信プロトコルに汎用的なフレームワークが存在していないせいか、多くがクライアントサーバ型をとっているような気がします。後述します、KQMLやその実装系などがエージェント間通信のあり方を考える材料になりそうです。 ■WebサーバにプラグインするServlet型モバイルエージェント Javaテクノロジーはマルチプラットフォームなので、様々なOSが存在するインターネットでは、エージェント開発に最適な言語になっています。事実、多くのエージェントのフレームワークがJavaで記述されています。Javaには、Servletという機構があります。PerlなどのCGIは、実行されるたびに新しいプロセスを起動してしまうので、多数のアクセスがあるとサーバに負荷がかかり、反応が遅くなってしまいます。これに対してServeletはWebサーバの一部となり常駐するので、アクセスが多くなったときでも対応できるというメリットがあります。 また、Javaで記述されている為、Javaが動く=事実上すべてのOSで同じようにプログラムを利用することができます。JavaはWebページで利用されているアプレットのGUI表示速度が遅い為に、遅い言語と言う誤解をされているようなのですが、実際には各種ベンチマークの数字を見ますとC++と同じ程度のパフォーマンスを出すことが可能のようです。 このWebサーバにプラグインして、Webサーバの拡張機能としてCGIを行う枠組みは、モバイルエージェントの活動場所としても魅力的かもしれません。JavaでServletを使うには以下のようなソフトウェアがあります。 ・Jigsaw http://www.w3.org/Jigsaw/ W3Cが開発するJavaのWebサーバで、Java2とServletAPIに対応しています。私は自宅内LANのWebサーバのひとつににこれを使っています。フリーです。 ・JavaWebServer http://jserv.javasoft.com/products/java-server/webserver/index.html フリーではありませんが、Sun純正のJavaWebサーバです。 ・Sun ServletAPI http://java.sun.com/products/servlet/index.html JavaServletの仕様書です。 ・ServletCentral http://www.servletcentral.com/ Servletに関して情報が大量にあります。 ・JRun http://www.jrun.com/products/jrun/ WebサーバをServlet実行可能にするフリーのミドルウェア ・ ServletExec http://www.newatlanta.com/products.html サーブレットをWindowsでもMacでも動かせるようにするミドルウェア ・ServletWizard http://www.jrun.com/products/wizard/ Servletプログラムのスケルトンを出力するVisualCafeのプラグイン。79ドル。 ・Apache http://www.apache.org/ また、世界で最も人気のあるWebサーバApacheも少し工夫をすれば、Servletに対応します。 JavaのServletはそのままではAgentとは言えませんが、エージェントのアーキテクチャーのひとつにモバイルエージェントがあります。これは実行環境をが与えられたサーバの間を自己複製しながらエージェントが歩き回り情報を収集するもので、IBMのAgletなどがこれに該当しています。朝起きたら情報エージェントを飛ばすと、仕事にでかけている間中、エージェントは世界中を飛びまわって情報を他のエージェントやWebサイトから集めて、夜帰ってきたら主人に詳細なレポートを報告するというような使い方ができます。 また、単純なWeb Spider型のエージェントの効率の悪さを補ったり、エージェント同士の協調作業を行ったりすることが可能になると考えられており、注目されているアーキテクチャーです。Agletの実例は旅Canで見ることができます。 ・IBM 旅CAN http://www.tabican.ne.jp/ ServletはそのままではWebサーバのプラグインで、CGIの代役といった代物ですが、もしもエージェントがServletの形式でJavaWebServerの間を複製して回ると楽しいことなるのではないでしょうか。必要に応じて機能を増やすWebサーバです。Servelet及びJavaの実行環境がある、JavaWebサーバの管理者間でモバイルエージェントのネットワークを作ってみると面白いかもしれません。 ■エージェント言語、開発環境、フレームワーク 本格的なソフトウェアエージェントを実際に作成するにあたって、通常の開発言語やプロトコルを使うことはもちろん可能なわけですが、エージェント開発に特化した言語や開発環境がいくつか存在しています。研究目的のもの、実用を意図したもの、内容は多彩ですが、自律系、意思決定、通信、自己複製、オブジェクト化などの要素が織り込まれており、 汎用的なエージェントを開発する際にはこれらを検討してみると良いかもしれません。 最近、Javaをいじっていないので、私が見つけられていないだけでしょうか。 ・Knowledge Query and Manipulation Language (KQML) http://www.cs.umbc.edu/kqml/ KQMLはARPA(Defense Advanced Research Projects Agency)にスポンサードされた、Knowledge Sharing Effortプログラムの一環として提出されたエージェントテクノロジーです。米国の国防を担うARPAのネットワークと言うと、もちろん、このインターネットの前進です。核ミサイルでも破壊されない分散情報網を構築する為に研究された政府組織や、 学際ネットワークが発展して今の形になったわけですよね。 そういった由緒正しい組織の援助の下、登場したのがKQMLです。まずは、これを解説してみます。私はドキュメントは熟読したつもりですが、KQMLをアプリケーションに実装した経験はありません。今度やってみようと思います。もしも詳しい方、間違いを見つけてくださいましたら、ご指摘ください。 ・AgentWeb 「AgentNews」やメーリングリストを運営しています。 http://www.cs.umbc.edu/agents/ ・ARPA(Defense Advanced Research Projects Agency)意外にも検索がNTサーバ! http://www.arpa.mil/ ・ARPAの予算がPDFであります。情報技術への米国政府の投資額の大きさに感動。 http://www.arpa.mil/acrobat/fy2000.pdf KQMLはJava、LISP、 Prolog、C++などで書かれたマルチエージェントシステムの開発言語です。その名前の通り、自律動作するモバイル同士がそれぞれの知識に関して問い合わせを行い、情報を集めながら、それぞれの問題を解決していくという構造を持っています。情報を問い合わせるSender、問い合わせを受けて応答するRecipientと、情報促進器となる媒介エージェントFacilitatorの3者の相互作用でエージェント通信が成り立ちます。 SenderはFacilitatorに対して、performatives+Parameterという形式の命令セットを与えます。この組み合わせによって、どのような情報をどのような形式で取得するかを指示します。Facilitatorは最適なRecipientのアドレスを内部データベースから特定し、Senderの依頼を伝えます。依頼には直接Recipientから情報を返すか、Facilitatorを媒介するかといった通信経路も指定されており、その支持に従って情報を返します。無論、Recipientのデータベースに情報がなければ、答えがないという連絡を返します。Recipientは応答時にはSenderに変化します。 以下、S=Sender、R=Recipient、F=Facilitator、VKB=VirtualKnowldgeBase、と略します。 さて、エージェントのフレームワークを知る為に草案段階ですがKQMLの内容を簡単に分析してみました。理解していく際、私が作ったメモを下記に引用します。 ・performatives KQMLで提案されている予約語とその意味 Basic informative performatives 基本的な情報探索に関する命令 tell :content でSのVKBにある情報を伝える deny Sのperformativeを返す機能がRにない場合の応答 untell Rが何らかの理由で応答を拒否した Database performatives VKBへの操作命令 insert SがRのVKBに対して情報を加える delete SがRのVKBの情報を削除する delete-one 引数:contentに該当する情報をひとつ削除する delete-al 引数:contentに該当する情報をすべて削除する Basic responses 基本的な応答 error Sの命令をRが理解できないもしくは応答不可能時のエラー sorry Sの命令をRは理解できたが応答不可能時のエラー Basic query performatives 基本的なデータ操作命令 evaluate SがRに:contentの記述内容の簡略化を求めるメッセージ reply SがRに最適と判断された情報を返信する ask-if SがRのVKBに:contentが該当するか知りたい時のevaluate ask-about Sが:contentに該当する情報の集合を求める時のask-if ask-one :aspectで応答方式に関するリクエストつきのask-if ask-all :contentにマッチするRのVKBのすべてを返すask-one sorry Sの命令をRは理解できたが応答不可能時のエラー Multi-response query performatives stream-about Rは該当する情報の集合を導く命令集合で応答 stream-all :aspectに応じて該当情報の全集合を導く命令全集合で応答 eos End Of Streamを明示する応答 Basic effector performatives achieve :contentに適合するシステムであることをSがRに要求する unachieve achieveの拒否 Generator performatives generatorメカニズムに関する命令 standby SはRに:contentについて応答可能であることを表明しておく ready in-reply-toに対して応答可能であることを表明しておく next in-reply-toに対して次の情報を受け取りたいと望む rest ストリームで残りの応答を受け取りたいと望む discard 残りの応答を発信したくないと表明する generator (standby(:content (stream-all,*).......ということ Capability-definition performatives 実行可能性の定義に関する命令 advertise :content というKQMLクラスが得意と表明 Notification performatives 通知に関する命令 subscribe :contentに関して将来は変化があることをSがRに表明 monitor (subscribe :content (stream-all,*).....ということ Networking performatives ネットワーキングに関する命令 register :nameに対してperformativesを運べることを登録 unregister registerの拒否 foward :fromからの:contentを:toへダイレクトする broadcast SがRに外部への経路を一度だけ確保するよう望む pipe 現在の経路を将来も確保しておくよう望む break 確立されたpipeを破棄する transport-address 要するにシンボリックリンクを張る(らしい) Facilitation performatives 協調促進に関する命令 broker-one advertiseで登録された一つのAgent経由で命令実行する broker-all advertiseで登録されたすべてのAgent経由で命令実行する recommend-one 命令実行に最適な一つのagentの名前を応答として求める recommend-all 命令実行に最適なすべてのAgentの名前を応答として求める recruit-one 命令実行に最適な一つのAgentに命令を転送するよう求める recruit-all 命令実行に最適なすべてのAgentに命令を転送するよう求める ・Parameter 予約されている引数名 :sender 実際の命令発行者senderの命令を運ぶ為の変数 :receiver 実際の命令発行者Recipientの命令を運ぶ為の変数 :reply-with 値がnil=返答不要あるいは値がtなら返答必要、を期待する :in-reply-to 返答する先を指定する(返答を期待する) :content をそのまま運ぶ汎用的な変数 :language 通信に使う言語名。省略時はKQMLになる :ontology オントロジを使用する場合(オントロジ=用語辞書) :force 値がpermanentなら常にSは命令実行可能を保証する ・補足 この他:to、:fromなど個別の引数が命令ごとに存在しています。 オントロジはエージェント同士の言葉が違う時に、いちいち類義語を並べて記述するのが面倒なので用語統一する為に参照する辞書データベースです。詳細はもう少し複雑で、スタンフォード大学のTom Gruber氏が、「What is an Ontology?」というドキュメントで説明しています。 ・What is an Ontology? http://www-ksl.stanford.edu/kst/what-is-an-ontology.html 「An ontology is a specification of a conceptualization」であるとのこと。 詳細な条件分岐や反復といった一般の高級言語の中心とも言える命令セットが存在しないのは、やはり通信プロトコルだからでしょうか。それらは開発言語の方でやってくれということなんでしょうね。 上記の命令セットからも推測できますように、必要な情報を保持する、応答可能なエージェント(ひとつであることも複数であることもある)をFacilitatorを使って発見し、generator mechanismによる通信コストの最適化を行いながら、必要な情報を求めます。また、求めるだけでなく、提供できる情報をFacilitatorに事前に伝えたり、知っているかどうかの問い合わせに答えたりします。 ・概念図:KQMLエージェントたちのインタラクション 矢印はperformatives+Parameterによるエージェント間通信 実際には関与するエージェントは無数 → → Sender(Recipient) Facilitator Sender(Recipient) | ← | ← | KVB、ontology Ontology KVB、Ontology 「ねえ、これについて知りませんか?」「ああ、それは彼が知っているので聞いておいてあげよう」といった具合で人間の社会のコミュニケーションに大変似ているとも言えそうです。 そしてKQMLには僅かながらエージェントの持つポリシーに関する提案もありました。 ・Example Agent Policies http://www.cs.umbc.edu/kqml/kqmlspec/section3..html KQMLが考えるエージェントは他のエージェントの役に立つhelpfulness、他のエージェントに求められたら反応するresponsiveness、他のエージェントに迷惑をかけるような振る舞いを慎むpertinence、といった要素を持つべきだという提案です。また、最終的にはエージェント社会全体としての利益への貢献といった高い目標まで求められるかもしれません。 これらの命令はまだ草案段階であり、実装されたアプリケーションが広く出まわっているわけでもありません。しかし、マルチエージェントシステムに必要な概念を明確にし、どのような操作が必要かがこのKQMLドキュメントによって明確になります。丁度インターネットアプリケーションがTCPやUDPのプロトコルを守らねばならないのと同じように、エージェント開発ではこのようなフレームワークを守って作る必要が出てくると思います。 この草案を見ると、ひとつひとつの機能は大変シンプルですが、全体として見るとかなり複雑な印象を受けます。 今後更にこの上のレイヤーの高級エージェント言語が登場して、KQMLのレイヤーはカプセルに隠蔽された形で上位言語に内包されていくのかもしれません。PerlやJavaやVBといったメジャーな開発言語のフリーライブラリが揃えば開発は加速するのではないでしょうか。 また、果たしてそれがどのような性質を帯びたものになるかは分かりませんが、エージェント通信のフレームワークは、その上で成り立つ人間のコミュニケーション方法や取得する情報の内容に関しても少なくない影響を与えることになると考えます。 KQMLを使った分散データベース掲示板というのも作ったら面白いかもしれませんね。複数の掲示板のFAQを作成してデータベースにしておき、人間の質問があったら書き込みは行わず、エージェント通信の結果、データベースに該当したら自動回答し、該当がなければ初めて書きこめる、そんな掲示板です。 このドキュメントを見るとKQeMaiLというSendmailへの実装実験は行われているようです。インテリジェントなエージェントメールサービスが登場するのが近いかもしれませんね。 その他の言語などに関するリンク ・Knowledge Interchange Format (KIF) http://logic.stanford.edu/kif/kif.html ・IBM Aglet http://www.trl.ibm.co.jp/aglets/index-j.html ・Plangent http://www2.toshiba.co.jp/plangent/index_j.htm http://www2.toshiba.co.jp/plangent/doc/LanguageSyntax_j.htm ・LiveAgent http://www.agentsoft.com/ ・WebL http://www.research.digital.com/SRC/WebL/ ・WebSQL http://www.cs.toronto.edu/~websql/ ・April http://quimby.fla.com/Activities/Programming/APRIL/april.html ・GeneralMagicがTeleScriptに次いで発表するモバイルエージェントOdyssey http://www.genmagic.com/technology/techwhitepaper.html ------------------------------------------------------------------------------- 【成功するインターネットエージェントとWebコンテンツに関する考察】 ■インターネットで愛されるGUIキャラクタエージェントを考える インターネットやデジタルメディアで愛されたキャラクタにはどんなものがあったかとふと考えてみました。 ・Postpet 国内ではやはりモモちゃんが絶対的な人気でしょうか。 http://www.so-net.ne.jp/postpet/index.html ・PinkRabbit コンセプトとしては似ているのですが... http://prabbit.colabo.co.jp/ ・7ThMail http://www.7thstreet.com/ ・バーチャルアイドル伊達杏子 堀プロの発想は面白かったのですが... http://www.horipro.co.jp/talent/PD001/ ・Creatures 2 ゲームです。まさにエージェント育成ゲーム。ちょっと流行。 http://www.creatures2.com/ ・The Mozilla Museum ネットスケープのキャラクタのはずですが公式ではない? http://www.snafu.de/~tilman/mozilla/ ・FreeBSDのデーモン君 最近Penguinと一緒にされています。頑張れー。 http://www.freebsdmall.com/promotional/#bsddoll-l ・Linux Penguin はっきりいって絶好調でしょうか。Linuxユーザの間だけですが。 http://www.linux.org/info/logos.html ・Dogz これは私が持っている仮想犬育成デスクトップアクセサリ。ちょっと流行した? http://www.dogz.com/central/default.asp ・TombRaider ララクロフト 3Dアクションゲームの主人公。なんと映画にまで! http://www.tombraider.com/larasworld/wallpaper.html ・PacMan 日本が誇るゲームキャラクタの代表格。パックマン。 http://www.namco.co.jp/main/wg/pac-man/index.html ・Bug'sLife 映画見てきましたが、ポリゴン系は国内で受けるのか疑問。 http://disney.go.com/DisneyPictures/bugslife/ ・まぐまぐちゃん なんか最近大変っぽかったですが頑張ってください(笑) http://www.mag2.com/misc/3dmag.htm ・Gabby 私も編集者のオンラインマガジンのキャラクタ。もっと受けて欲しい。 http://www.gabby.net/core/life/index.html ・The Dancer ほとんど知られていませんが私はこれが大好きです。 http://www.multimania.com/goprof/fsdancer.htm ・Dancing Baby 米国で爆発的に流行したキャラクタ。YAHOOもディレクトリ作成した。 http://dancing-baby.net/ ・チューチューマウス これはかなり国内で人気みたいです http://www.ikehouse.co.jp/mirror/ ・うさうさ シリーズ化していて面白いです。 http://www.ic-net.or.jp/home/hiroma/index.html ・Xeyes UNIX端末使いにはおなじみのカーソルを目で追う目玉アクセサリ 公式URL見つからず不明何故? ざっと思い出すと以上のようなリストになりました。米国で人気のDancing Babyは爆発した理由が良くわからないのですが、しばしば個人サイトなどの画像にも使われています。 また、これまた日本人受けしなさそうな、超人気ゲームTombRaiderの女主人公ララ・クロフトは映画化まで決定してしまったそうです。 ・Nude Raider 〜Laraのもう一つの顔〜 http://www.gaminator.com/special/lara/default.htm こんなおかしなWebページまで登場しているからヘンです。 海外と国内では人気の出るキャラクタが違うというのはなんとなく分かります。米国ではスタートレックが人気ですが、日本人はあそこまで、SFが好きではないでしょうし、人種の坩堝=アメリカを象徴した宇宙船の乗組員たちの社会ドラマには熱中できないのでしょうね。 一方国内ではアニメがなんと言っても人気でしょう。AnimeやHentai(笑)で米国Yahoo!で検索すると大量に発見されますが、日本のアニメはやはりインターネットでも海外輸出できるクォリティに達しているようです。 また日本はマリオブラザーズ、パックマン、ファイナルファンタジーといった世界に誇れるキャラクタゲーム帝国でもあるようですから、アニメ+ゲーム系キャラクタで世界のインターネットで爆発する人気キャラクタを模索するのが良いのかもしれません。 日米ともに共通するのは、UNIXでのデーモン君やペンギン君、Xeyesなどのハッカー文化発のキャラクタが理系学生やプログラマを中心になんとなく使われていることでしょうか。ただ、この人気は一般の人気に波及する性質のものとは思えませんねえ。(あのキャラクタもGNUライセンスだという噂ですが本当でしょうか?)。 国内で純粋にインターネットアプリケーションのキャラクタとして成功したのはPostpetですね。アニメっぽくもあり、ポリゴンっぽくもあり、なんとも言えないキャラクタなのですが。メールを運ぶという作業を遊びのモードへ変換してしまったのが画期的でした。 デザインさえ決まれば、動かしたり、しゃべらせたり、メールを出したりする枠組みはMicrosoft Agentなどが存在しているので比較的簡単です。 ・Microsoft Agent http://agent.microsoft.com/ ・Agent InfoSpace http://www.argolink.com/agent/index.html Agent InfoSpaceにはそんなキャラクタのエージェントプログラム化の手法が豊富に紹介されています。まずはキャラクタをヒットさせてから、インターネットエージェントの中身を作っていくと言うアプローチもアリなのかもしれません。 ■ブラックボックスよりも半透明なボックスがしばらくは有効か ランプをこすると「呼ばれて飛び出てジャジャジャジャーン」と登場するアニメの大魔王のように、指示を出せば何でも片付けてくれるスーパーエージェントと言う発想は夢見てしまいますが、現在のインターネットで採用されているどの技術を使っても、完全なスーパーエージェントは産み出せそうにないように感じます。 比較的単機能なコンポーネント型のエージェントが手足を伸ばして他の異なる機能を持つエージェントとの協調作業を行うのがよさそうです。 また、ソフトウェアはある意味Input→ BlackBox →Outputというブラックボックス関数ですが人間はこのブラックボックスの中身について知りたがるものなのではないでしょうか。あまりに複雑でInputとOutputの因果関係が見えないような振る舞いを行うエージェントは、恐らく受け入れられないことでしょう。アイザックアシモフがSF小説「私はロボット」の中で定義した有名なロボット三原則に、「エージェントは人間の予測できない振る舞いをするべきでない」というのを追加しても良いかもしれません。ソフトウェアエージェントとはいえ、人間の代理人であるならば、その人間がある程度責任を持って管理できなければならないと考えるからです。 自律性、自発性、可動性の強いソフトウェアエージェントは、ユーザの手を離れて、他のエージェントと会話しながら情報を得たり、与えたりします。既に現代の生活にはブラックボックスがいろいろあると思うのですが、電子レンジや電話と違って、コンピュータは訳のわからない動作に戸惑ったりします。エージェントも初期の頃は、単機能で内部の処理が見えやすい方がよいのかもしれません。 ■エージェント時代に純粋なコンテンツ指向のWebサイトの取るべき戦略 さてここまで書いてきて、私のWebサイトはテキストオンリーだから関係ない、あるいは写真集だからエージェントは関係ないというコンテンツ指向のWebマスタの方もいらっしゃるかと思いますが、そうもいかないのではないかと私は考えます。 既に検索エンジンの探索エージェントが多くのWebサイトを巡回してWebを検索エンジンに収録しているように、今後Webやその他のプロトコルで情報収拾エージェントが活躍し始めると、事情は変わってくると考えます。アクセス向上のポイントは過去には宣伝技術が主だったファクターでしたが、それと同じくらいエージェントや情報システムが進化したインターネットでは、エージェントに対応したコンテンツの公開がアクセス向上の鍵を握るのではないかと考えます。 例えばWebショップならばXMLで価格や製品属性をマークアップしておくことで、価格比較サイトのエージェントやお客の購買エージェントに情報をひろってもらうことができますし、日記は日記エージェント( 朝比奈アンテナ http://masshy.fastwave.gr.jp/hina/release/ )にひろってもらうことが現段階でも可能でしょう。 今後は各分野で主にXMLマークアップ対応の情報エージェントが登場してきて、各分野のポータルサイトに情報を収録していくという形が広まるのではないかと予感しています。 ポータルの条件のひとつに、情報収拾エージェントの装備、人気サイトの条件のひとつにエージェント対応の追加情報の記述が現れるのではないでしょうか。 また、各コンテンツ自体が情報エージェントとの通信を積極的に行う為の交渉エージェントを動かす可能性も高そうです。例えばWebショップに、ユーザから指定された条件で買い物をする購買代理エージェントが訪問したときに、店員エージェントとの間で値引き交渉がリアルタイムに行われるなどです。 またコミュニティサイトにとっても、コミュニケーション支援エージェントが重要な役割を果たす可能性も高いでしょう。例えばメーリングリスト。参加者は事前に自分の知識データベースを保持しておき、メールの内容によっては、自ら投稿を書かずに自働応答でメールを返すことが可能になるかもしれません。また、メーリングリスト管理者は、モデレータエージェントによって流すべきでないスパムメールをカットしたり、意見の衝突を回避するような仲裁メールを投稿したり、デジタルテキストに欠落しがちな参加者の感情 を表現するようなエージェントを投入するかもしれません。 現在のインターネットもDNSの名前解決やメール配送といった基本的なフレームワークにおいて十分にエージェント社会は実現されていると考えますが、今後はよりインテリジェントで社会性の高いエージェントの振る舞いや、エージェント同士の相互作用の結果が、Webを含む情報サービスのトラフィックを決定する重要な要素になると思います。 それが本稿をアクセス向上委員会に投稿した動機でもあります。 ------------------------------------------------------------------------------- 【そしてどうなっていくのだろうか?勝手な未来予測】 以下は20年と言うスパンで考えてみた勝手な予測です。興味のない方は読み飛ばされてください。ただしひょっとすると10年後かもしれませんし、個別には3年や5年以内に始まる要素もあるかもしれないと思います。今後、人生をインターネット事業にかけてみようと血迷ったですとか(私もそうです)、インターネット分野の職業に将来ついてみたいと思われる方なら、一緒に考えてくださると嬉しいです。長期的に見て成功するインターネットのテクノロジーは何かを想像するのは短期的戦略にも微妙に方向性を与えるものと考えています。 私は何しろこのアクセス向上委員会を後50年は続けるつもりですので長期的スパンも考えなければなりません。みなさん、よろしくお願いします(笑) あ、これは冗談じゃありません。本気です。 ■インターネットは記憶の遺伝子を継承するミーム型エージェントのプールとなる リチャード・ドーキンスが著書「利己的な遺伝子」(紀伊国屋書店)の改訂版の中で追加した第11章「ミーム 新登場の自己複製子」において、人間の精神活動において文化を伝達していく概念的単位をミームと名づけました。ミームは、遺伝子(ジーン)と記憶(メモリー、仏語のクリーム)からの造語で、ドーキンスは、遺伝子が有機物質のスープ(遺伝子プール)の中で自己複製、突然変異を繰り返しながら自然淘汰プロセスを繰り広げているのと同じように、人間のアイデアや概念もまた、文化のスープ(ミームのプール)の中で他のミームとせめぎあって、進化していくのではないか、と主張していました。 長くなりますが、上記の著書より引用させていただきますと、 「 楽曲や思想、標語、衣服の様式、壷の作り方、あるいはアーチの建造法などはいずれもミームの例である。遺伝子が遺伝子プール内で繁殖するに際して、精子や卵子を担体として体から体へと飛びまわるのと同様に、ミームがミームプール内で繁殖する際には、広い意味で模倣と呼びうる過程を媒介として、脳から脳へと渡り歩くのである。科学者がよい考えを聞いたりあるいは読んだりすると、彼は同僚や学生にそれを伝えるだろう。彼は論文や講演の中でもそれに言及するだろう。その考えが評価を得れば、脳から脳へと広がって自己複製するといえるわけである。 」 ドーキンスのこの著書が出版された当時、科学を超えて社会的に大きなインパクトを与えた理由のひとつとして進歩しつつあるバイオテクノロジーにおける遺伝子研究や、人工知能研究における神経系の研究といった分野の理論が、社会的な文脈で一般に分かりやすい概念として語られたからであったと思います。そして、インターネットの時代になって、エージェント社会という新たな文化プールが巨大化した今、ミームの概念がかなり純粋な形で人間の営みに顕在化してきたと言えるのではないでしょうか。 アクセス向上の研究はコンテンツに含まれるミームの自己複製と自然淘汰を生き延びる為の戦略研究と言い換えても過言ではないのかもしれません。現在はアクセス向上には、マスメディアの影響力や現実世界の事件といった外部環境要因が大きく影響していますが、 いずれ他のメディアとの融合が加速し、インターネットが世界最大のメディアとなっていくとすれば(既にコンテンツの量は人類史上最大だと思いますが)、ミームを運ぶインターネットエージェントの振る舞いを記述することが、自分の考えをより多くの人に伝える為に重要な要素として認識されるのではないか、と思います。 JavaのAgletなどのモバイルエージェントのように自律するエージェントはネットワークを通じて自分自身を他のノード上に複製していくことで移動を実現しています。これに丁度オブジェクト指向プログラミングの、クラス継承を発展させたような遺伝に似た複製プロセスが当てはめられれば、ドーキンスが描いた人間の文化の中でのエージェント=ミームのモデルがネットワーク上に実現してしまいそうです。 また、現在でも電子メールの転送という単純でありふれた行為の中にも、このミームのモデルを見出すことができそうです。電子メールで発信したミームは、そのまま転送されたり、追加情報や反論を付け加えられて、生き残ったり死滅したりしながら、オンラインを動いていきます。中には特殊なチェーンメールやMLM、ウィルスのような、自己複製に特化したミームが登場して猛威を振るったり、そこへチェーンメールを否定する理性的なミームがそれを撃退したりしています。良貨が悪貨を駆逐することもあれば、その逆もまたあり得るわけですね。 XMLの技術は、今後、ミームをより明確なものに変えていくとも思います。XMLでは、Webページの中のマークアップされていない個所でも自在に意味単位として切り出すことを可能にするからです。例えば「エージェント」という概念に関しての記述をユーザXがAさん、Bさん、CさんのWebページの部分的な記述から再構成してひとつの記事αを作ることができます。この記事αは3つのミームから構成された複合ドキュメントですが、更にユーザYやユーザZによって、更に他のミームが追加された上位の記事βや、部分的に他のドキュメントと融合された複合記事γを作ることが可能です。 こうなってくると、各記事α、β、γが本質なのではなく、すべての記事内で生き残るミームこそ重要な構成要素です。このプロセスを生き残り、影響力を強化する為には情報要素の記述やXMLのAdvanced Linkの記述、情報キャリアとなるエージェントへの指示に関するメタ情報の記述内容が、コンテンツ自体の主張と同じくらい、ミーム伝播プロセスに影響力を与えると思います。 ポータルサイトが今後もインターネットのアクセスを寡占する状況は変化がないと思いますし、テレビとの融合やマルチキャスト技術の応用によって少数の放送型チャンネルもまた登場するかもしれません。しかし、これらの大きな情報のメインストリームもまた、ミームエージェントのキャリアパスとして見たならば、、少数派の意見を増大化する増幅装置とみなす肯定的な見方もできると考えます。 現在「ポータルサイト」に対して「ディスティネーションサイト」が対置されていますが、最終的にはディスティネーション情報は固定的なURL/ULIに存在する目的地ではなく、可動型の意味単位になるのではないかと思います。アクセス向上に関してもページビューといったクライアント・サーバモデルではなく、マルチエージェント、モバイルエージェントとしての情報単位でアクセス向上を考えていくべきであろうと思うのです。 本稿では30以上に渡ってミームのキャリアとなるエージェントの分類を行ってみました。 どのエージェントにも威力を発揮できるミームの性質は異なっていると思いました。 独創的なコンテンツこそ最強のミームであると思いますが、独創的なエージェントに運ばれるミームもまた、強い情報伝播の力を持つと思われます。 ■ゲーム理論からドラマ理論へ進化、高度化する戦略アルゴリズムへスポットライト 1980年代の初め、私が小学生だった頃、初めてパソコンのBASIC言語を覚えて作ったゲームはコモドールの日本法人(今はない?)のBASICの動くゲーム機+コンピュータ「MAX MACHINE」で動くテキストキャラクタを使ったわずか1キロバイトのインベーダゲームでした。そしてその次に自分で初めてアルゴリズムというものを考えてシャープのMZ1200で作ったのが当時の科学雑誌にストーリーだけ書かれていたゲームを再現してみた羊飼いゲームでした。本当に実物を再現出来たのかどうかは未だによくわかりません。 何のゲームかというと当時はそんな言葉も知りませんでしたが、ノンゼロサム状況における囚人のジレンマを再現するゲームでした。有限の牧草地で複数のプレイヤーがターン制で、飼う羊の量や食べる牧草の量などのパラメータを数値入力するものです。各自が自分のことだけを考えてしまうと全員が破滅してしまうが、全員が協調すればゲームオーバーが遠のくという内容でした。お互いのターンではわざと他のプレイヤーの入力作業を見ないことで、ゲームはスリリングになるというものです。 囚人のジレンマに代表される従来のゲーム理論体系は、静的なゼロサムゲーム状況における最善の戦略を考えるものでしたが、最近では他の参加者の思考や感情の動きや状況の動的な変化の中での最善の戦略とは何か、またはノンゼロサムゲームにするにはどうするか、を考えるようになってきたそうです。この変化に関しては NewScientistの論文がオンラインでも読むことが出来ます。 ・Don't get even, get mad http://www.newscientist.com/ns/981010/drama.html インターネットエージェントの中にも既に安定した均衡系を作ろうと努力するスタビライザータイプや、協調動作して良い結果を作ろうとするコラボレイティブエージェントが既に研究・実用化されています。 上記で分類作業で紹介しました株価モニターエージェントやオークションエージェントなどは次の段階では(法律がよくわかりませんが)株の売り買いやオークション売買といったプロセスに介入するかもしれません。エージェントソフトがうごめくと、市場の状況は変動しますから、その戦略もまた高度化しなければ、有能なエージェント足り得ない状況になってくると考えます。いろいろな分野でゲーム理論→ドラマ理論シフトのように社会学や政治学及び自然科学の成果を借りてアルゴリズムの進歩が起きると思います。 現在Windowsの世界ではGUI部品は充実し、コンポーネント化もかなり進んでおり(出来そこないかもしれませんが(笑))ます。UNIXでも特にLinux方面ではGUI部品の開発やオブジェクト指向のコンポーネント化がされてきています。開発統合環境の進化も著しいものがあります。 今までのプログラム作業と言うと、古くはメモリ管理ですとかファイル保護ですとか高速化といった部分、最近ではコンポーネント化やGUIのスマートな実装、ソケット通信やオブジェクトDBなどの新しくスポットライトの当たった分野などに力を入れているような気がします。しかし、今後、インターネットが、コンピュータや情報家電、モバイル機器が同義で扱われるくらい密接なものになり、エージェントの能力が重要な問題となってきたとき、アルゴリズムこそ、最も重要と言う本来あるべき姿に落ち着くのではないでしょうか。 すべてが完全にネットワーク化され、分散環境対応データベースやXML文書、GUIも含めて汎用処理を行う機能単位モジュールが分散された未来のネットワークコンピュータ社会ではもしかすると、アルゴリズムだけの入ったカプセル(ソフトなのかハードなのかは不明)を購入し、PCにプラグインするとネットワーク上からフリーのモジュールを集めて再構成し、複数のデータベースやXML文書を集めて状況を判断しエージェント活動を行わせる、そんなコンピュータ利用形態になるのではないかと思うのです。 プログラマ=純粋アルゴリズムを考える人になれたら技術者としてはなんて幸せな職業だろうかと未来に期待します。 ■感情を持ち始めるエージェントと人間の生命観、社会経済システムへの影響 先日国内初の脳死患者からの臓器移植報道でまたもや人間の生と死とは何かという根源的な問題について多くの日本人が悩んだと思うのですが、遺伝子操作やクローン技術に続いて将来は、人工生命体と従来の生命体の違いをどこで引くのかという問題も起こりうる状況があるのではないでしょうか。 現在のフォン・ノイマン型計算機とかCMOSプロセスでの回路製造などの枠組みや技術では仕組みやスケール的に、人間の指向や感情を表現するのは困難なのかもしれませんが、コンピュータの幾何級数的な進歩の速度を考えますとバイオコンピュータや量子コンピュータ、光コンピュータ、ニューラルネットワークコンピュータなど今は名前が先行する次世代技術の基礎研究が何らかの発明・発見を期に20年くらいのうちに急速に実用化される可能性だってあると思います。 神経系の研究や脳の思考の仕組みも少しずつ解明されているようですし、ひょっとすると21世紀の前半で感情表現する柔らかいエージェントも登場するかもしれません。先日、自らが描いた新世紀目前で惜しくも他界したスタンリー・キューブリック氏の「2001年宇宙の旅に出てくる」HALが実現してしまうかもしれないと思うのです。たとえドラえもんはできないにしても(笑) テクノロジーの進歩によって人間は時間や空間、経済や社会に関する基本的な価値観を変えてきたと思うのですが、感情を表現し、思考するソフトウェアエージェントが誕生したら、産業革命以来の社会的変化や意識変化が起きるのではないでしょうか。現在までのところ、インターネットコンテンツに対する法的規制が検討されている段階ですが、やがてインターネットエージェントの社会化によって法整備も進むものと思われます。プログラマやWebコンテンツ作者はアルゴリズム研究や次世代の”超”高級プログラム言語の勉強だけでなく法律の条文と戦う必要もでてくるのかもしれません。政治家の公約にもエージェント規制や逆に規制撤廃法案を打ち出す候補者も登場するのでないでしょうか。 現在米国では既に、コンピュータやインターネットのリテラシーがあるかないかで所得格差が生まれているという統計もあります。産業構造の変化や地域による違いはあるにせよ、事実としてそのような数字があるとすれば、次はコンピュータ・インターネットリテラシーよりもエージェントをうまく設定できるか、使いこなせるかといった新しい「ソフトウェアエージェントリテラシー」が持つものと持たざるものを分ける要素にさえなるかもしれません。 また政治や経済、外交といった国際舞台においても、例えば各国の景気の動向はソフトウェアエージェントのビルトイン・スタビライザーのアルゴリズムの出来具合によって国力の要まで決まってしまったり、外交では翻訳だけでなく法律・計算・ユーモアや教養を介するソフトウェアエージェントが外交官の政治ゲームを支援したり、上述したE-ThePeopleのような自動化されたロビイイングエージェントが政府の制作決定に影響を及ぼす可能性もあるでしょう。 事実、軍事の面では既に、IT技術が大きなアドバンテージになっており、数世代後の主力戦闘機は重力負荷によるパイロット視界のブラックアウトをも超越できる無人飛行機になるという噂もあるようです。パイロットは安全な軍事基地からソフトウェアエージェントの力を借りて戦闘を行うようになるとかいう話です。フライトシミュレータのパワーゲーマーが将来国防を担って億単位の報酬を得る日も近そうです。 そして、無論、肝心のアクセス向上に関しても、ビジターを集めたり、とどまらせたり、再訪問を促したりといった一連のアクセス向上プロセスや、商品の販売やコミュニティ活性化、サイトのメンテナンスやビジネスサイトのバックヤードといった側面でもインターネットエージェントがコンテンツ内容に並ぶ重要な役割を占めるのではないかと思います。 ------------------------------------------------------------------------------- 【参考文献】 書籍 ・「心の社会 」 人工知能一般について参考 マーヴィン・ミンスキー著 産業図書 ・「野生の思考」 親族構造や関係性について参考 クロード・レヴィ・ストロース著 みすず書房 ・「利己的な遺伝子 増補改題 生物=生存機械論」 ミームについて参考 リチャード・ドーキンス著 紀伊国屋書店 ・「ゲーデル、エッシャー、バッハ」 自己組織化する系について参考 ダグラス・R・ホフスタッター著 白揚社 Web上のリソースに関しては本文内で紹介致しました。 ------------------------------------------------------------------------------- 【最後に:もしも全部読んでくださったら大感謝!】 メーリングリストへの投稿としてはかなり長い文章だと思います。ここまでおつきあい下さった方が何人いらっしゃるか大変不安なのですが、拙文を全部お読み頂きありがとうございます。ぜひご意見、ご感想を、アクセス向上というテーマに則した範囲で頂けると嬉しいです。ありがとうございました。 メーリングリストへの投稿と言う前提で書き始めていたのですが、途中から熱が入り始めて、長文になってしまいました。MITを初め、学術的なエージェント論は数が多いのですが、ユーザの視点、ウェブマスタの視点、インターネット事業に成功したい人の視点からのエージェント論を読んだ事がなかったので、自分で書いてみたいと思ったのでした。 「エージェントの分類」ではエージェントではあっても「インテリジェント」と言えるかどうか怪しいものも収録しました。しかし、現在はインテリジェントでない単なるエージェントが次第にインテリジェント化していく流れはあるだろうと考えます。また、以前、アクセス向上委員会で紹介したエージェントサービスの多くは重複するのが面倒なので、割愛したものがあります。もし関心のある方は過去ログをたどってみてください。 最後はいっきに眠らず書き上げているので雑な部分があります。まあこれは私的ドキュメントなんで自分で校正するしかありません。もともと、乱筆屋でありまして編集者さんを困らせてばかりのライターですので読みにくい部分ありましたらお許しください。 このドキュメントを叩き台にアクセス向上委員会メーリングリストで議論できたら嬉しいです。最低限の叩き台程度のクォリティに達しているかどうか定かではありませんが。 さあ、このドキュメントは強いミームになれるでしょうか?がんばれ私のミーム! このドキュメントはプレーンテキスト版、HTML版、XML版(作成中)の3種類を以下のURLに置いてあります。加筆修正した場合には以下のURLのドキュメントを更新致します。 なおアクセス向上委員会メーリングリストへの投稿時点でのドキュメントのバージョンは 1.0です。再配布(メールの私的転送に限る)はコピーライトを含む全文での掲載が条件です。私的メール転送以外やオフラインでの転載はお辞めください。但し、アクセス向上委員会メーリングリスト内での議論においてはもちろん引用転載補足自由です。だってその為に書いたのですから。 ・成功するインターネットソフトウェアエージェント論 http://www.access.or.jp/agent/index.html ------------------------------------------------------------------------------- |橋本 大也 ( Daiya Hashimoto ) mailto:hasimoto@sf.airnet.ne.jp |アクセス向上委員会管理人 http://www.access.or.jp |「アクセスを増やすホームページ革命術」毎日コミュニケーションズ |インターネットコンテンツのデザイン&マーケティング |調査、ライティング、コンサルティング、システム構築仕事人 EOF