たにちゅーの思惑|谷口忠大Home Page(たにちゅー・どっと・こむ)

たにちゅーの思惑|谷口忠大Home Page(たにちゅー・どっと・こむ)

たにちゅーの思惑|谷口忠大Home Page(たにちゅー・どっと・こむ)

たにちゅーの思惑|谷口忠大Home Page(たにちゅー・どっと・こむ)

たにちゅーの思惑|谷口忠大Home Page(たにちゅー・どっと・こむ)

たにちゅーの思惑|谷口忠大Home Page(たにちゅー・どっと・こむ)

たにちゅーの思惑|谷口忠大Home Page(たにちゅー・どっと・こむ)

たにちゅーの思惑|谷口忠大Home Page(たにちゅー・どっと・こむ)

たにちゅーの思惑|谷口忠大Home Page(たにちゅー・どっと・こむ)

2017 年 11 月
« 1 月    
 12345
6789101112
13141516171819
20212223242526
27282930  

新着記事

最近のコメント

HOME  > たにちゅー思惑 > 研究

「SIFTよりコッチ!?」=> ORB: an efficient alternative to SIFT or SURF

2012-12-28 (fri)|カテゴリー:コメント:0

画像特徴量といえば, SIFT,SURF ばかりの単調な僕に李先生が教えてくれました.

「最近,うちはORBばっかりですよ」

なんですと.

Willowgarage が出している descriptor らしい.

よって,当然のようにOpenCVに入っている.

ポイントは,とにかく軽い.バイナリのdescriptor.

論文は

https://willowgarage.com/sites/default/files/orb_final.pdf

なのだが,

この論文がまた,サーベイ的なものがしっかりしていて,また,勉強になる.

頭の良い感じの論文だ.

 

簡単にいうと,

パッチの中にサンプル点をふって そこのintensityを二対比較しまくるという,

なんとも,あっさりとしたもの.

ただ,もちろんrotationやscaleは考慮しないといけないので,そのあたりはやりますよと.

 

image

 

image

それでパフォーマンスが出るんですよと.

まぁ,そういうことらしい.

素晴らしい.

 

今年のIROS2012に,RGB-D のバイナリのdescriptorでBRANDって論文が出ていて

現在,某Iくんがラボで実装してくれているのだが,

これは,ORBにとても良く似ていて,それにDepthをORで足し込んだ感じになっている.

 

音の特徴量も,画像の特徴量も,ある種職人芸みたいな世界がつづきますが,

なんとなく,徐々に洗練されている感はありますね.

 

本論文は読んでみるととても良いと思います.

# 最低限のSIFTの知識くらいはあったほうがよいだろうけど.

 

私はそのあたりは完全にユーザなので,適宜使わせていただきます.

A Bayesian Nonparametric Approach to Image Super-resolution

2012-12-28 (fri)|カテゴリー:コメント:0

arxivからの論文

http://arxiv.org/pdf/1209.5019.pdf

A Bayesian Nonparametric Approach to Image
Super-resolution

Gungor Polatkan, Mingyuan Zhou, Lawrence Carin, David Blei, and Ingrid
Daubechies

 

ノンパラメトリックベイズでは有名な Bleiのグループとの共同研究といった感じでしょうか?

超解像技術(super-resolution)は低解像度画像から高解像度画像を作る技術.

全画素の組み合わせに対して,実際に観測される組み合わせは非常にスパースであることから,

パッチを組み合わせることで,高解像度画像を低解像度画像から復元することができます.

そのためには,辞書(Dictionary)を持つ必要があるのですが,

それをどのように作るかが問題となります.

 

筆者らは過去に

NIPSで

Non-Parametric Bayesian Dictionary Learning for
Sparse Image Representations

http://books.nips.cc/papers/files/nips22/NIPS2009_0190.pdf

を発表しており,ノンパラメトリックベイズを用いて,Dictionary Learning にノンパラメトリックベイズを

応用するということをやっています.

 

それをsuper resolutionに応用するというのが主な筋立てです.

 

基本的にスパースな表現を得る場合には,L1ノルムを用いて刈り込む事が多くて,

超解像でもこれがよく用いられます.

Image Super-Resolution via Sparse Representation
Jianchao Yang et al.

などが良くリファレンスされるらしいです.

 

これに対して,ノンパラメトリックベイズ業界(?)ではスパースな表現にする,

つまり用いない次元を作るような場合には,ベータ・ベルヌーイ分布を導入し,スイッチを作るのが定石です.

 

例えば,

Sharing Features among Dynamical Systems
with Beta Processes

Emily B. Fox et al.

http://videolectures.net/nips09_fox_sfa/

では,HDP-HMM の各隠れ状態に対してストリーム毎にベータ・ベルヌーイのスイッチを設けて,使わない隠れ状態をオフにします.

ちなみに, @k_ishiguro  さんの,

Subset Infinite Relational Models
Katsuhiko Ishiguro et al.

でも,ベータ・ベルヌーイのスイッチをつくって,汎用的な出力分布を用いる(IRMの外に吐き出してしまう)か,

通常のIRMの側に入れるかをえらぶようにしていたりします.

 

というわけで,

「L1刈り込みの代わりを,ノンパラベイズでやるなら,やっぱベータ・ベルヌーイっしょ!」

という,結構ストレートフォワードな適用があるわけです.

 

image

グラフィカルモデルはこんな感じ.

l と h はlow resolution と high resolutionを表している.

xl と xh が観測.

Di と Dh が辞書.

で si が係数なんですが,

zi がいわゆるベータ・ベルヌーイのスイッチで,0,1 をとる.

これによって,使う基底,使わない基底が,0,1でオン・オフされることで,

スパース表現を得るわけである.

なんとも,ストレートフォワードな論理である.

 

ちなみに,これだけでは綺麗にならないみたいで,最後に平滑化処理っぽいことをやる.

image

 

実験の結果は

image

こんなかんじなのだが,正直,よくわからない・・・.

 

どうも既存手法に勝てているか微妙なのだが,

なるほどな,とおもったのは, Fig.8 で

image

こんな図がある.

これは,辞書の要素数(もとの次元数)を大きくしていった際,BPの場合は打ち切り最大数を大きくしていった時にどうなるか

を示しているのだと思うが,

その時に,ScSR(L1ノルムでのスパースコーディング)はピークを持ってしまう.

これに対しノンパラメトリックベイズのアプローチでは,十分な 要素数があれば,良い値を推定できるので,その良さが維持される.

 

これは,BPのアプローチがもともと無限の状態数を前提として組まれているのに対して,

L1の正則化項は 無次元量でもなく,要素数に影響を受けてしまうからだろう.

 

なるほどねー.

とは思うが,計算量とか考えても,実用的にはL1で行ったほうが,楽で実用的なのかなぁ,と思った次第でございます.

 

本内容は,

Xian-Hua Han (韓 先花) Ph.D にご紹介いただいて (Thank you very much

http://www.iipl.is.ritsumei.ac.jp/XHHan/index.html

それを,僕が勝手に理解したものを書いたものであり,

この記事の内容に誤りがあった場合は,僕を責めてくださいませ.

知能シンポ2013 OS 「コミュニケーション場のメカニズムデザイン」 へのお誘い

2012-12-18  (tue)|カテゴリー:コメント:0

昨年度に引き続き,下記の要領で,

第40回知能システムシンポジウム
http://www.sice.or.jp/~i-sys/is40/
期日:2013年3月14日(木)、15日(金)
会場:京都工芸繊維大学

においてOS「コミュニケーション場のメカニズムデザイン」を提案いたしまして,採択いただきました.

昨年度プログラムはこちら http://www.sice.or.jp/~i-sys/is39/39Program-Up.pdf

コミュニケーション場のメカニズムデザインは,人を含んだシステムを如何に設計するか,支援するかに於いて
重要な課題であると考えております.

どなたでも御発表いただけます.

是非,論文投稿と御発表いただければと思います.

関連の御発表をいただき,建設的なディスカッションに興じる事ができれば幸いに思います.

—————————————————-
OS「コミュニケーション場のメカニズムデザイン」

近年,知識社会の高まりもあり,企業や大学といった公式な組織から地域やオープンネットワークといった非公式な組織において,如何に
知識共有や情報処理,発想支援や創造的活動を行うかという事が本質的に重要となってきている.

また,組織には目に見える集団としての組織のみならず,ウェブ社会の中で会ったことも無い人とのコラボレーションによって新たな知的創造を
行うオープンコラボレーション活動が注目され,リアルタイムウェブの進展と共に可能性を広げている.

このような知識社会における相互作用,記号過程を促進するために,様々な情報技術が用いられて来たが,モノとしての支援だけでは,
失敗に終わる事が多く報告されてきた.

そこで本セッションでは設計対象をモノからコミュニケーションの場やそれを支えるメカニズム(制度)などのコトに変更し,
新たな知的相互作用の支援や人間集団における情報処理のあり方,それを支える場やメカニズムについて議論したい.

キーワード

コミュニケーション支援,制度設計,会議の経済学
サイエンスコミュニケーション,予測市場,マスコラボレーション
ビブリオバトル,ネットワーク科学,メディア論,知識創造支援 など

参考文献
谷口忠大,須藤秀紹
コミュニケーションのメカニズムデザイン : ビブリオバトルと発話権取引を事例として システム制御情報学会誌 55(8)339-344 .(2011)
http://tanichu.com/wp-content/themes/tanichu/data/journal/cmd_kaisetsu.pdf
谷口忠大
コミュニケーション場のメカニズムデザイン - 自律性 を活かす記号過程のための制度設計 -
第39回 知能システムシンポジウム, .(2012)
http://tanichu.com/wp-content/themes/tanichu/data/pdf/chino12_cmd.pdf

———————————————————————-
第40回知能システムシンポジウム講演募集
http://www.sice.or.jp/~i-sys/is40/
システム・情報部門知能工学部会では、システムの高度知能化を目指した
様々な分野に関する研究発表の場としてシンポジウムを開催しています。
次回の第40回シンポジウムでは、個別の理論・技術とともに、それらの統
合によるシステムの高度知能化に向けて、学術的かつ産学間での交流をは
かるべく、下記の要領で一般講演を募集いたします。交流の場を一層広げ
るため、オーガナイズドセッションのご提案も歓迎いたします。
講演内容:
知能工学・人工知能・知能制御・学習・認知・ファジィ・ニューラルネット・
群知能・進化計算・メタヒューリスティックス・人工生命・創発システム・
ヒューマンインターフェース・社会情報システムなど、
知能システムの科学的解明と工学的実現・応用に関する研究を広く募集します。
期日:2013年3月14日(木)、15日(金)
会場:京都工芸繊維大学 松ヶ崎キャンパス(京都市左京区松ヶ崎橋上町)
講演申込締切:2013年1月11日(金)
講演申込方法:下記のウェブページからお申し込みください。
http://www.sice.or.jp/bukai_web_appli/sindex.html
原稿送付締切:2013年2月8日(金)必着
講演原稿:A4版4または6ページ
講演時間:25分
学術奨励賞:本シンポジウムは学術奨励賞の審査対象となります。
参加費(論文集代含):
登壇参加者8,000円、会員参加者4,000円、学生会員参加者2,000円、
非会員参加者6,000円、学生非会員参加者4,000円
主催:計測自動制御学会 システム・情報部門
企画:知能工学部会
協賛:情報処理学会、システム制御情報学会、電子情報通信学会、
電気学会、日本機械学会、人工知能学会、日本知能情報ファジィ学会、
ヒューマンインタフェース学会、進化計算学会、
Japan Chapter of IEEE Control Systems Society、
Japan Chapter of the IEEE Society on Systems, Man, and Cybernetics
(依頼中を含む)
問合せ先・オーガナイズドセッションの提案:
京都工芸繊維大学大学院工芸科学研究科 飯間 等
電話:(075)724-7467、Email:iima@kit.ac.jp
———————————————————————-

Shared Segmentation of Natural Scenes Using Dependent Pitman-Yor Process のメモ

2012-05-21 (mon)|カテゴリー:コメント:0

一昨年くらいに,今はNAISTに言ったK君に紹介してもらった論文.

今から考えるとお恥ずかしい話なのですが,当時はGaussian Process をよくわかっておらず,

その時は意味をとることができませんでした.今なら,ワカル!!!!

ってことで NIPS ‘08 の論文です.

著者は

Erik B. Sudderth and Michael I. Jordan

でいつもながら,ジョーダン研ですね.

ホントにこのラボは凄いですね.

ちなみに,Erik B. Sudderth さんは, 僕がここ2,3年よく使っている.

E. Fox の sticky HDP-HMM の共著者というところでも,認識しています.

 

本論文は, Segmentation of Natural Scenes ということで,

自然画像の領域分割を扱っています.

複雑なように見えて,意外と素直なアプローチに思えたので,良いと思います.

 

image

まず,第一歩として,写真の領域を人手でくくって,名前をつけたデータに対して,

そのラベルと,生起頻度がべき乗則を満たしているということを指摘します.

このあたり,よく考えると,自然言語文の単語生起そのもので面白いですね.

 

ゆえに,その頻度をモデル化するのにDPよりも Pitman-Yor 過程がいいだろう.という主張になっています.

# ただ,本件については,どこまで本質的かは,私は判断つかない.

 

次に,画像の領域分割の生成モデルを与えます.

image

3章でシンプルなBags of image features モデルを導入します.

基本的には,super pixcel 毎にtexture color のカテゴリが対応して,そこから多項分布で

生成される.というモデル.

LDAのセンスそのまま.

 

しかしながら,このようなモデルだと,空間的な連続性を与えられない.という話が出てきます.

 

そこで,4章にて 裏に,GPを走らせて,空間分割をやろうという.

Spatially Dependent Pitman-Yor Process の考え方があらわれます.

どうもこのあたりのアイデアは, [24] J.A. Duan 2007 のアイデアっぽいのですが,非常にセンスが良いように感じました.

おもしろい.

 

まず,sticky breaking-process が[0,1] 区間の値による,棒の切れ端の切断の繰り返しだということを思い出します.

通常,その切断はBeta 分布でやるんですが,ここでは,Gauss分布を上手く使うことによって,実現します.

それは,Gauss分布の累積分布関数(CDF)を持ってきます.そこで,vという確率に達する変数をu=Φ^{-1}(v) として計算できるようにします.結局このCDFの逆関数を介せば,0 or 1 の値を出す,関数がGauss をバックに構成できるわけです.

 

image

(4)式は地味にけっこうキモ.

 

このアイデアと stick breaking-process をくっつけることができる.

 

GPは基本的には平均関数mに従うので,分散共分散関数由来の,空間的な相関性を持ちながら,

上記のようなガウス分布のかわりを成すことができる.

 

image

 

 

学習は変分法を導入しており,,これにより高速に計算できる.

 

わざわざ,うつさないが,パフォーマンスは極めてよいようで,

多手法を圧倒しているようにみえる.

 

個人的には Gaussian Process と PYPのくっつけ方が実に上手いと思った.

これは,もっと他にも応用の可能性があるのではないかとおもいます.

 

 

ちょっと,今日は眠すぎたので,説明がわからなくなってしまった・・・・.

また,気が向いたら,もう少し分かりやすく書きます.ではでは.

Understanding the metropolis-hastings algorithm のメモ 「メトロポリス-ヘイスティングス法を理解しよう!」

2012-05-11 (fri)|カテゴリー:コメント:0

Understanding the metropolis-hastings algorithm
Chib, S. and Greenberg, E.

American Statistician, 1995 – JSTOR

pages={327--335}
 
を読んでみた.「なに!今更!」とかいうツッコミはやめて下さい.
僕のベイジアンっぷりは完全に付け焼刃なので,基礎が欠落してたりするんですよー.
メトロポリス-ヘイスティングス法は PRMLで読んで,ユーザとしては理解していたつもり
でしたが,何といいますか,ちゃんと腑に落ちてなかったのですね.
 
上のような論文を得まして,読ませて頂きました.
非常に分かりやすく,Acceptance-rejection samplingの話しなどを交えながら
書いていただいております.
 
で,どういう理由で,メトロポリス-ヘイスティングス法の acceptance ratioが出てくるのか,
何を前提にしているのか,などが順を追って書いてあります.
メトロポリス-ヘイスティングス法だけについての文章ですし,
また,1995年(17年前!??) ということで,当時の「背景」も臭ってきて,
いろいろ腑に落ちました.
 
メトロポリス-ヘイスティングス法とか,Gibbs sampler とかは,
「アルゴリズム」
として,受け入れてしまってやるのは,簡単なんですが,
その奥のココロをわかっておいた方が,やっぱり良いなぁ,と思う次第です.
 
巨人の肩より下を理解してから,巨人の肩に乗っていきたいものです.
ありがとうございます.
 
ただ,まぁ,PRMLをちゃんと読んどきましょう.って話もあります.^_^;

Josh Tenenbaum “How to Grow a Mind: Statistics, Structure and Abstraction”

2012-05-11 (fri)|カテゴリー:コメント:0

How to Grow a Mind: Statistics, Structure and Abstraction
Josh Tenenbaum

NIPS2010で行われた講演.

MITのProfessor

D.Roy や Kemp, Griffiths,らの師匠なんですね.

若いのにスゲェ・・・.

 

心を機械学習でモデリングする,理解しようという人にとっては必聴の講演だとおもいます.

とても,よかったです.

 

Topic的にも多岐に渡っていますが,

基本的には Graphical model, Nonparametric Bayes などのモデルで

人間の心のプロセスを表現しよう という感じのアプローチ.

 

で,工学的にも効果的な事ができているので,

まったくもって,私としては共感できるお話でした.

http://web.mit.edu/cocosci/josh.html

 

ちなみに NIPS2010は現地に居たはずなんですが,,,,

多分時差ボケで死んでいた時かもしれません,,,,

Variational MCMC のメモ

2012-05-08  (tue)|カテゴリー:コメント:0

Variational MCMC
Nando de Freitas, Pedro Hojen-Sorensen, Michael Jordan, Stuart Russell

http://uai.sis.pitt.edu/displayArticleDetails.jsp?mmnu=2&smnu=2&article_id=91&author_id=4

を読みましたので,そのメモです.

 

名前の通りで,とてもシンプルでかつ読みやすい論文でした.

もう10年も前の論文ですが,分かりやすいポイントを突いているのではないでしょうか?

 

基本コンセプトは全くシンプルで,acceptable

Variationl Bayes (変分ベイズ)では,分布を変分近似して推定しますが,大域最適まで持って行け無い.

いっぽうで,MCMC(メトロポリス=ヘイスティングス法を基本に考える)では,提案分布自体が,対象の確率分布と

随分違えば,良好な結果が得られない.

 

そこで,提案分布を近似でいいから,元の分布に近づけて上げようというはなし.

VBで近似した分布を提案分布に使って,サンプリングするんですね.

 

VBの説明から丁寧にしてあるので,読みやすいです.

 

しかし,ここまでなら,とても,ストレートなのですが,実は,

We show that naive algorithms exploiting this property can mix poorly,

というのがニクい ポイント.

つまり,ただ,VBで近似した分布で提案続けても,あまり良くないよー.

ということ.

 

なんで?? の説明は3章冒頭に書いてあって

 

Both the importance
sampler and independent MH algorithm are well
known to perform poorly in high dimensions unless the
proposal distribution is very close to the target distribution
(Geweke 1989, Mengersen and Tweedie 1996).

 

ということ.VBで提案分布をつくっても,確かに,サンプリング対象の分布には近いかもしれないが

一回一回のサンプルを独立にとっていたのでは,なかなか,ずれた対象分布をサンプルできない.

MCMCとしては,サンプリング出でてきた点を上手く利用しながら次のサンプルを作っていったほうがいいのだ.

 

そこで

but address this problem by introducing more
sophisticated MCMC kernels based on block sampling
and mixtures of MCMC kernels

 

ということになる.

前者が 3.1 後者が 3.2に書かれている.

後者は,基本的には,遷移カーネルの混合や,積も同様に遷移カーネルになるよね.

という話で,それを上手く使っていこうということ.

 

一方で前者の block sampling はサンプリングしたデータをとっておいて,

Gibbs sampler みたいに,サンプル対象の変数以外を固定して,サンプリングするというもの.

そうすると,他の変数が引っ張ってくれるので,徐々に,対象分布をサンプリングしてくれるって

寸法ですね.

 

image

http://uai.sis.pitt.edu/papers/01/p120-de_freitas.pdf

 

まぁ,このくらい明確に差はでますよと.

 

感想としては,

コンセプトとして分かりやすく面白いかな と思いました.

 

わざわざ変分ベイズを使うかはおいておいて,

提案分布に近似分布を用いて,メトロポリス=ヘイスティングスでblock samplingを使うというのは

とても有用そうだし,適用もしやすいように思いました.

 

ちょうどそういうアルゴリズムを考えていた際に, twitter で @issei_sato さんに教えていただいた論文でした.

感謝!!

 

 

 

 

 

まちがっていたら, @tanichu までつっこんでください.

Bayesian Policy Search with Policy Priors のメモ

2012-05-05 (sat)|カテゴリー:コメント:0

ここ1年ちょっと MCMC と強化学習をくっつける類の妄想にとらわれていたのだが,あんまり,その手の話は耳に入っていなかった.

# ここ二年半は完全に頭がノンパラメトリックベイズに始まるベイズへの傾倒中.

前出の annotated hierarchy や mondrian process などの物色中に,関連しそうな文献を発見したので読んでみた.

 

Bayesian Policy Search with Policy Priors
David Wingate, Noah D. Goodman, Daniel M. Roy, Leslie P. Kaelbling and Joshua B. Tenenbaum

Proc. Int. Joint Conf. on Artificial Intelligience (IJCAI), 2011.

http://www.stanford.edu/~ngoodman/papers/WingateEtAl-PolicyPrios.pdf

 

である. D. Roy はここのトコロ 連打で読ませていただいているMITの若手.

Kaelbling はかなり昔から強化学習で名前が出ているMITの先生ですね.

博士課程時代も文献読んで いろいろ勉強させていただいた気がします・・・・

 

さてさて,主なウリとしては 強化学習の Policy の学習に Priorr を入れることで,Transfer learning みたいなことが出来る

的な話なのだが,ポイントは,

1. 強化学習のPlanning optimization(学習)を Inference 問題に置き換えるところ

2. MCMC で推定するところ

だ.

1.については,過去の研究では 最尤推定に持って行って,EMアルゴリズムとつなげることが多いようだが,

それを事前分布を持つことで MAP推定に置き換えている.そして その御蔭でPrior の入り込む余地が生まれる.

ということのようだ.

 

1.Inference に置き換えるプロセスだが, ざくっというと 評価関数を expに置き換えて,無理やり

確率分布にしてしまう類のやつだ.僕もチャンク抽出でやったことがある

数式的には本文引用だが

 

 

これがreference していた論文など.

image

ここでcomplete

 

ちなみに, Policy の改善は 新しい 方策を提案分布から提案し,価値関数から確率を出して

採択するかを決めるという メトロポリス・ヘイスティングス法を使っている.

このために,価値関数は求められる(!)という,仮定を入れている.

# 結構凄いな・・・

 

様々なprior を準備して,有効性を検討している.

Prior 間の比較はあるのだが,他手法との比較がないので,本手法のパワフルさはよくわからなかった.

 

MCMC を使った強化学習ということで,ちょっと面白くはあったし,

報酬値->価値関数を何とか確率モデルの中に包み込んでしまいたい

というモチベーションは一緒なので,こういうのをもっと進めていければとおもいますね.

 

僕としては行動生成の a の選択の乱択を上手く含められたらいいように思うんですがねー.

 

以下,本論文の関連でざっとよんだ.


Hierarchical POMDP Controller Optimization by Likelihood Maximization

Marc Toussaint et al.  UAI ‘08

http://uai2008.cs.helsinki.fi/UAI_camera_ready/toussaint_revised.pdf

video lecture

http://videolectures.net/uai08_toussaint_hpco/

では Hierarchical finite state controller という方策器をEMアルゴリズムで最適化するという話.

トリックとしては,discount parameter を 徐々に長さを伸ばしていくDBNのmixtureを扱うというもの.

EMはlocal minimam にはまるよね.とは,言及している.

 

EMを使ったplanningを Marc Toussaintが示したのは,ICML 06

Probabilistic Inference for Solving Discrete and Continuous State Markov Decision Processes

Marc Toussaint and Amos Storkey

のようでした.

http://eprints.pascal-network.org/archive/00003921/01/ToussaintStorkey2006ProbabilisticInferenceSolvingMDPs.pdf

ここで, DBNのmixtureを扱うことを提案し MDPの場合に Planning を EMで解く方法を提案している.

 

 

コレはメモですので,

間違ってたらご指摘下さいませー.

 

 

Inference を使った強化学習では

Toussaint さんが activity高そうですね.

The Mondrian Process のメモ

2012-05-04 (fri)|カテゴリー:コメント:0

The Mondrian Process
Daniel Roy

2008年 Teh さんも共著の Mondrian Process の発表

 

視覚的にキャッチー(?)で興味を引く.

まだ,キラーアプリ(というかいいInference method ?)が無いようですが,

D. Roy 自身も,Teh さん自信も なんとなく端々から,けっこう「気に入っている」様子なのです.

僕も気になる存在ではあります.

 

簡潔にいうと  DP の多次元拡張.

より,感覚的に言うと Stick Breaking Process の 多次元拡張です.

棒を折っていくのではなくて,面を切っていくというプロセスになります.

 

モチベーションとしては,

Royさんらが提案してきた Annotated Hierarchy とかは, Relational Data に対しての

Tree clustreing を bi-clustering できるようにしているのですが,

Self-consistent ではないということ.

 

image

 

Goal: Self-consistent, multiresolution (ideally hierarchical)relational modeling

ということです.

 

Not satisfied by IRM, coalescent, annotated hierarchies

 

といっているだけに,このモチベーションは IRM ,Annotated Hierarchies あたりを押さえていないと

よくわからない気がします.

 

Mondrian Process の生成過程は木構造的なので再帰的にかけまして,

 

 image

結局は縦方向と横方向に 予算 λが切れるまで分割し続けるというものです.

 

個人的には上の スライドの表記よりも 原著論文の 3.2 Generalizations tohigehr dimensions and trees の

方が簡単な例を示していて理解しやすいです.上の定義は 一般の測度まで自然に表現したもの.

 

image

↑3.2 に載っている簡単な例を 図解してみました. こちら.

 

 

本論文では,これを使ってrelational data の co-cluastering に持って行きたい気持ちは

十分に語っているのですが,よいinference 手法を提案するまでは行っていないようです.

実験では

We employed a number
of Metropolis-Hastings (MH) proposals that rotated, scaled, flipped, and resampled portions of the
Mondrian.

ということで,とにかく いろんな提案分布を使って混ぜながら, MH法で inference したとのこと.

 

個人的な感想としては,スキなんですが,

ここまで自由度をもたせたco-clustering での結果を「どう解釈するか?」というのも,

難しい問題だなぁと思いました.

 

自由度的には IRMよりも AH よりも上がっているわけで,,,,,,

 

とはいえ,数学的にはイケテル構造物のようなのでどこかでブレイクスルーすることを期待しております.

 

ちなみに,個人的には,面っていっているけど,これって,やっぱり値付きの木構造の生成じゃないの?

と思ったりもします.なんとなくなので,詳細はより踏み込まないといけませんが.

 

やっぱり,IRMの使い勝手の良さが,今は先にたってるかな,,,という気もします.

集合を積集合で捉えるのって,非常にGeneral なので・・・

 

では,最後に必見の, Mondrian Process 動画をどうぞ・・・・

The Mondrian Process

 

現状,僕はあまりいい応用法を思いつきませんが,フォローしたいと思います.

 

そして,これが,現代美術家 Mondrian の絵です.

image 

 

 

たにちゅー・谷口忠大・tanichuたにちゅー・谷口忠大・tanichu@tanichu

Mondrian Process の 動画 > http://youtu.be/JLotRY0fIug

Learning annotated hierarchies from relational data のメモ

2012-05-04 (fri)|カテゴリー:コメント:0

筆頭著者のD. Roy さん 若いしカッコイイなー.@MIT

自分のホームページのアイコンがMondrian Processなのも好感が持てます.オイ.

本人のホームページはこちら http://danroy.org/

twitter は @roydanroy です.

MIT でPhD をとったばかりという若手の研究者ですね.

とはいえ,PhD Candidate 時代からバンバン 有名人と共著でNIPS始め出しまくっている感じです.

 

原著論文

http://danroy.org/papers/RoyKemManTen-NIPS-2007.pdf

 

さてさて,Nonparametric Bayes な Relational Data のクラスタリングに関わる論文なんですが,

# もはや,どこからどこまでがノンパラベイズか,僕のなかでわからなくなってきつつありますが・・・・.

本論文は Mondrian Process の2年前,Infinite Relational Model の1年後の 2007年にだされていますね.

 

abstract をざっと読んだ感じでは Infinite Relational Model のツリークラスタリングへの拡張かと思ったのですが,

単純に拡張というわけでもない.

もちろん,良く似ているものをシェアしています.

 

どういうことをやりたいかというと,

image

こういうことをやりたい.

複数の関係データがあったときに, それらを階層クラスタリングする,階層 Co-clustering ですね.

 

この階層,といか木構造がどういう意味での木構造を意味するかは,読んで洞察をえてもらうとして,

# 結局は generative model を理解しないと,どういう階層がえられるのかも見えてこない.

 

generative model いってみましょう.

 

本論文では,co-clustering で無い場合,普通のobjectに対して複数のfeatureが並んでいる場合の

階層クラスタリングの話しから入ります.

image

上のようなかんじ.

 

generative model としては,

 

1.木の生成 = binary tree の一様分布からランダムに 木が生成される.

2.各subtree(結局はそのルートが生えてるエッジに対応)に対して 重み w_n を与える.(指数分布利用)

3.重みを用いた通過確率でルートから木を伸ばしていく.(1.でサンプルした二分木が全部使われるわけではなく,確率的に枝刈りされるイメージか?)

4.すべてのカテゴリー(subtree)に対して,ベータ分布からfeature を生成するための確率 \theta を割り振る

5.\theta を使って,Bernoulli分布を使って feature のon /off のサイコロをふる.

※4.5.はIRMと全く一緒ですね.

 

面白いのは,tree をツリー空間の一様分布からとってくるところと,そこから枝刈りをかけることで,

いろんな深さのクラスターを各データセットに与えているところでしょうか?

 

関係データでは,これを 縦・横 双方の軸にたいして 同時に行います.

ここで,ポイントは,実は,縦と横が 同じ集合であることを仮定している点.

ここは, IRM よりも問題として狭いです.

例えば, 学生名×学生名 で「AはBの友達」のようなデータセットを考えているわけです.

 

ゆえに,1. で生成する木も,縦横同じ木を生成します.

 

 

さて,こんなモデルですが,Inference はどうするのかというと,結局,Metropolis-Hastings (MH)アルゴリズムを

使わざるを得なくなります.

i. Subtree Pruning and Regrafting

ii. Edge Weight Adjustment

iii. Subtree Swapping

という提案をそれぞれ用いて,Metropolis-Hastings (MH)アルゴリズムを構成します.

 

あとは,実験などが載っています.

 

どういうものに応用するかは,考えないといけないところですが,

同じ集合間の関係性抽出が主なやりどころになるのではないでしょうか?

 

IRMよりかは,適用先は狭いのかな,と思います.

また,MH法を使っているために,IRMより収束は多分遅いのでしょう.

 

また,複数のデータセットを相手にしながらその奥に潜む共通のヒエラルキーを探すという視点で

ただのmixture でもないので, 関係データでない feature ベースの方だけでも,面白みは

あるかなとおもいます.

 

 

毎度,まちがってたらごめんなさい.

あくまで,僕の現状の理解です.

 Page 1 of 6  1  2  3  4  5 » ...  Last » 

インフォメーション



tanichuの著作

copyright © Tadahiro Taniguchi All Right Reserved.