arxivからの論文
http://arxiv.org/pdf/1209.5019.pdf
A Bayesian Nonparametric Approach to Image
Super-resolution
Gungor Polatkan, Mingyuan Zhou, Lawrence Carin, David Blei, and Ingrid
Daubechies
ノンパラメトリックベイズでは有名な Bleiのグループとの共同研究といった感じでしょうか?
超解像技術(super-resolution)は低解像度画像から高解像度画像を作る技術.
全画素の組み合わせに対して,実際に観測される組み合わせは非常にスパースであることから,
パッチを組み合わせることで,高解像度画像を低解像度画像から復元することができます.
そのためには,辞書(Dictionary)を持つ必要があるのですが,
それをどのように作るかが問題となります.
筆者らは過去に
NIPSで
Non-Parametric Bayesian Dictionary Learning for
Sparse Image Representations
http://books.nips.cc/papers/files/nips22/NIPS2009_0190.pdf
を発表しており,ノンパラメトリックベイズを用いて,Dictionary Learning にノンパラメトリックベイズを
応用するということをやっています.
それをsuper resolutionに応用するというのが主な筋立てです.
基本的にスパースな表現を得る場合には,L1ノルムを用いて刈り込む事が多くて,
超解像でもこれがよく用いられます.
Image Super-Resolution via Sparse Representation
Jianchao Yang et al.
などが良くリファレンスされるらしいです.
これに対して,ノンパラメトリックベイズ業界(?)ではスパースな表現にする,
つまり用いない次元を作るような場合には,ベータ・ベルヌーイ分布を導入し,スイッチを作るのが定石です.
例えば,
Sharing Features among Dynamical Systems
with Beta Processes
Emily B. Fox et al.
http://videolectures.net/nips09_fox_sfa/
では,HDP-HMM の各隠れ状態に対してストリーム毎にベータ・ベルヌーイのスイッチを設けて,使わない隠れ状態をオフにします.
ちなみに, @k_ishiguro さんの,
Subset Infinite Relational Models
Katsuhiko Ishiguro et al.
でも,ベータ・ベルヌーイのスイッチをつくって,汎用的な出力分布を用いる(IRMの外に吐き出してしまう)か,
通常のIRMの側に入れるかをえらぶようにしていたりします.
というわけで,
「L1刈り込みの代わりを,ノンパラベイズでやるなら,やっぱベータ・ベルヌーイっしょ!」
という,結構ストレートフォワードな適用があるわけです.
グラフィカルモデルはこんな感じ.
l と h はlow resolution と high resolutionを表している.
xl と xh が観測.
Di と Dh が辞書.
で si が係数なんですが,
zi がいわゆるベータ・ベルヌーイのスイッチで,0,1 をとる.
これによって,使う基底,使わない基底が,0,1でオン・オフされることで,
スパース表現を得るわけである.
なんとも,ストレートフォワードな論理である.
ちなみに,これだけでは綺麗にならないみたいで,最後に平滑化処理っぽいことをやる.
実験の結果は
こんなかんじなのだが,正直,よくわからない・・・.
どうも既存手法に勝てているか微妙なのだが,
なるほどな,とおもったのは, Fig.8 で
こんな図がある.
これは,辞書の要素数(もとの次元数)を大きくしていった際,BPの場合は打ち切り最大数を大きくしていった時にどうなるか
を示しているのだと思うが,
その時に,ScSR(L1ノルムでのスパースコーディング)はピークを持ってしまう.
これに対しノンパラメトリックベイズのアプローチでは,十分な 要素数があれば,良い値を推定できるので,その良さが維持される.
これは,BPのアプローチがもともと無限の状態数を前提として組まれているのに対して,
L1の正則化項は 無次元量でもなく,要素数に影響を受けてしまうからだろう.
なるほどねー.
とは思うが,計算量とか考えても,実用的にはL1で行ったほうが,楽で実用的なのかなぁ,と思った次第でございます.
本内容は,
Xian-Hua Han (韓 先花) Ph.D にご紹介いただいて (Thank you very much
http://www.iipl.is.ritsumei.ac.jp/XHHan/index.html
それを,僕が勝手に理解したものを書いたものであり,
この記事の内容に誤りがあった場合は,僕を責めてくださいませ.