セミナーレポート
ロボットに使える最新画像処理技術 ~物体認識のための画像局所特微量~中部大学 藤吉 弘亘
本記事は、画像センシング展2010にて開催された特別招待講演を記事化したものになります。
事前登録で高速化を図る
Randomized Treesでは,思い切った手法を採用しています。リアルタイムで認識を実現するために,事前にパターンを認識・登録するアプローチを使います。具体的には,図5に示すように1枚の画像がテンプレートとして登録されると,そこからランダムなパラメーターを使ってアフィン変換し,1万枚の画像を作ります。そして,その中から共通の特徴点を探し出します。 アフィン変換された画像において,毎回同じような特徴点が検出されます。このような特徴点は,アフィン変換しても検出しやすい点になります。図5では,アフィン変換しても共通に検出されるキーポイントのパッチをそれぞれA,B,C,Dとして並べてあります。キーポイントAはすべて同じ特徴点を持つパッチなのですが,さまざまなアフィン変換を施してあるので,局所領域で見ると形状が変わって見えます。ただ,パッチの中心を見ると,すべて同じ部分を表していることが分かります。Randomized Trees では,これらのキーポイントをランダムにサブセットに分けて,各サブセットごとに決定木(ツリー)を作ります。 オンラインの認識時では,入力画像からまず特徴点を検出します[図6(a)]。その特徴点を中心としたパッチ情報を,それぞれの決定木に入力します。入力したパッチは,その決定木のどこかのリーフにたどり着くのですが,「リーフにたどり着きやすいキーポイント」は事前に学習してあるので,1つ目の木ではキーポイントA,2つ目の木ではキーポイントC,3つ目の木ではキーポイントA,と決まります。最終的にどれが一番多く出現したかということから,この入力パッチでは「キーポイントAである」と認識できます。
しかし,学習画像を生成する時に,アフィンパラメーターをランダムに決定しているので,視点の偏りが生じるという問題が考えられます。また,多くの見え方が存在しているのを1つの決定木群で表現できるのかという問題もあります。 そこで,われわれは2段階のRandomized Treesという方法を提案しました[図6(b)]。これはまず,学習画像の生成時に各視点から見た画像を作ります。その生成画像から,2段階のRandomized Treesを構築します。1段階目では,「どちらから見ているか」という視点(ビューポイントクラス)を決定するRandomized Treesを構築します。視点位置が決まれば,次に,その視点からの生成画像を使って2段階目ではキーポイント分類のためのRandomized Treesを構築します。2段階のRandomized Treesを用いることでキーポイントをより高精度に分類し,対応点をリアルタイムで求めることができます。
<次ページへ続く>
中部大学 藤吉 弘亘
1997年,中部大学 大学院博士後期課程修了。1997年~2000年,米カーネギーメロン大学ロボット工学研究所Postdoctoral Fellow。
2000年より中部大学講師。
2004年,同大准教授。2006年,米カーネギーメロン大学ロボット工学研究所客員研究員。