セミナーレポート
器用なロボットの実現を目指した3Dセンシング中京大学工学部テニュアトラック助教 秋月 秀一
本記事は、画像センシング展2019にて開催された誰にでもわかる特別講演を記事化したものになります。
物体の姿勢推定技術
3Dデータ処理の具体例の1つとして,位置姿勢推定を紹介します。これは,キーポイントマッチングを使い,シーン中に存在する対象物の位置姿勢である並進成分,回転成分を推定する手法です。対象物の3Dモデルをシーンと照合して,誤差を最小化する位置姿勢を算出します。全体の手順としては,モデルとターゲットのデータを入力し,キーポイントを検出します。特徴量を記述し,RANSACによる姿勢推定を行い,ICPによる精密位置決めを行い,姿勢変換行列を求めます。キーポイント検出では,特徴量を計算するための点を少数選択します。例えば,ダウンサンプリング結果を特徴点とするように,まばらな点に分割しておき,それぞれの点を特徴づけるような特徴量を付加させます。特徴量では一点一点のデータにIDをもたせます。例えば,Pという点に対して3次元の情報が載ってきます。特徴量記述では,ほかの点と区別しやすい特徴量を記述するのがポイントになります。
次に,類似する特徴量同士を対応づけします。基本的な方法としては,特徴量間のユークリッド距離を閾値にする方法があります。ただし,これだけでは誤った対応点が発生します。視点の違いによる見えていた部分が消え,見えていなかった部分が出現するといったことや,外乱物体の混入によるデータ欠損,よく似た形状の別部分の存在など,様々な要因で起こります。ですから,間違いを取り除き,正しいものだけを残すことが必要になります。
その1つに,RANSACによる誤った対応の除外と姿勢推定があります。これは,ミスを含む対応群から正しい対応づけのみを選択し,姿勢変換行列を推定するものです。対応点をランダムにサンプリングし,枝刈り処理を行い,推定・整合性をチェックするステップを繰り返します。
特徴点マッチングで得られた点のみから位置推定を決定すると若干の誤差が残ります。そこで,得られた位置姿勢を初期値とし,最終的にICPアルゴリズムによって誤差を修正します。このようにして,物体の姿勢推定を行います。
<次ページへ続く>
中京大学工学部テニュアトラック助教 秋月 秀一
2016年中京大学大学院博士後期課程修了。2016年度日本学術振興会特別研究員(DC2,PD)。2017-2018年度慶應義塾大学理工学部助教,現在,中京大学工学部テニュアトラック助教。慶應義塾大学訪問助教(兼任)。博士(情報科学)。3次元物体認識技術の研究に従事。2012,2017年画像センシングシンポジウム優秀学術賞,2015年MIRUインタラクティブ発表賞等受賞。電子情報通信学会,精密工学会,IEEE各会員。