セミナーレポート

誰にでもわかる車載画像処理 ―車の周囲を見る技術・見せる技術―日産自動車(株) 下村 倫子

本記事は、画像センシング展2011にて開催された特別招待講演を記事化したものになります。

座標変換と歪み補正で合成

 ここからは,撮影した画像からアラウンドビューモニターの画像をどうやって作るのか,ということを紹介します。
 まず,4つのカメラが撮影した画像がそれぞれあります。これらを合成して上から俯瞰した画像にしたい。仮想カメラがクルマの上空にあって,このカメラから見た映像を作りたいわけです。要するに,座標を変換したいということになります。カメラ座標系ではx,y軸が撮像面にあって,z軸方向に光軸があると仮定します。光軸はレンズの中央にあるので,光軸上にある物体は画像上では中央に映ります。仮想カメラで見た映像にしたい場合も,仮想カメラの光軸上にあるものは中央にあります。
図3 フロントカメラの例とアラウンドビューモニター

図3 フロントカメラの例とアラウンドビューモニター

 アラウンドビューモニターの場合は,「すべての物体は路面にある」という仮定をしています。路面上のある点が実カメラのある位置に映った場合,その位置は光軸からの角度と距離で決まります。実カメラ上の点が仮想カメラのどこにあるかというのは,「路面上にある」と計算されているので,そのまま仮想カメラの座標に引っ張っていけばよいのです。仮想カメラで見えるすべてのものは路面上にあるという前提で計算していくと,すべてマッピングできます。
図4 全方位俯瞰画像の生成

図4 全方位俯瞰画像の生成

 実際のクルマでは,もう一個,座標軸があります。ユーザー視点から見たクルマの座標系です。設計時に,クルマの座標に対してカメラの座標を決めて取り付けます。クルマの座標系のx-y平面は路面と平行な面になりますので,変換としては仮想カメラ上のものがこのx,y軸にマッピングされていきます。ただし,実際の処理ではここに歪み補正が入ります。画像の場所に応じた歪みによる位置ずれが分かっているので,あらかじめそうしたずれのマッピングを持っておいて,まず歪みを補正して,そのあと視点を変換するという処理になります(図3,図4)。

<次ページへ続く>

日産自動車(株) 下村 倫子

1991年,東京農工大学 工学研究科 電子情報工学博士前期課程終了。
1991年4月,日産自動車(株) 総合研究所電子情報研究所に入社。
現在,同社モビリティ研究室にて,運転支援に関する研究開発に従事(工学博士)。

アーカイブもっと見る

知能ロボットのための画像センシング技術の基礎と研究事例
知能ロボットのための画像センシング技術の基礎と研究事例...(11/25) 中京大学 工学部 教授・ヒューマンロボティクス研究 センター長 橋本 学
人と人の共感・連携を促しチームパフォーマンスを高める “Sensing & Control+Think”技術 -オムロンが描く「人と機械の融和」の一形態について-
人と人の共感・連携を促しチームパフォーマンスを高める “Sensin...(9/25) オムロン(株) 技術・知財本部 ロボティクスR&Dセンタ 水山 遼
自動運転のためのセンサーフュージョン技術
自動運転のためのセンサーフュージョン技術...(7/25) 芝浦工業大学 システム理工学部 機械制御システム学科 教授 伊東 敏夫
コンピュテーショナルイメージング概説
コンピュテーショナルイメージング概説...(7/25) 東京大学 大学院 情報理工学系研究科 准教授 堀﨑 遼一
ニューノーマルにおけるロボットビジョン研究
ニューノーマルにおけるロボットビジョン研究...(11/25) 産業技術総合研究所 インダストリアルCPS研究センター 堂前 幸康

▼ プラチナスポンサー ▼

株式会社リンクス

▼ メディアパートナー ▼

エキスポ・ゲートブリッジ

CIOE2024

APE2025

オープンイノベーションEXPO

ロボットワールド

ダウンロード

展示会FAQ