セミナーレポート

誰にでもわかる車載画像処理 ―車の周囲を見る技術・見せる技術―日産自動車(株) 下村 倫子

本記事は、画像センシング展2011にて開催された特別招待講演を記事化したものになります。

あえて境界線を残す

 全方位カメラである「アラウンドビューモニター」をこれより紹介します。
 リアビューモニターのあとに「フロントビューモニター」というものが出ました。ブラインドコーナーからクルマのノーズだけ出して左右を確認したいというニーズに応えたものです。また,アメリカではこの考え方をバックビューに適用するシステムのニーズが非常に高いです。なぜなら,アメリカの駐車場ではクルマを頭から入れて後ろから出す場合が多いからです。
 もう一つ見えづらいのは夜間です。夜の視覚支援はやはりニーズが高い。遠赤外線や近赤外線を照射して映像を出すシステムなど技術的にはいろいろあるのですが,一番問題なのはコストだと思っています。ここでは「そういうものがある」というだけにとどめておきます。
 日産では,後方を表示するシステムを「バックビューモニター」,側方を表示するシステムを「サイドブラインドモニター」と呼んで商品化しています。バックビューモニターやサイドブラインドモニターは,当初,オプション品で出てきたものが,そのうちほとんどのクルマに付いてくるぐらいの勢いで増えました。クルマ用品店などで後付けで設置することも可能ですが,位置補正やハンドル連動ということを考えると,おそらく最初から付いていた方が使いやすいと思います。消費者のニーズを調査すると,最初はリアビューモニターが普及して,その後サイドビューや前後同時に見たいというニーズが出て来ています。こういう経緯があって,日産はアラウンドビューモニターを開発しました。
図1 全方位俯瞰(アラウンドビューモニター)

図1 全方位俯瞰(アラウンドビューモニター)

 アラウンドビューモニターでは車両に4つのカメラを付けて,真上から見たような画像を見せています(図1)。これは,後ろも見たいし横も見たい,同時に両方見えるようにしたい,その上,瞬時に理解できるようにしたい,というユーザーの要望に応えた結果です。バックをする時は,バックビューモニターとアラウンドビューモニターが同時に表示されます。その上,自分がどうやって動くとどこに行くかということが分かるように,ハンドルと連動するようになっています。
 次に,アラウンドビューモニターの作り方を紹介したいと思います。4つのカメラはそれぞれ見下ろす方向に向けて付けています(図2)。得られた画像を変換することで,真上から見たような画像にしています。アラウンドビューモニターでは360度を,見やすい画像,理解しやすい画像として表示することが一番重要なことです。「理解しやすい表示で360度を見せてください」――これが私たち開発研究者に来た最初の要求です。4つのカメラで撮った画像を別々に見せることでも,「360度を見せる」というニーズには応えていることになります。しかし,「理解しやすい」というニーズには応えていません。4つの画像をつなげて俯瞰(ふかん)して,初めて瞬時に理解できる画像になると思います。
図2 全方位俯瞰(アラウンドビューモニター)。車両の前後左右に取り付けた4個の広角カメラから得た映像を、車両上方から見下ろした映像として表示

図2 全方位俯瞰(アラウンドビューモニター)。車両の前後左右に取り付けた4個の広角カメラから得た映像を、車両上方から見下ろした映像として表示

 最近はデジタルカメラで,カメラを横に振っていくとパノラマ写真を自動的に作ってくれるような機能があります。その機能はおそらく,アラウンドビューモニターよりももっと凝った処理をしていると思います。なぜなら,デジタルカメラでは画像と画像の間をスムーズにつなぐ計算の必要があるからです。しかしアラウンドビューモニターでは,スムーズにつないだり明るさを合わせるといったことは一切していません。
 理解しやすい画像と,きれいな画像を作ることはちょっと違います。例えば,カメラの場所によっては日陰と日向(ひなた)の違いがあり,つないだ時にその境界でいきなり色が変わるケースがあります。先ほどのデジタルカメラの例では,一つの画像に統合するためにきれいにつなぐような処理をします。しかし,きれいにつなぐことによって場所に応じて生じている影が消えたりすることで,撮った画像がリアルなシーンではなくなってしまうことがあります。理解しやすいのはどちらかというと,やはりユーザーが見ている本物のシーンにできるだけ近いシーンです。そういうことで,オートゲインコントロールは一つ一つのカメラに任せています。また,境界線を無くしてしまうと画像のつなぎ目で急に色が変わってしまうことがあるので,あえて線を残しています。
 ここで言いたかったのは,「きれいな画像は必ずしも運転者にとって理解しやすいものではない」ということです。重要なのは,運転者が使いやすいものです。技術と理解しやすいということは別の観点で議論されているために,このような紹介をしました。

<次ページへ続く>

日産自動車(株) 下村 倫子

1991年,東京農工大学 工学研究科 電子情報工学博士前期課程終了。
1991年4月,日産自動車(株) 総合研究所電子情報研究所に入社。
現在,同社モビリティ研究室にて,運転支援に関する研究開発に従事(工学博士)。

アーカイブもっと見る

知能ロボットのための画像センシング技術の基礎と研究事例
知能ロボットのための画像センシング技術の基礎と研究事例...(11/25) 中京大学 工学部 教授・ヒューマンロボティクス研究 センター長 橋本 学
人と人の共感・連携を促しチームパフォーマンスを高める “Sensing & Control+Think”技術 -オムロンが描く「人と機械の融和」の一形態について-
人と人の共感・連携を促しチームパフォーマンスを高める “Sensin...(9/25) オムロン(株) 技術・知財本部 ロボティクスR&Dセンタ 水山 遼
自動運転のためのセンサーフュージョン技術
自動運転のためのセンサーフュージョン技術...(7/25) 芝浦工業大学 システム理工学部 機械制御システム学科 教授 伊東 敏夫
コンピュテーショナルイメージング概説
コンピュテーショナルイメージング概説...(7/25) 東京大学 大学院 情報理工学系研究科 准教授 堀﨑 遼一
ニューノーマルにおけるロボットビジョン研究
ニューノーマルにおけるロボットビジョン研究...(11/25) 産業技術総合研究所 インダストリアルCPS研究センター 堂前 幸康

▼ プラチナスポンサー ▼

株式会社リンクス

▼ メディアパートナー ▼

エキスポ・ゲートブリッジ

CIOE2024

APE2025

オープンイノベーションEXPO

ロボットワールド

ダウンロード

展示会FAQ