人との共存を目指したロボットの開発技術を育む実験の一つに,つくば市内で行われている「つくばチャレンジ[1]」がある.つくばチャレンジは「人々が暮らしている現実の世界でキチンと働く」ロボットを作るため,研究者・技術者が実際のロボットを試作して実地で実験を行い,いろいろな方法を試してその経験と結果を互いに共有することにより,
ロボット技術のレベルを向上させることを目的としている.
昨年行われたつくばチャレンジ2014の課題は,つくば市内の遊歩道を移動ロボットに自律走行させ,各エリア内に存在する特定の服を着た人物を探索するといったものである.この「特定の服を着た人物を探索する」という課題を達成するために画像処理による人物探索を目指し,つくばチャレンジのための人物検出アルゴリズムを設計・実装した.
探索対象はベスト(オレンジまたは青),帽子(オレンジ)を着用し,看板(オレンジ)を隣に置いて座っている.探索対象としているベストや帽子・看板の色は一定であるため,カメラを用いた色検出は有効な手段の一つである.しかしながら,実環境上には似たような色が多く存在するため全方位画像全体で色の検出を行うと誤検出が多くなってしまう.
そこで,レーザーレンジファインダー(以下LRFと略)による距離情報と全方位カメラから得られる色情報を統合し,対象の探索を行うアルゴリズムを設計し実装した.本手法では,LRFから得られる距離情報により対象の形状を取得し人物と看板のセットが存在する可能性のある方向を挙げ,その方向に対して全方位画像上で色の探索を行うことで対象が存在しているかを判断する.
つくばチャレンジ2014における探索対象を図1に示す.また,つくばチャレンジ2014のコースを図2に示す.図1のように探索対象はベスト(オレンジまたは青),帽子(オレンジ)を着用し,看板(オレンジ)を隣に置いて座っている.つくばチャレンジ2014ではエリアが3つあり,第1探索エリアに1名,第2探索エリアに2名,第3探索エリアに2名と合計5人が配置されている.探索対象の配置場所は走行前には知らされておらず,エリア内のどこにいるか不明であるためロボットが自身で見つけ出す必要がある.
外形寸法 | W58×L52×H90 |
総重量 | 25.0kg |
動力源 | DCモーター×4 |
センサ | LRF×2 (LMS151,TiM551) エンコーダ×2 全方位カメラ×1 |
バッテリー | 12V9Ah鉛蓄電池×3 |
ナビゲーションCPU | Intel i7 3632QM |
本手法ではLRF から得られる距離情報により対象の形状を取得し人物と看板のセットが存在する可能性のある方向を挙げ,その方向に対して全方位画像上で色の探索を行うことで対象が存在しているかを判断する.以降でそれぞれの処理の詳細を述べる.
対象の色に似た色は実環境上には多く存在する.そのため全方位画像全体で色の検出を行うと誤検出が多くなってしまう可能性がある.この問題を解決するためにLRF から得た距離情報をクラスタリングし,対象物があると思われる候補の絞り込みを行った.探索候補の絞り込みの手順は以下のとおりである.
まず,LRF から得られる点群をクラスタリングする.LRFから得られる点群の距離情報を di(0≦i≦540) とする.ここで,ロボットの正面方向を0° 反時計回り方向を正とするとd0 は-135 °の方向, d540 は135 °の方向の物体表面までの距離を表している.i = 0 から操作していきdi≦5000[mm]かつdTHmin≦|di+1 di|≦dTHmax となる点までを1 つのクラスタとして扱う.これは連続する同一平面に存在する点をクラスタリングする処理であり,人物検出におけるクラスタリングではdTHmin = 100[mm],dTHmax = 1000[mm] と設定した.
検出対象である人は看板と隣り合っているため,LRF データのクラスタリングにより得られた複数のクラスタを近くに存在するもの同士でグループに分ける.クラスタDi の左端の距離データをd1 とする.また,Di 以外のあるクラスタの右端の距離データをd2 とする.ここで,クラスタ間の深さ(depth) を
次に,人と看板とが隣り合っている可能性のあるクラスタのセットを検索する.人または看板であるかは,クラスタの幅で判断する.使用したロボットに搭載しているLRFは高さが500mm の位置に取り付けられており,人の胴ではなく脚も検出する可能性がある.そこで,以下の様な条件を設定し,グループ分けされたクラスタの中から人と看板が隣り合っている可能性のあるクラスタのセットを抽出する.
探索対象としているベストや帽子・看板の色は一定であるため,カメラを用いた色検出は有効な手段の一つである.本手法では,LRFによって絞り込まれた探索範囲に対して色検出を行って探索対象が存在しているかを最終的に判断する.以降でその詳細を述べる.
はじめに,検出するべき色範囲の選定を行うために実験走行中に得た全方位画像から探索対象のベスト(オレンジ・青),帽子(オレンジ),看板(オレンジ) の4種類のパッチ画像(図6 参照) をそれぞれ数百枚ほど作成し色の分布を調べた.画像上の色はRGB表色系から明るさ成分を取り除いた(r,g) の表現方法(下式) を用いている.なお,用いた画像は様々な天候時のものが含まれており照明条件の変化が大きい画像セットである.
対象物 | r | g |
ベスト(オレンジ) | 0.409961 | 0.193961 |
ベスト(青) | 0.95464 | 0.226484 |
帽子 | 0.709961 | 0.193961 |
看板 | 0.595371 | 0.257838 |
実際の色情報を用いた検出の手順は以下のとおりである.
基準色の特定で得た色の分布から,各対象物の分布にはある程度の相関があることが確認できる.そこで,本手法では色検出の判断基準としてデータの相関を考慮した距離であるマハラノビス距離を用いた.ユークリッド距離の場合,図8の左のように円状の範囲になるのに対しマハラノビス距離では相関を考慮するため図8の右のような範囲になるため余分な値を含まず誤検出を削減することができる.
対象物 | THsat | THmh |
ベスト(オレンジ) | 90 | 0.15 |
ベスト(青) | 25 | 0.15 |
帽子 | 90 | 0.15 |
看板 | 40 | 0.2 |
対象物 | THcount |
ベスト(オレンジ) | 0.025 |
ベスト(青) | 0.01 |
帽子 | 0.002 |
看板 | 0.05 |
以降では,前述したアルゴリズムを実装し,つくばチャレンジの実験走行会で得た複数の全方位画像およびLRFデータを元に行った人物検出の実験について,また実際のつくばチャレンジでの実験について述べる.
本節ではつくばチャレンジ2014 で行われた複数回の実験走行会で得た全方位画像群およびLRFデータを元に前章の人物検出アルゴリズムを実装して人物検出を行った実験について述べる.使用した全方位画像の例を図9に示す.
実際には実験走行会で得られた10696枚の全方位画像を使用して実験を行った.その内探索対象が含まれているものは425枚である.実験の結果は以下の表のとおりである.なお,ここでは色の検出の判断基準としてマハラノビス距離を用いた場合とユークリッド距離を用いた場合の2つを示す.また,マハラノビス距離を用いた場合の検出例を図10に示す.
Omni画像枚数 | 検出対象数 | 検出数 | LEFによる検出漏れ数 | 色検出による検出漏れ数 | 誤検出数 |
10696 | 425 | 84 | 123 | 218 | 3 |
Omni画像枚数 | 検出対象数 | 検出数 | LEFによる検出漏れ数 | 色検出による検出漏れ数 | 誤検出数 |
10696 | 425 | 170 | 123 | 132 | 4 |
検出結果から,マハラノビス距離による検出率はユークリッド距離のものよりも高くなっていることがわかる.また,誤検出数も抑えられている.しかしながら,検出対象が425ある中でLRFによって探索範囲の候補として挙げられなかったものが123とLRFによる探索候補の検出漏れが多い結果となってしまった.また,色の検出もユークリッド距離よりは安定しているものの,LRFによって探索候補として挙げられている302枚の全方位画像中で検出数170という結果であるため色の検出率の安定化も必要であると考えられる.なお,実際には図10で表示されている赤線の方向にロボットが移動するようになっている.
本節では,つくばチャレンジで行われた実験走行会と本走行における実験結果について述べる.実験走行会における実験結果を表7に,本走行における実験結果を表8に示す.
実験走行会 | 3 | 4 | 5 | 6 | 8 | 9 |
コース完走 | ○ | ✕ | ✕ | ✕ | ○ | ○ |
人物検出数 | 0 | 1 | 1 | 1 | 0 | 0 |
走行距離 | 462m |
走行時間 | 10分17秒 |
人物探索 | 1人/5人 |
本走行では,第1探索エリアを抜けたあたりでロボットが制御不能となりリタイアしてしまったがそのエリアにいた探索対象1 人を見つけることができた.しかしながら,実験走行会の結果を見ても分かるように全体を通してあまり安定した結果が得られなかった.このような結果になった要因については以降で詳細を述べる.
マハラノビス距離を用いたことによりユークリッド距離を用いた場合よりも検出数は向上し,またLRFはによって探索範囲を絞り込んだことにより誤検出も抑えることができてる.しかしながら前述したようにLRFによる探索範囲の絞り込みで探索範囲の候補として挙げられなかった数が多いという結果になってしまった.LRFによる探索範囲の絞り込みの失敗例を図11,12 に示す.図11のように人と看板が前後(または左右) に離れすぎてしまっている場合などは検出対象の候補として挙げられないという結果になった.これに関しては,グループ分けの定義について再検討する必要がある.またロボットは教示走行のルートをそのまま走るため,探索対象の位置によっては5m以内に近づけない場合もある(図12).このような場合に対してはクラスタリングの範囲を5mよりも広げることで改善できると考えられる.
また,色の検出数もユークリッド距離よりは多くなったものの検出漏れ数は132と多いため色検出の安定化も必要になる.色の検出における失敗例としては,図13のように太陽光によって対象物(ここでは看板) の色が白潰れしてしまうなど照明条件の変化によって対象物の色が変化してしまうことが挙げられる.今回色検出のために用いた全方位カメラは図14のように画像上に暗い領域と明るい領域が混在する場合露光の調整が上手く行われず照明条件の変化に影響されやすい.今後,[2],[3]などの手法を改良して,照明条件に影響されにくい検出手法の構築を検討している.
誤検出の例としては図16 のような場合がある. コース上にこのような看板が存在しており,ベストや看板のオレンジとして判断してしまい誤検出となってしまった.今回設計したアルゴリズムにおいて探索対象が存在するかの最終的な判断は,LRFによる色の探索候補の方向にベストと帽子が存在する領域と看板が存在する領域が隣り合っていた場合探索対象が存在するというものである.しかしながらベストのオレンジと帽子のオレンジ,看板のオレンジは色の分布が比較的近いものであり,図15のような場合ではオレンジのベストを着た探索対象と誤検出してしまったと考えられる.このような誤検出を削減するためには,対象物の色だけで なく人間の顔認識を用いるなどで安定した結果になるのではないかと考えられる.
本研究ではつくばチャレンジ2014 における人物検出を対象とした,LRFからの形状情報と全方位カメラからの色情報を組み合わせた人物検出手法を提案した.提案手法ではLRFからの距離情報を基に物体の形状を取得し,色の探索範囲を抑えることで誤検出の削減を実現した.色の検出に関しては探索対象が身につけているベスト・帽子,隣に建てられている看板の色を検出することで判断した.色の判断基準においては,相関を考慮したマハラノビス距離を用いることで誤検出の削減を目指した.
実験としては,つくばチャレンジの実験走行会から得られた複数枚の全方位画像とLRFデータを基にした実験を行いパラメータ等の調整を行い本走行に挑んだ.実験走行会データでの実験では,LRF による探索方向の絞り込みを行ったことで誤検出を削減することができ,マハラノビス距離を用いたことで誤検出を抑えつつ検出数を向上することができた.本走行の結果としては最初のエリアを抜けたところでロボットが制御不能となりリタイアしてしまったが,最初のエリアにいた1 人を検出することができた.その他で行われた実験走行会の結果としては全体を通してあまり安定した結果が得られなかった.
今後の課題としては,LRFによる探索方向の絞り込みに関してはグループ分けの際の基準の見直しなどを行うことでより正確に探索対象の方向を取得できるようにしていくことを考えている.また,色の検出に関しては照明条件の変化への対応が必要不可欠であるということが分かったので,[2],[3] などの手法を改良することでより安定した色の検出を目指していきたい. 誤検出の更なる削減に関しては,顔認識や形状認識を行うことでより人間らしい物体を検出するためのアルゴリズムを検討している.
[1] つくばチャレンジ:http://www.tsukubachallenge.jp/
[2] 小暮和重,塩谷敏昭, 太田直哉,"最小認識ハードウェアの自律移動ロボット―
つくばチャレンジ参加ロボットMG-11―",計測自動制御学会論文集, Vol.49,No.7, pp.703-712, 2013
[3] 鹿貫悠多, 小暮和重, 太田直哉, 塩谷敏昭, 岩田知之, "LRF と全方位カメラを用いた人物探索", つくばチャレンジ2013 参加レポート集,pp.32-38,2014
[4] MobileRobots:http://www.mobilerobots.com/
[5] OpenCV:http://opencv.org/