つくばチャレンジのための形状情報と色情報を用いた人物検出手法
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
検索
|
最終更新
|
ヘルプ
|
ログイン
]
開始行:
[[太田研 公開用Wiki]]
*つくばチャレンジのための形状情報と色情報を用いた人物検出...
#contents
*はじめに [#zd1362a5]
人との共存を目指したロボットの開発技術を育む実験の一つ...
ロボット技術のレベルを向上させることを目的としている.~
昨年行われたつくばチャレンジ2014の課題は,つくば市内の...
探索対象はベスト(オレンジまたは青),帽子(オレンジ)を着...
そこで,レーザーレンジファインダー(以下LRFと略)による距離...
*探索対象とロボットの構成 [#pcbfae3b]
つくばチャレンジ2014における探索対象を図1に示す.また,...
CENTER:#ref(human.png,center,50%)
CENTER:&size(12){図1:探索対象の例};~
&br;
CENTER:#ref(map.png,center,50%)
CENTER:&size(12){図2:つくばチャレンジ2014のコース};~
&br;
LEFT: また,実験に用いたロボットの外観を図3に,仕様を表1...
CENTER:#ref(p3at.png,center,50%)
CENTER:&size(12){図3:ロボットの外観(左:外装有り,右:外装...
&br;
CENTER:&size(12){表1:ハードウェア構成};~
|CENTER:外形寸法|CENTER:W58×L52×H90|
|CENTER:総重量|CENTER:25.0kg|
|CENTER:動力源|CENTER:DCモーター×4|
|CENTER:センサ|CENTER:LRF×2 &br; (LMS151,TiM551) &br; エ...
|CENTER:バッテリー|CENTER:12V9Ah鉛蓄電池×3|
|CENTER:ナビゲーションCPU|CENTER:Intel i7 3632QM|
*人物検出アルゴリズム [#fd9f6d33]
本手法ではLRF から得られる距離情報により対象の形状を取...
**LRFを用いた探索方向の絞り込み [#wacdf7c5]
対象の色に似た色は実環境上には多く存在する.そのため全...
+''LRFデータのクラスタリング''&br;
LRF データのクラスタリングと同様の手順で行う.ここでは,...
+''クラスタのグループ分け''&br;
任意のクラスタ間の深さ(奥行方向の距離) と距離が閾値以下の...
+''条件に合うクラスタのセットを検出''&br;
グループ内で人と看板の幅に対応するクラスタのペアを検索す...
義については後述する.
***LRFデータのクラスタリング [#s5be1fd8]
まず,LRF から得られる点群をクラスタリングする.LRFから...
di(0≦i≦540) とする.ここで,ロボットの正面方向を0° 反時計...
***クラスタのグループ分け [#if308cef]
検出対象である人は看板と隣り合っているため,LRF データ...
CENTER:#ref(formula1.png,center,80%)
LEFT:また,クラスタ間の距離(dist)を
CENTER:#ref(formula2.png,center,80%)
LEFT:と表す.ここでcはd1とd2の端点距離である.ここではdep...
CENTER:#ref(group.jpg,center,50%)
CENTER:&size(12){図4:グループ分けの例};~
***条件に合うクラスタのセットを検出 [#xdba1748]
次に,人と看板とが隣り合っている可能性のあるクラスタの...
+脚の幅に相当するクラスタが連続し,その後に看板の幅に相当...
+人の胴の幅に相当するクラスタの後に看板の幅に相当するクラ...
+看板の幅に相当するクラスタの後に脚の幅に相当するクラスタ...
+看板の幅に相当するクラスタの後に人の胴の幅に相当するクラ...
LEFT:ここで,脚の幅(WHL)・人の胴の幅(WHB)・看板の幅(WB) ...
CENTER:#ref(formula3.png,center,80%)
LEFT: 以上の処理によりクラスタのセットを抽出し,それらの...
CENTER:#ref(omni.jpg,center,70%)
CENTER:&size(12){図5:全方位画像における色の抽出範囲};
**画像処理による色検出 [#wca2834a]
探索対象としているベストや帽子・看板の色は一定であるた...
***基準となる色(r,g)の特定 [#ke277a2d]
はじめに,検出するべき色範囲の選定を行うために実験走行...
CENTER:#ref(formula4.png,center,80%)
&br;
CENTER:#ref(patches.png,center,80%)
CENTER:&size(12){図6:パッチ画像の例(左からベストのオレン...
&br;
&br;
LEFT: 探索対象の4種類のパッチ画像の(r,g)の平均値の分布図...
CENTER:&size(12){表2:各対象における色の基準値};
|CENTER:対象物|CENTER:r|CENTER:g|
|CENTER:ベスト(オレンジ)|CENTER:0.709961|CENTER:0.193961|
|CENTER:ベスト(青)|CENTER:0.213753|CENTER:0.226484|
|CENTER:帽子|CENTER:0.709961|CENTER:0.193961|
|CENTER:看板|CENTER:0.595371|CENTER:0.257838|
&br;
CENTER:#ref(graph.png,center,15%)
CENTER:&size(12){図7:パッチ画像の色の分布(左上:ベスト(オ...
***色の検出方法 [#p185e415]
実際の色情報を用いた検出の手順は以下のとおりである.
+''注目画素の彩度を計算''&br;
極めて暗い色や極めて明るい色を除外するために彩度を用いる...
+''注目画素と基準値のマハラノビス距離を計算''&br;
注目画素の(r,g) と基準値の(r,g) のマハラノビス距離を計算...
+''対応している画素数をカウント''&br;
彩度が閾値より大きく,かつマハラノビス距離が閾値以下であ...
+''対象物検出の判定''&br;
探索範囲内に検出された画素数から領域に対する割合を計算し...
基準色の特定で得た色の分布から,各対象物の分布にはある...
CENTER:&size(12){表3:彩度とマハラノビス距離の閾値};
|CENTER:対象物|CENTER:THsat|CENTER:THmh|
|CENTER:ベスト(オレンジ)|CENTER:90|CENTER:0.15|
|CENTER:ベスト(青)|CENTER:25|CENTER:0.15|
|CENTER:帽子|CENTER:90|CENTER:0.15|
|CENTER:看板|CENTER:40|CENTER:0.2|
CENTER:&size(12){表4:色検出数の閾値};
|CENTER:対象物|CENTER:THcount|
|CENTER:ベスト(オレンジ)|CENTER:0.025|
|CENTER:ベスト(青)|CENTER:0.01|
|CENTER:帽子|CENTER:0.002|
|CENTER:看板|CENTER:0.05|
CENTER:#ref(compare.png,center,20%)
CENTER:&size(12){図8:ユークリッド距離とマハラノビス距離の...
*実験と結果 [#db22a668]
以降では,前述したアルゴリズムを実装し,つくばチャレン...
**実験走行会からのデータによる実験 [#l19032b9]
本節ではつくばチャレンジ2014 で行われた複数回の実験走行...
CENTER:#ref(omnis.jpg,center,30%)
CENTER:&size(12){図9:実験に使用した全方位画像の例};
実際には実験走行会で得られた10696枚の全方位画像を使用し...
CENTER:&size(12){表5:ユークリッド距離を用いた検出結果};
|CENTER:Omni画像枚数|CENTER:検出対象数|CENTER:検出数|CENT...
|CENTER:10696|CENTER:425|CENTER:84|CENTER:123|CENTER:218|...
CENTER:&size(12){表6:マハラノビス距離を用いた検出結果};
|CENTER:Omni画像枚数|CENTER:検出対象数|CENTER:検出数|CENT...
|CENTER:10696|CENTER:425|CENTER:170|CENTER:123|CENTER:132...
&br;
CENTER:#ref(outputs.jpg,center,30%)
CENTER:&size(12){図10:マハラノビス距離を用いた検出の例};
検出結果から,マハラノビス距離による検出率はユークリッ...
**つくばチャレンジでの実験 [#x185a3c9]
本節では,つくばチャレンジで行われた実験走行会と本走行...
CENTER:&size(12){表7:実験走行会の結果};
|CENTER:実験走行会|CENTER:3|CENTER:4|CENTER:5|CENTER:6|CE...
|CENTER:コース完走|CENTER:○|CENTER:✕|CENTER:✕|CENTER:✕|CE...
|CENTER:人物検出数|CENTER:0|CENTER:1|CENTER:1|CENTER:1|CE...
CENTER:&size(12){表8:本走行の結果};
|CENTER:走行距離|CENTER:462m|
|CENTER:走行時間|CENTER:10分17秒|
|CENTER:人物探索|CENTER:1人/5人|
本走行では,第1探索エリアを抜けたあたりでロボットが制御...
*考察 [#y9566960]
**実験走行会データからの実験における結果について [#s4f1f9...
マハラノビス距離を用いたことによりユークリッド距離を用...
CENTER:#ref(dis1.jpg,center,30%)
CENTER:&size(12){図11:LRFによる探索方向の絞り込みの失敗例...
CENTER:#ref(dis2.jpg,center,30%)
CENTER:&size(12){図12:LRFによる探索方向の絞り込みの失敗例...
また,色の検出数もユークリッド距離よりは多くなったもの...
CENTER:#ref(dis3.jpg,center,30%)
CENTER:&size(12){図13:色検出の失敗例1};
CENTER:#ref(dis4.jpg,center,30%)
CENTER:&size(12){図14:色検出の失敗例2};
誤検出の例としては図16 のような場合がある. コース上にこ...
なく人間の顔認識を用いるなどで安定した結果になるのではな...
CENTER:#ref(dis5.jpg,center,30%)
CENTER:&size(12){図15:誤検出の例};
*まとめ [#h6b1303d]
本研究ではつくばチャレンジ2014 における人物検出を対象と...
実験としては,つくばチャレンジの実験走行会から得られた...
今後の課題としては,LRFによる探索方向の絞り込みに関して...
*参考文献 [#t94cddc3]
[1] つくばチャレンジ:http://www.tsukubachallenge.jp/~
[2] 小暮和重,塩谷敏昭, 太田直哉,"最小認識ハードウェアの...
つくばチャレンジ参加ロボットMG-11―",計測自動制御学会論文...
[3] 鹿貫悠多, 小暮和重, 太田直哉, 塩谷敏昭, 岩田知之, "LR...
[4] MobileRobots:http://www.mobilerobots.com/~
[5] OpenCV:http://opencv.org/~
終了行:
[[太田研 公開用Wiki]]
*つくばチャレンジのための形状情報と色情報を用いた人物検出...
#contents
*はじめに [#zd1362a5]
人との共存を目指したロボットの開発技術を育む実験の一つ...
ロボット技術のレベルを向上させることを目的としている.~
昨年行われたつくばチャレンジ2014の課題は,つくば市内の...
探索対象はベスト(オレンジまたは青),帽子(オレンジ)を着...
そこで,レーザーレンジファインダー(以下LRFと略)による距離...
*探索対象とロボットの構成 [#pcbfae3b]
つくばチャレンジ2014における探索対象を図1に示す.また,...
CENTER:#ref(human.png,center,50%)
CENTER:&size(12){図1:探索対象の例};~
&br;
CENTER:#ref(map.png,center,50%)
CENTER:&size(12){図2:つくばチャレンジ2014のコース};~
&br;
LEFT: また,実験に用いたロボットの外観を図3に,仕様を表1...
CENTER:#ref(p3at.png,center,50%)
CENTER:&size(12){図3:ロボットの外観(左:外装有り,右:外装...
&br;
CENTER:&size(12){表1:ハードウェア構成};~
|CENTER:外形寸法|CENTER:W58×L52×H90|
|CENTER:総重量|CENTER:25.0kg|
|CENTER:動力源|CENTER:DCモーター×4|
|CENTER:センサ|CENTER:LRF×2 &br; (LMS151,TiM551) &br; エ...
|CENTER:バッテリー|CENTER:12V9Ah鉛蓄電池×3|
|CENTER:ナビゲーションCPU|CENTER:Intel i7 3632QM|
*人物検出アルゴリズム [#fd9f6d33]
本手法ではLRF から得られる距離情報により対象の形状を取...
**LRFを用いた探索方向の絞り込み [#wacdf7c5]
対象の色に似た色は実環境上には多く存在する.そのため全...
+''LRFデータのクラスタリング''&br;
LRF データのクラスタリングと同様の手順で行う.ここでは,...
+''クラスタのグループ分け''&br;
任意のクラスタ間の深さ(奥行方向の距離) と距離が閾値以下の...
+''条件に合うクラスタのセットを検出''&br;
グループ内で人と看板の幅に対応するクラスタのペアを検索す...
義については後述する.
***LRFデータのクラスタリング [#s5be1fd8]
まず,LRF から得られる点群をクラスタリングする.LRFから...
di(0≦i≦540) とする.ここで,ロボットの正面方向を0° 反時計...
***クラスタのグループ分け [#if308cef]
検出対象である人は看板と隣り合っているため,LRF データ...
CENTER:#ref(formula1.png,center,80%)
LEFT:また,クラスタ間の距離(dist)を
CENTER:#ref(formula2.png,center,80%)
LEFT:と表す.ここでcはd1とd2の端点距離である.ここではdep...
CENTER:#ref(group.jpg,center,50%)
CENTER:&size(12){図4:グループ分けの例};~
***条件に合うクラスタのセットを検出 [#xdba1748]
次に,人と看板とが隣り合っている可能性のあるクラスタの...
+脚の幅に相当するクラスタが連続し,その後に看板の幅に相当...
+人の胴の幅に相当するクラスタの後に看板の幅に相当するクラ...
+看板の幅に相当するクラスタの後に脚の幅に相当するクラスタ...
+看板の幅に相当するクラスタの後に人の胴の幅に相当するクラ...
LEFT:ここで,脚の幅(WHL)・人の胴の幅(WHB)・看板の幅(WB) ...
CENTER:#ref(formula3.png,center,80%)
LEFT: 以上の処理によりクラスタのセットを抽出し,それらの...
CENTER:#ref(omni.jpg,center,70%)
CENTER:&size(12){図5:全方位画像における色の抽出範囲};
**画像処理による色検出 [#wca2834a]
探索対象としているベストや帽子・看板の色は一定であるた...
***基準となる色(r,g)の特定 [#ke277a2d]
はじめに,検出するべき色範囲の選定を行うために実験走行...
CENTER:#ref(formula4.png,center,80%)
&br;
CENTER:#ref(patches.png,center,80%)
CENTER:&size(12){図6:パッチ画像の例(左からベストのオレン...
&br;
&br;
LEFT: 探索対象の4種類のパッチ画像の(r,g)の平均値の分布図...
CENTER:&size(12){表2:各対象における色の基準値};
|CENTER:対象物|CENTER:r|CENTER:g|
|CENTER:ベスト(オレンジ)|CENTER:0.709961|CENTER:0.193961|
|CENTER:ベスト(青)|CENTER:0.213753|CENTER:0.226484|
|CENTER:帽子|CENTER:0.709961|CENTER:0.193961|
|CENTER:看板|CENTER:0.595371|CENTER:0.257838|
&br;
CENTER:#ref(graph.png,center,15%)
CENTER:&size(12){図7:パッチ画像の色の分布(左上:ベスト(オ...
***色の検出方法 [#p185e415]
実際の色情報を用いた検出の手順は以下のとおりである.
+''注目画素の彩度を計算''&br;
極めて暗い色や極めて明るい色を除外するために彩度を用いる...
+''注目画素と基準値のマハラノビス距離を計算''&br;
注目画素の(r,g) と基準値の(r,g) のマハラノビス距離を計算...
+''対応している画素数をカウント''&br;
彩度が閾値より大きく,かつマハラノビス距離が閾値以下であ...
+''対象物検出の判定''&br;
探索範囲内に検出された画素数から領域に対する割合を計算し...
基準色の特定で得た色の分布から,各対象物の分布にはある...
CENTER:&size(12){表3:彩度とマハラノビス距離の閾値};
|CENTER:対象物|CENTER:THsat|CENTER:THmh|
|CENTER:ベスト(オレンジ)|CENTER:90|CENTER:0.15|
|CENTER:ベスト(青)|CENTER:25|CENTER:0.15|
|CENTER:帽子|CENTER:90|CENTER:0.15|
|CENTER:看板|CENTER:40|CENTER:0.2|
CENTER:&size(12){表4:色検出数の閾値};
|CENTER:対象物|CENTER:THcount|
|CENTER:ベスト(オレンジ)|CENTER:0.025|
|CENTER:ベスト(青)|CENTER:0.01|
|CENTER:帽子|CENTER:0.002|
|CENTER:看板|CENTER:0.05|
CENTER:#ref(compare.png,center,20%)
CENTER:&size(12){図8:ユークリッド距離とマハラノビス距離の...
*実験と結果 [#db22a668]
以降では,前述したアルゴリズムを実装し,つくばチャレン...
**実験走行会からのデータによる実験 [#l19032b9]
本節ではつくばチャレンジ2014 で行われた複数回の実験走行...
CENTER:#ref(omnis.jpg,center,30%)
CENTER:&size(12){図9:実験に使用した全方位画像の例};
実際には実験走行会で得られた10696枚の全方位画像を使用し...
CENTER:&size(12){表5:ユークリッド距離を用いた検出結果};
|CENTER:Omni画像枚数|CENTER:検出対象数|CENTER:検出数|CENT...
|CENTER:10696|CENTER:425|CENTER:84|CENTER:123|CENTER:218|...
CENTER:&size(12){表6:マハラノビス距離を用いた検出結果};
|CENTER:Omni画像枚数|CENTER:検出対象数|CENTER:検出数|CENT...
|CENTER:10696|CENTER:425|CENTER:170|CENTER:123|CENTER:132...
&br;
CENTER:#ref(outputs.jpg,center,30%)
CENTER:&size(12){図10:マハラノビス距離を用いた検出の例};
検出結果から,マハラノビス距離による検出率はユークリッ...
**つくばチャレンジでの実験 [#x185a3c9]
本節では,つくばチャレンジで行われた実験走行会と本走行...
CENTER:&size(12){表7:実験走行会の結果};
|CENTER:実験走行会|CENTER:3|CENTER:4|CENTER:5|CENTER:6|CE...
|CENTER:コース完走|CENTER:○|CENTER:✕|CENTER:✕|CENTER:✕|CE...
|CENTER:人物検出数|CENTER:0|CENTER:1|CENTER:1|CENTER:1|CE...
CENTER:&size(12){表8:本走行の結果};
|CENTER:走行距離|CENTER:462m|
|CENTER:走行時間|CENTER:10分17秒|
|CENTER:人物探索|CENTER:1人/5人|
本走行では,第1探索エリアを抜けたあたりでロボットが制御...
*考察 [#y9566960]
**実験走行会データからの実験における結果について [#s4f1f9...
マハラノビス距離を用いたことによりユークリッド距離を用...
CENTER:#ref(dis1.jpg,center,30%)
CENTER:&size(12){図11:LRFによる探索方向の絞り込みの失敗例...
CENTER:#ref(dis2.jpg,center,30%)
CENTER:&size(12){図12:LRFによる探索方向の絞り込みの失敗例...
また,色の検出数もユークリッド距離よりは多くなったもの...
CENTER:#ref(dis3.jpg,center,30%)
CENTER:&size(12){図13:色検出の失敗例1};
CENTER:#ref(dis4.jpg,center,30%)
CENTER:&size(12){図14:色検出の失敗例2};
誤検出の例としては図16 のような場合がある. コース上にこ...
なく人間の顔認識を用いるなどで安定した結果になるのではな...
CENTER:#ref(dis5.jpg,center,30%)
CENTER:&size(12){図15:誤検出の例};
*まとめ [#h6b1303d]
本研究ではつくばチャレンジ2014 における人物検出を対象と...
実験としては,つくばチャレンジの実験走行会から得られた...
今後の課題としては,LRFによる探索方向の絞り込みに関して...
*参考文献 [#t94cddc3]
[1] つくばチャレンジ:http://www.tsukubachallenge.jp/~
[2] 小暮和重,塩谷敏昭, 太田直哉,"最小認識ハードウェアの...
つくばチャレンジ参加ロボットMG-11―",計測自動制御学会論文...
[3] 鹿貫悠多, 小暮和重, 太田直哉, 塩谷敏昭, 岩田知之, "LR...
[4] MobileRobots:http://www.mobilerobots.com/~
[5] OpenCV:http://opencv.org/~
ページ名: