2019年のつくばチャレンジでは、歩行者信号を認識して横断歩道を自律的に渡る課題や、標識による経路封鎖を認識し、動的に経路計画を行う課題が設定されています。群大-ミツバロボット「MG19」ではこれら2つの課題に挑戦しました。群大-ミツバロボットのナビゲーションは画像のみで行われますので、信号および経路封鎖標識の認識にも画像のみを用います。この認識処理をクレストボウズ との共同研究で開発しました。
画像を用いた認識処理は、大きく分けて人間が色や形状などを抽出する画像特徴を考えて、判定条件も主に人間が設定する古典的な方法と、画像と正解のみを与えて学習させるディープラーニング(深層学習)に代表される手法があります。一般的に言って、前者は技術者に経験とノウハウが要求されますが、うまくアルゴリズムを設計すれば少ない演算量で対象の認識が可能です。一方後者は、学習データのさえ適切に準備できればアルゴリズムの設計なしに高い認識性能が得られます。しかしながら演算量が多くなる傾向にあります。群大-ミツバロボットも、群大-リバストロボットも2018年まで前者の方法で行ってきましたが、2019年は群大-ミツバロボットの信号・標識認識部分を後者のディープラーニングで行って見ることになり、この部分をクレストボウズとの共同研究として行いました。
ディープニューラルネットを利用するに当たって、我々の目的はニューラルネットそのものを研究することではないので、位置検出も含めた物体認識として現在までに提案された手法で定評のあるYOLOv3[1,2]を利用することにしました。ディープラーニングの実行環境としてはTensorFlow ( https://www.tensorflow.org/ )、コードはYOLOv3の開発者が公開しているもの (https://pjreddie.com/darknet/yolo/ )を利用させていただいています。
[1] Joseph Redmon, Santosh Divvala, Ross Girshick, and Ali Farhadi, ”You Only Look Once: Unified, Real-Time Object Detection,” The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016, pp. 779-788.
( https://www.cv-foundation.org/openaccess/content_cvpr_2016/html/Redmon_You_Only_Look_CVPR_2016_paper.html ) [2] J. Redmon and A. Farhadi, “Yolov3: An incremental improvement,”
arXiv preprint arXiv:1804.02767, 2018.
( https://pjreddie.com/media/files/papers/YOLOv3.pdf )
( https://www.cv-foundation.org/openaccess/content_cvpr_2016/html/Redmon_You_Only_Look_CVPR_2016_paper.html ) [2] J. Redmon and A. Farhadi, “Yolov3: An incremental improvement,”
arXiv preprint arXiv:1804.02767, 2018.
( https://pjreddie.com/media/files/papers/YOLOv3.pdf )
学習データの準備と学習
準備中
認識性能と演算量
準備中