東京大学バナー(中) 東大 アラムナイ 寄付のご案内
| ENGLISH | サイトマップ |
東京大学 大学院 情報理工学系研究科
交通アクセス・学内地図
訪問者別ご案内
受験・進学希望の方
在学生の方
留学生の方
(For International Students)
企業・一般の方
修了者の方
高校生の方
高校教員の方
教育と研究
研究科案内
各専攻・教員の紹介
 
コンピュータ科学
  数理情報学
  システム情報学
  電子情報学
  知能機械情報学
  創造情報学
センター
 
ソーシャルICT研究センター
  情報理工学国際センター
  情報理工学教育研究センター
教育プログラム等
 
ソーシャルICTグローバル・クリエイティブリーダー育成プログラム
  グローバル・クリエイティブリーダー 講義
  enPiT
  データサイエンティスト養成講座(領域知識創成教育研究プログラム)
  創造情報学連携講座
  他プログラム
学務関連
 
入学・進学案内 new !
  履修・学籍・諸手続案内
  東京大学学務システム(UTAS)
  学生支援制度
  研究生出願手続き
  科目等履修生案内
受賞
産学連携(R2P/IST等)
情報理工関係イベント
国際交流
(International Cooperation)
工学・情報理工学図書館
公募情報
内部者限定情報
 
ポータルサイト 
  ISTクラウド 
  研究倫理審査・広報 
  科学研究ガイドライン 
  情報倫理ガイドライン
緊急連絡
緊急連絡ページ
関連学部
工学部
理学部
Home > 教育と研究 > 研究科案内 > 専攻と講義科目 > システム情報学
教育と研究

システム情報学
専攻の目的教員と研究室Faculty and Labs講義
| 学位論文(修士) | 学位論文(博士)入試案内ショーケース

>> 学位論文(修士)へ戻る

構造化ライトフィールトを用いた実時間距離計測
(High-Speed Real-Time Depth Estimation by Projecting Structured Light Field)

松本 卓也

(指導教員:石川 正俊 教授/システム情報第六研究室

研究概要

カメラから得られた画像から奥行き距離を取得する距離画像計測手法は,近年様々な分野で用いられている.特に,計測対象やセンサ系が移動・変形するような動的環境における実時間距離画像計測は,コンピュータへ無拘束に入力を行うインタフェースやモーションキャプチャーなどに実用されており,その応用価値は高い.一方で,動的環境における高速ビジョンの有用性も期待されており,人間の知覚をはるかに超える速度で計測や制御を行うことにより,高速で運動する物体に対する制御や,人間が遅延を感じないような機械とのインタラクションが可能となっている.しかし,距離計測を用いたフィードバック制御系においては,マッチングや最適化に要する計算量から,その応答速度が落ちてしまうという問題がある.近年では,ハードウェアによる並列分散処理などを行うことで計算時間を短縮する手法が数多く提案されているが,画像処理を用いたフィードバック制御システムに組み込む事を考えると,より簡便で計算量の少ないアルゴリズムで,計測が行えることが望ましい.そこで本論文では,投影距離によって変化するような照明を投影することで,ワンショットかつマッチング等の不要な順問題として距離の推定を行う手法を提案する.この手法を用いて前景と背景の分離による高速な物体検出を行うことで,短時間の応答が必要とされる動物体トラッキングシステムへの組み込みを実現した.

Abstract

Real-time depth estimation is used in many applications, such as motion capture and human--computer interfaces.However, conventional depth estimation algorithms, including stereo matching or Depth from Defocus, use optimization or pattern matching methods to calculate the depth from the captured images, making it difficult to adapt these methods to high-speed sensing. In this thesis, we propose a high-speed and real-time depth estimation method using structured light that varies according to the projected depth. Vertical and horizontal stripe patterns are illuminated, and focus is placed at the near and far planes respectively. The distance from the projector is calculated from the ratio of the amount of the blur due to defocus(bokeh) between the stripes projected on the object surface. This method needs no optimization, and the calculation is straightforward. Therefore, it achieves high-speed depth estimation without parallel processing hardware, such as FPGAs and GPUs. A prototype system of this method calculates the depth map in 0.2 ms for 2,500 sampling points using an off-the-shelf personal computer. Although the depth resolution and accuracy are not on par with conventional methods, the background and the foreground can be separated using the calculated depth information. To verify the speed and the accuracy, we incorporated the method in a high speed gaze controller, called Saccade Mirror. It captures an image every 2 ms, and shifts the camera direction according to the position of the target object. Conventional depth estimation methods cannot be adopted to the Saccade Mirror because of their computational costs. The proposed method on the other hand, detects moving objects by separating foreground from background, and achieves successful tracking of objects with the same color as the background.
page top



大学院 情報理工学系研究科 お問い合せ先 東京大学