![]() (指導教員:鈴木大慈 准教授/ 数理情報第6研究室) 資料PDF(okumoto.pdf)
近年,畳み込み構造を持つニューラルネットワークが様々なタスクにおいて高いパフォーマンスを示すことが実験的に明らかになり,その理論的な研究にも関心が高まっている.それらのタスクに共通する点として,データの高次元性がある.また,音声認識や関数データ解析の分野では,与えられるデータが無限次元の信号とみなすことができる.そのため,データの次元がサンプルサイズに比べて非常に大きな場合に,次元の影響を受けずに学習できる条件が理論的に重要となる.本研究では,拡張畳み込みニューラルネットワーク(拡張CNN)というモデルが,異方平滑と呼ばれる滑らかさを持つ関数を,次元に依存することなく推定することが可能であることを示す.
以前からCNNが効率よく推定できるような関数クラスの構造に興味を持っていたので,このテーマに取り組むことができてよかった. |
Copyright © 2019 Graduate School of Information Science and Technology, The University of Tokyo