本研究の目的は、深層ニューラルネットワーク(Deep Neural Network,DNN)による機械学習の基礎理論を統計力学に基づいて構築し、ブラックボックスに隠されてきたそのメカニズムを明らかにすることである。特に最近の我々の研究[1,2]が示唆する「ネットワーク内部における学習の空間構造」、またこれがDNNの学習性能に及ぼすインパクトを、理論、大規模数値シミュレーションによって明らかにする。さらにこの研究の成果から、数理的に密接に関連するガラス・ジャミング系の物理や、情報統計力学、生物での関連する問題(例えば[3,4])への展開も模索する。
参考文献
[1] H. Yoshino,"From complex to simple : hierarchical free-energy landscape renormalized in deep neural networks", SciPost Physics Core2, 005(2020).
[2] 吉野 元, 「最近の研究から - 深層ニューラルネットワークの解剖ー統計力学によるアプローチ」日本物理学会誌76巻9号(2021年9月号)のリードページ
(本文の原稿ご希望の方はご連絡ください。)
[3] H. Yoshino,"Disorder-free spin glass transitions and jamming in exactly solvable mean-field models", SciPost Physics 4, 040 (2018).
[4] 「研究トピックス」
候補者が決定次第締め切ります。
Designed by CSS.Design Sample