統計学輪講 第13回

日時 2020年7月14日(火)
15時45分 ~ 16時35分
場所 Zoomオンライン開催(URLはシラバスまたは参加者メーリスをご確認ください)
講演者 大野 健太 (情報理工D3)
演題 マルチスケールグラフニューラルネットの勾配ブースティング法を用いた解析
概要

グラフニューラルネットワーク(Graph Neural Network;GNN)はグラフ構造を持つデータに利用される深層学習モデルの総称である.現在利用されているGNNの多くは,過平滑(over- smoothing)と呼ばれる問題により精度劣化することが知られており,それを緩和するモデルが様々提案されている.特に,中間出力達を集約して最終出力を構成することで,入力グラフ中の様々なスケールの部分グラフ構造を捉えるように設計されたモデル(本講演ではマルチスケール GNN と呼ぶ)は,過平滑問題の解決に有望視されている.しかし,これらがなぜ経験的に高精度を達成できるかについて,統計的学習理論の観点からの説明は少ない.本研究では,ブースティングの理論を用いてマルチスケール GNNを含むトランスダクティブ学習モデルについて最適化性能と汎化性能を解析した.ブースティング理論で一般的な仮定(弱学習条件)の下で,ある種のマルチスケールGNNの推定誤差の上限が層数に対して単調減少する事を示した.さらに,実データでの節点予測問題におけるマルチスケール GNN の挙動が理論と整合性を持つことを確認した.本講演は鈴木大慈氏(情報理工)との以下の共同研究に基づく.

Kenta Oono and Taiji Suzuki, Optimization and Generalization Analysis of Transduction through Gradient Boosting and Application to Multi-scale Graph Neural Networks, arXiv preprint arXiv:2006.08550, 2020