Stabilizing Adversarial Invariance Induction from Divergence Minimization Perspective (IJCAI2020)

Sorry, this entry is only available in Japanese. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language. 国際人工知能会議(IJCAI2020)にて、このほど当研究室の論文 「Stabilizing Adversarial Invariance Induction from Divergence Minimization Perspective」(分布マッチングの観点からみた敵対的不変表現学習の安定化) が採択されました。 著者:岩澤有祐、阿久澤圭、松尾豊 論文リンク:https://www.ijcai.org/Proceedings/2020/271 主な著者である松尾研究室 特任助教 岩澤さんより、 論文の概要や採択までのエピソードについて解説してもらいました。 敵対的学習を用いた不変表現学習 今回の研究は、「不変表現学習」についてです。 表現の不変性とは、ある表現が特定の因子に対して独立であることを指す概念です。 不変性が重要な例として、監視カメラの動画から不審行動を検知するシステムを考えてみます。このシステムが、もし背丈などの身体的特徴に依存した予測をしていると、身体的特徴によって予測精度が大きくぶれる(ある特定のユーザ群にはうまく働くが,他のユーザ群にはうまく働かない)といった問題を引き起こす可能性があります。実際にシステムを活用する多くの場面では、未知のユーザに対してもうまく働くことが期待されるため、このような予測のぶれを防ぐために身体的特徴に依存しない情報(表現)を活用した判断をする必要があります。 あるいは、たとえば肌が黒い人がいるという情報を抽出し、それを判断の基準に利用することは、社会通念上問題になる場合があります。公平性の観点から、検知システムは肌の色に依存しないことが求められます。 しかし、表現学習の手法として近年よく使われる深層ニューラルネットワーク(以下、DNN)は、獲得した表現が、このように特定の因子に対し独立である(不変性を持つ)とは限りません。このような制約を、明示的にDNNの学習に組み込む技術が、「不変表現学習」と呼ばれる技術です。…