You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
gConv: ゲート機構の畳み込み.Depth-wiseとPoint-wiseを用いている.NAFNetに近い構造だが,オリジナルのGLUに則って非線形活性化関数にシグモイドを用いている.
SK Fusion:局所と大域の特徴マップをチャンネルアテンション(SE-Layer)を通した後に加算してるだけ.
INFO
author
Yuda Song† Yang Zhou† Hui Qian Xin Du
affiliation
Zhejiang University, Hangzhou, China
conference or year
2022
link
arXiv
実装
概要
dehazingタスクに既存の研究で提案されたネットワークやパイプラインは問題なく動作するが,キーとなるメカニズムが依然として不明瞭である.この研究では複雑なモジュール等を用いることなく最小限の修正をUNetに加えることで,コンパクトなdehazingネットワークを提案.複数のdehazingデータセットにおいて他のSoTA手法に勝ることをを示した.
提案手法
gConv: ゲート機構の畳み込み.Depth-wiseとPoint-wiseを用いている.NAFNetに近い構造だが,オリジナルのGLUに則って非線形活性化関数にシグモイドを用いている.
SK Fusion:局所と大域の特徴マップをチャンネルアテンション(SE-Layer)を通した後に加算してるだけ.
検証
ablation study
新規性
議論,展望
Comment
Ablation Studyからわかるように最適な学習方法やレイヤーの選択を行なっている.それによって軽くてシンプルなネットワークを実現している.
単純に精度の観点から言えば,先行研究も同様に最適なハイパラの選択を行えば,この研究を超えるような精度もでる気がする.
PixelShuffleとUpsamplingのablationも見たかった.
LayerNormは空間相関を破壊するとDehazeFormerで述べられているが,InstanceNormがBatchNormより大幅に下がる理由はなんだろう.
date
Feb. 4th 2023
The text was updated successfully, but these errors were encountered: