Mixup-Inference
Tianyu Pang, Kun Xu, Jun Zhu / Mixup Inference Better Exploiting Mixup to Defend Adversarial Attacks / 2020 The International Conference on Learning Representations (ICLR)
๋ณธ ๋ ผ๋ฌธ์ ๋ฏน์ค์ ์ ํตํด adversarial Robustness๋ฅผ ํฅ์์ํค๋ ๋ฐฉ๋ฒ์ ์ ์ํ๋ค. ๊ธฐ์กด ๋ฏน์ค์ ๊ณผ ๋ฌ๋ฆฌ Training ๋จ๊ณ์์ input์ noise๋ฅผ ์ถ๊ฐํ๋ ๋ฐฉ๋ฒ์ด ์๋ inference๋ ๊ฒฐ๊ณผ๋ฅผ mixupํ๋ ๋ฐฉ๋ฒ์ด๋ค.
๋ ผ๋ฌธ๋งํฌ https://arxiv.org/abs/1909.11515
1. Problem Definition
1) Adversarial Attacks
data label pair (x, y)์ ์ถ๊ฐ๋ก adversaial binary ๋ณ์ z(1์ผ ๊ฒฝ์ฐ adversarial)๋ฅผ ์ถ๊ฐํด์ ์ฌ์ฉํ๋ค. ๋ณธ ๋ ผ๋ฌธ์์๋ $l_p$-norm ์ดํ์ ์ฌ์ฉํ๋ฉฐ $(||\delta||_p \leq\epsilon)$, clean sample $x_0$์ ๋ํด ๋ ธ์ด์ฆ๊ฐ ์ถ๊ฐ๋ $x$๊ฐ์ ๋ค์๊ณผ ๊ฐ๋ค.
2) Mixup in Training
mixup ๋ฐฉ๋ฒ์ Beyond Empirical Risk Minimization์์ ์ฒ์ ์ ์๋ ๋ฐฉ๋ฒ์ผ๋ก ๋ ์ํ $(x_i, y_i), (x_j, y_j)$์ ์ ํ๊ฒฐํฉ์ ํตํ data augmentation๊ธฐ๋ฒ์ด๋ผ๊ณ ๋ณผ ์ ์๋ค. ์๋กญ๊ฒ ๋ง๋ค์ด์ง ๊ฐ์์ ๋ฐ์ดํฐ $(\tilde{x}, \tilde{y})$๋ ๋ค์๊ณผ ๊ฐ๋ค. $\tilde x = \lambda x_i + (1-\lambda) x_j$, $\tilde y = \lambda y_i + (1-\lambda) y_j$, where $\lambda \sim Beta(\alpha, \alpha)$ ๋ ์ํ๊ฐ์ ๋น๊ณต๊ฐ์ ์๋ก์ด ๊ฐ์ ๋ฐ์ดํฐ๋ฅผ ์ฑ์๋ฃ์์ผ๋ก์ ๋ค์ํ ์ํ์ ํ์ตํ๊ธฐ ๋๋ฌธ์ model์ ์ ๋ฐ์ ์ธ ์ฑ๋ฅ์ ํฅ์์ํค๋ ๋์์ adversarial robustness๋ ํฅ์์ํจ๋ค๊ณ ์๋ ค์ ธ ์๋ค. ๋ํ, ์ผ๋ฐ์ ์ธ Adversarial Training๊ณผ ๋น๊ตํ์๋ ์ฐ์ฐ๋์ด ํ์ ํ ๋ฎ๊ณ , clean data์ ๋ํ ์ฑ๋ฅ๋ ๋ณด์ฅํ๊ธฐ ๋๋ฌธ์ ์ด ๋ถ๋ถ์์ ์ฅ์ ์ ๊ฐ์ง๊ณ ์๋ค.
2. Motivation
๋ณธ ๋ ผ๋ฌธ์์๋ ๊ธฐ์กด์ mixup training์ฒ๋ผ input sample์ ์์ด์ training data๋ก๋ง ํ์ฉํ๋ ๊ฒฝ์ฐ, input์ locality์์ ํฌ๊ฒ ๋ฒ์ด๋์ง ๋ชปํ๊ธฐ ๋๋ฌธ์ mixup ๋ณธ์ฐ์ 'globally linear behavior'๋ฅผ ๊ทน๋ํํ์ง ๋ชป ํ๋ค๊ณ ์ฃผ์ฅํ๋ค. (์ฌ๊ธฐ์ 'globally linear behavior'๋ ์์์ ์๊ธฐํ ๋ ์ํ์ ๋น๊ณต๊ฐ์ ์กด์ฌํ๋ ์๋ก์ด ๊ฐ์ ๋ฐ์ดํฐ๋ฅผ ์ฌ์ฉํ๋ ๊ฒ์ ์๋ฏธํ๋ค.) ์ฆ, ์ ์๋ mixup์ ํจ๊ณผ๋ฅผ ๋ ๊ทน๋ํํ๊ธฐ ์ํด inference phase์์ mixup ํ ๊ฒ์ ์ ์ํ๋ค.
3. Method
1) Notations
$y$ : ground truth $\hat y$ : predicted label $y_s \sim p_x(y)$ : sampled label $x_s \sim p_s(x|y_s)$: sampled data $\tilde x = \lambda x + (1-\lambda) x_s$ $z$ : adversarial flag
$F$ : mixup-trained model $H$ : linear function $G$ : extra non-linear part of F
2) Mixup Inference
์ ์๋ ์ training ๋ mixup ๋ชจ๋ธ์ ์๋์ ๊ฐ์ด ๊ฐ clean input๋ค์ ์ ํํจ์์ ๊ฒฐํฉ์ผ๋ก ๋ํ๋ผ ์ ์๋ค๊ณ ์ค๋ช
ํ๋ค.
๋ณธ ๋
ผ๋ฌธ์์๋ ์ด๋ฌํ ์ ํ๊ฒฐํฉ์ผ๋ก ์ ๊ฐ๋๋ ๋ด์ฉ์ ๋ํ ์์ธํ ๋ด์ฉ์ ์ธ๊ธ๋์ด ์์ง ์๊ณ , MixUp as Locally Linear Out-Of-Manifold Regularization ๋
ผ๋ฌธ์ ์ฐธ์กฐํ์ฌ ๋ฐ๋ก ์ฌ์ฉํ๋ ๊ฒ์ผ๋ก ์ค๋ช
๋์ด ์๋ค.
๋ค๋ง, Adversarial Training ์ ๊ฒฝ์ฐ noise์ ๋ํ non-linear part G๊ฐ ์ถ๊ฐ๋๊ณ ,
์ต์ข ์ ์ผ๋ก mixup ๊ฐ $\tilde x$์ ๋ํ ๊ฒฐ๊ณผ๋ ๋ค์๊ณผ ๊ฐ์ด ์ ๊ฐ๋๋ค.
Mixup Inference๋ ์ด $F(\tilde x)$๊ฐ์ N๋ฒ ํ๊ท ์ ์ฌ์ฉํด์ model์ ์ ๋ฐ์ดํธ ํ๋ ๋ฐฉ๋ฒ์ด๋ค.

(5)์์ ๋ ์ ๋ฆฌํ๋ฉด, clean data $x_0$์ sampled data $x_s$์ ๋ํด $H_y(x_0) = 1$, $H_{y_s}(x_S) = 1$ ์ด๊ณ , ์๋ ์์์ $F$ ๊ฒฐ๊ณผ๋ฅผ ๊ฐ๊ฐ $y$, $\hat y$์ ๋ํด ์๋์ ๊ฐ์ด ๋ํ๋ผ ์ ์๋ค.
$y$, $\hat y$ ๋ ๊ฒฝ์ฐ ๋ชจ๋ $y_s$(sampled label)์ ์ํฅ์ ๋ฐ๊ธฐ ๋๋ฌธ์ ๋ ผ๋ฌธ์์๋ MI-PL($y=\hat y$), MI-OL($y\neq\hat y$) ๋ ๊ฐ์ง ๋ฒ์ ์ ๋๋ ์ ํจ๊ป ์ดํด๋ณผ ํ์๊ฐ ์๋ค๊ณ ์ค๋ช ํ๋ค
๊ฐ๊ฐ์ ๊ฒฝ์ฐ $F$๊ฐ์ ์์ฝํ๋ฉด ๋ค์๊ณผ ๊ฐ๋ค. ($z=1$์ธ ๊ฒฝ์ฐ adversarial sample, $z=0$์ธ ๊ฒฝ์ฐ clean sample์ ์๋ฏธํ๋ค.)
์ถ๊ฐ๋ก Mixup Inference ์ /ํ robustness ํฅ์์ ๋, ์ค์ attack๋ ์ํ ํ์ง์ ๋์ ๋ํ ํ๊ฐ์งํ๋ก ๊ฐ๊ฐ Robustness Improving Condition(RIC)์ Detection Gap(DG)๋ฅผ ์ ์ํ๋ค.
RIC(10๋ฒ ์)๋ adversarial sample์ ๋ํด ํ์ต ์ดํ์ ์์ธก๋ F๊ฐ ์ฆ, confidence๊ฐ ๋ฎ์์ง์๋ก, DG(11๋ฒ ์)๋ adversarial atack์ด ๋ sample๊ณผ ์๋ sample๊ฐ์ confidence ์ฐจ์ด๊ฐ ํด ์๋ก ํ์ต์ด ์ ๋ ๊ฒฐ๊ณผ์์ ์๋ฏธํ๋ค.
3) Theoretical Analysis
์์์ ์ ์ํ RIC ์์ MI-PL, MI-OL ๊ฐ๊ฐ ์๋์ ๊ฐ์ด ์ ๋ฆฌํ ์ ์๋ค.
MI-PL (Predicted Label)
MI-OL (Other Label)
Analysis results
๊ฐ์ฅ ์ผ์ชฝ plot๊ณผ ๊ฐ์ด๋ฐ plot์์ adversarial inputs(์ฃผํฉ์ ์ค์ )๋ฅผ ๋ณด๋ฉด ์ค์ ๋ก MI๋ฅผ ์ ์ฉํ์ง ์์์ ๋($\lambda = 1$)๋ณด๋ค MI๋ฅผ ์ ์ฉํ์ ๋($\lambda \neq 1$), $F_y$๋ ์ฆ๊ฐํ๊ณ $F_{\hat y}$์ ๊ฐ์ํ๊ธฐ ๋๋ฌธ์ ์ด๋ RIC(10๋ฒ์)์ ๋ง์กฑํ๋ ๊ฒฐ๊ณผ์์ ์ ์ ์๋ค. ๊ฐ์ฅ ์ค๋ฅธ์ชฝ์ plot์ [$G_k(\delta;x_0)-G_k(\lambda\delta;\tilde x_0)$]์ ๊ทธ๋ฆฐ ๊ทธ๋ํ์ด๋ค. ๊ทธ๋ํ ๊ฐ์ ๋ณด๋ฉด ์์ 12, 15(ํธ์์ ์๋ ์์์ minus๊ฐ์ ๊ทธ๋ํ์ ํ์ํจ) ์์์ ์ ์ํ ์กฐ๊ฑด์ ๋ชจ๋ ๋ง์กฑํ๊ณ ์๊ธฐ ๋๋ฌธ์(์ฆ, RIC ์ฑ์ง์ ๋ง์กฑํ๋ค๋ ์๋ฏธ) MI ๋ฐฉ๋ฒ์ด adversarial training์ ํจ๊ณผ์ ์ธ ๋ฐฉ๋ฒ์์ ๋ณด์ฌ์ค๋ค.
4. Experiment
Experiment setup
Dataset : CIFAR-10, CIFAR-100
Model : ResNet-50
Adversarial Attack : Gaussian noise, Random rotation, Random cropping and resizing, Random cropping and padding
Baseline : Mixup(๊ธฐ๋ณธ์ ์ธ mixup training ํ attack์ ๋ํ accuracy ์ธก์ ), Interpolated AT(Interpolated Adversarial Training์์ ์๊ฐ๋ Mixup ๋ฐฉ๋ฒ์ ์ด์ฉํ AT method)
Result
๋ ผ๋ฌธ์์๋ MI-PL๊ณผ MI-OL์ ๊ฒฐํฉํ Mi-Combined ๋ฒ์ ๋ ์คํ๊ฒฐ๊ณผ์ ํฌํจ์์ผฐ๋ค. MI_PL์ ์ ์ฉํ๋ค๊ฐ adversarial input detection ๊ฐ์ด ํน์ ์๊ณ๊ฐ์ ๋์ด๊ฐ๋ฉด MI_OL์ ์ ์ฉํ๋ ๋ฐฉ๋ฒ์ด๋ค.
์๋ ์คํ๊ฒฐ๊ณผ๋ฅผ ํตํด, Mixup, Interpolated AT ๋ชจ๋ Mixup Inference method๋ฅผ ํจ๊ป ์ฌ์ฉํ์๋ ๋ ์ข์ ์ฑ๋ฅ์ ๋ณด์ฌ์ฃผ๋ ๊ฒ์ ์ ์ ์๋ค.
CIFAR-10
CIFAR-100
5. Conclusion
๋ชจ๋ธ์ ์์ธก๊ฐ์ Mixup ํ๋ ๋ฐ์์ด ์๋ก์์ ๊ด์ฌ์๊ฒ ๋ณธ ๋ ผ๋ฌธ์ด์๋ค. Input mixup, Manifold Mixup์ ์ด์ด์ ์๋ก์ด ๋ฐฉ๋ฒ์ mixup ๋ฐฉ๋ฒ์ผ๋ก ์๊ฐ ํ ์ ์์ ๊ฒ ๊ฐ๋ค. ํ์ง๋ง motivation์์ ์ ์ํ๋ฏ์ด Inference๋จ๊ณ์์ Mixupํ๋ ๊ฒ์ด Mixup ๋ณธ์ฐ์ 'globally linear behavior' ์ฑ์ง์ ํ๋์ํฌ ์ ์์ ๊ฑฐ๋ผ๋ ์ฃผ์ฅ์ ๋ํ ๊ทผ๊ฑฐ๋ ๋ช ํํ๊ฒ ์ฆ๋ช ๋์ง ์๊ณ ์คํ์ ์ผ๋ก ์ฑ๋ฅ๋น๊ต๋ง ์ ์๋ ๊ฒ์ด ์์ฌ์ด ์ ์ด์๋ค.
Author Information
๊น์ ํ(JUNGHURN KIM): Master student, KSE, KAIST
6. Reference & Additional materials
github https://github.com/P2333/Mixup-Inference
Last updated