리뷰 논문인 Adversarial Machine Learning in Image Classification:A Survey Toward the Defender’s Perspective 를 읽다가 필요한 부분 정리
Auxiliary Detection Models (ADMs)
대체로 보조의 binary 모델을 만들기 위한 adversarial training =>
이를 filter로 이용 : classifier f 로 보내기 이전에 legitimate or adversarial 판별

On the (Statistical) Detection of Adversarial Examples (2017)
2017년도의 아카이브 논문이다.
https://arxiv.org/pdf/1702.06280.pdf
•legitimate image dataset T : (xi,yj), i ≤ |T|, j ≤ n
legitimate data를 활용해 adversarial images training dataset을 추가로 생성
•Adversarial images dataset T': (x’k,n+1), k ≤ |T| × m
xi의 label yj에 대해 m가지 공격방법으로 적대적인 이미지 x’k를 생성
n+1번째 class를 adversarial image class로 지정
•이후, 본래의 legitimate image dataset에 adversarial images dataset을 더해 전체 dataset T1을 만들고 학습을 진행
T1 = T ∪ T1 = (xi,yj) ∪ (x’k,n+1), i ≤ |T|, j ≤ n, k ≤ |T| × m
Test 시 이를 filter로 이용 : Adversarial Examples이 adversarial image class로 분류 되었는지를 평가


CNN은 2 layer이용. 2017논문이라서 그런가보다
댓글