Adversarial Attack 2

[논문 리뷰] Adversarial Examples Are Not Bugs, They Are Features

paper - Adversarial Examples Are Not Bugs, They Are Features 2019년도 NIPS에서 발표된 논문으로 Adversarial Examples이 만들어지는 현상의 이유에 대해서 새로운 관점으로 해석한 논문입니다. AI 보안 이슈에서 아주 중요한 분야이기 때문에 모든 AI 연구자들에게 도움이 되는 논문이라고 생각합니다. Adversarial Example이란, 아래 보이는 왼쪽의 돼지 이미지에 아주 작은 노이즈를 더하여 오른쪽의 돼지 이미지를 만드는 것을 의미합니다. 사람의 눈으로 볼 때는 아무런 변화가 없지만, 분류 모델의 입장에서 두 이미지는 "pig"와 "airliner"로 완전히 다른 이미지로 인식됩니다. 따라서 이러한 문제는 앞서 말했듯이 AI 보안에서..

논문 리뷰 2020.05.31

[논문 리뷰] Feature Denoising for Improving Adversarial Robustness

Paper - Feature Denoising for Improving Adversarial Robustness Facebook AI Research에서 작성한 2019년도 논문입니다. 논문에서는 Adversarial Robustness를 높이는 방법으로 Feature Denoising 기법 적용을 제안하고 여러가지 실험 결과를 공유합니다. 보통 Adversarial Example 이미지는 Pixel 레벨에서 볼 때 사람의 눈으로 구분이 거의 불가능한 수준입니다. 따라서 Pixel을 이용해서는 판단이 안되는데 그렇다면 과연 Feature 레벨에서는 어떤 다른점이 있을까?라는 생각으로 Adversarial Example의 Feature map을 확인했더니 아래 그림과 같이 차이점이 눈에 뛰게 드러나는 것을..

논문 리뷰 2020.03.27