이미지 기반 정책 함수에 대한 적대적 공격Adversarial Attack on Visuomotor Policy

이찬미, 윤민성, and 윤성의
한국컴퓨터종합학술대회 (KCC), 2024

이 논문은 심층 강화학습으로 학습된 이미지 기반 행동 정책 모델이 적대적 공격에 취약할 수 있음을 보인다. 적대적 공격은 이미지에 미세한 교란을 추가하여 인공지능 모델의 예측을 왜곡하는 것을 의미한다. 로보틱스 분야에서도 인공지능 모델이 사용되면서 이러한 공격에 관한 연구가 주목받고 있다. 공격을 받으면 로봇은 예상치 못한 행동을 하여 위험한 상황을 일으킬 수 있다. 본 연구는 대표적인 강화학습 기법인 Soft Actor Critic (SAC) 모델을 대상으로, 가치 최소화 교란 기법을 제시하며 이를 적용하여 정책 모델이 낮은 가치를 가지는 행동을 하도록 유도한다. 실험 결과는 공격 여부에 따른 Q 함숫값 차이와 로봇 움직임 경로를 분석하여, 적대적 교란이 로봇의 행동 결정에 어떻게 영향을 주는지 평가하였다. 이를 통해 심층 강화학습 기반 행동 결정 시스템이 적대적 공격에 취약할 수 있음을 보였다.