인문학
사회과학
자연과학
공학
의약학
농수해양학
예술체육학
복합학
지원사업
학술연구/단체지원/교육 등 연구자 활동을 지속하도록 DBpia가 지원하고 있어요.
커뮤니티
연구자들이 자신의 연구와 전문성을 널리 알리고, 새로운 협력의 기회를 만들 수 있는 네트워킹 공간이에요.
논문 기본 정보
- 자료유형
- 학위논문
- 저자정보
- 지도교수
- 김호원
- 발행연도
- 2024
- 저작권
- 부산대학교 논문은 저작권에 의해 보호받습니다.
이용수3
초록· 키워드
상세정보 수정요청해당 페이지 내 제목·저자·목차·페이지정보가 잘못된 경우 알려주세요!
자율 주행 차량과 감시 시스템과 같은 안전 중요 분야에서의 딥러닝 기술의 발전은 이러한 기술들이 적대적 공격에 대해 보호해야 할 긴급성을 강조한다. 물리적 적대적 공격은 객체의 외형에 구체적 변형을 가함으로써 컴퓨터 비전 모델의 잘못된 해석을 유발할 수 있는 실질적이고 중대한 위협을 제시한다. 이 논문은 물리적 적대적 위장을 생성하기 위한 방법론을 개발하고 이 분야의 이해를 심화시키기 위한 포괄적인 예비 사항을 제공함으로써 이 중대한 문제를 보여준다.
연구는 두 가지 상호 연결된 목표에 기반한다. 첫 번째 목표는 기존 3D 시뮬레이터에서의 미분 불가 문제를 해결하는 새로운 뉴럴 렌더러를 개발하는 것이다. 이 혁신은 화이트박스 공격 프레임워크에서 적대적 텍스처를 최적화하는 데 중요하며, 최적화 파이프라인에서 정확하고 사실적인 장면을 사용할 수 있게 한다.
두 번째 목표는 적대적 텍스처를 생성하기 위한 두 가지 정교한 프레임워크를 수립하는 것이다. 이 프레임워크들은 이전에 개발된 뉴럴 렌더러를 활용하고 공격의 효과를 높이기 위해 새로운 손실 함수와 모듈을 도입한다. 그들의 목표는 다양한 조건과 모델에 걸쳐 보편적으로 효과적인 텍스처를 생산하는 것으로, 이러한 적대적 기술의 다재다능성과 잠재적 위협을 모두 보여준다.
이 논문은 총체적으로 적대적 기계 학습 분야에 중요한 기여를 한다. 물리적 적대적 위장을 위한 혁신적인 방법뿐만 아니라 AI 시스템의 취약점을 강조하며, 중요한 응용 분야에서 강화된 AI 보안의 필요성을 강조한다.
연구는 두 가지 상호 연결된 목표에 기반한다. 첫 번째 목표는 기존 3D 시뮬레이터에서의 미분 불가 문제를 해결하는 새로운 뉴럴 렌더러를 개발하는 것이다. 이 혁신은 화이트박스 공격 프레임워크에서 적대적 텍스처를 최적화하는 데 중요하며, 최적화 파이프라인에서 정확하고 사실적인 장면을 사용할 수 있게 한다.
두 번째 목표는 적대적 텍스처를 생성하기 위한 두 가지 정교한 프레임워크를 수립하는 것이다. 이 프레임워크들은 이전에 개발된 뉴럴 렌더러를 활용하고 공격의 효과를 높이기 위해 새로운 손실 함수와 모듈을 도입한다. 그들의 목표는 다양한 조건과 모델에 걸쳐 보편적으로 효과적인 텍스처를 생산하는 것으로, 이러한 적대적 기술의 다재다능성과 잠재적 위협을 모두 보여준다.
이 논문은 총체적으로 적대적 기계 학습 분야에 중요한 기여를 한다. 물리적 적대적 위장을 위한 혁신적인 방법뿐만 아니라 AI 시스템의 취약점을 강조하며, 중요한 응용 분야에서 강화된 AI 보안의 필요성을 강조한다.
목차
- 1 Introduction 11.1 Background 11.2 Research Objectives 21.3 Summary of Contributions 31.4 Dissertation Outline 52 Preliminaries 62.1 Deep Learning-based Computer Vision 62.1.1 Convolutional Neural Networks (CNNs) 62.1.2 Image Classification 82.1.3 Object Detection 92.2 Adversarial Attacks 102.2.1 Problem Formulation 112.2.2 Taxonomy of Adversarial Attack 122.3 Physical Adversarial Attacks 152.3.1 Key Challenges in Physical Attacks 152.3.2 Forms of Physical Attacks 162.3.3 Techniques for Crafting Robust Physical Attacks 182.4 Threat Model 202.4.1 Definition of Physical Camouflage Attack 202.4.2 Attack Scenarios 212.5 3D Rendering 222.5.1 Basics of 3D Rendering 232.5.2 Photorealistic Rendering 242.5.3 Differentiable Rendering 242.5.4 Neural Rendering 253 Enabling Differentiability in Photo-realistic Rendering via Neural Renderer 273.1 Background 273.2 Problem Definition 293.3 Proposal of Differentiable Transformation Network (DTN) 303.3.1 Overview 303.3.2 Architecture 303.3.3 Training Procedure 313.4 Experiments Details 333.4.1 Implemented Framework 333.4.2 DTN Parameters 343.4.3 Datasets 343.4.4 Evaluation Metrics 343.5 Experiments Results 353.5.1 DTN with Different Architecture 353.5.2 DTN with Different Reference Types 373.5.3 DTN Sample Predictions on Unseen Data 373.5.4 Visualizing Transformation Features in DTN 413.6 Extending DTN into Neural Texture Renderer (NTR) 413.6.1 Redundancy in Transformation Features 413.6.2 Redundancy in Dataset 413.7 NTR Experiment Results 433.7.1 Experiment Settings 433.7.2 Performance Comparisons 443.7.3 NTR Sample Predictions 443.8 Chapter Summary 454 Attack Framework for Robust and Universal Physical Adversarial Camouflage 474.1 Introduction 474.2 Problem Definition 484.3 Proposed Attack Frameworks 494.3.1 DTA Framework 494.3.2 ACTIVE Framework 524.4 Experiments Details 564.4.1 Environment and Dataset 564.4.2 Attack Hyperparameters 584.4.3 Compared Methods 584.4.4 Evaluated Models and Metrics 604.5 Experiment Results 614.5.1 Robustness Evaluations 614.5.2 Universality Evaluations 664.5.3 Ablation Study 774.6 Chapter Summary 805 Conclusions, Implications, and Recommendations 815.1 Conclusions 815.1.1 Limitations of the Study 825.2 Implications 835.2.1 Justification and Broader Applicability 835.2.2 Ethical Considerations and Public Awareness 835.2.3 Implications for Policy and Regulation 845.3 Recommendations 845.4 Final Remarks 85List of Publications 94