메뉴 건너뛰기
소속 기관 / 학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

(부산대학교, 부산대학교 대학원)

지도교수
김호원
발행연도
저작권
부산대학교 논문은 저작권에 의해 보호받습니다.

이용수3

표지
AI에게 요청하기
추천
검색

초록· 키워드

상세정보 수정요청해당 페이지 내 제목·저자·목차·페이지
정보가 잘못된 경우 알려주세요!
자율 주행 차량과 감시 시스템과 같은 안전 중요 분야에서의 딥러닝 기술의 발전은 이러한 기술들이 적대적 공격에 대해 보호해야 할 긴급성을 강조한다. 물리적 적대적 공격은 객체의 외형에 구체적 변형을 가함으로써 컴퓨터 비전 모델의 잘못된 해석을 유발할 수 있는 실질적이고 중대한 위협을 제시한다. 이 논문은 물리적 적대적 위장을 생성하기 위한 방법론을 개발하고 이 분야의 이해를 심화시키기 위한 포괄적인 예비 사항을 제공함으로써 이 중대한 문제를 보여준다.

연구는 두 가지 상호 연결된 목표에 기반한다. 첫 번째 목표는 기존 3D 시뮬레이터에서의 미분 불가 문제를 해결하는 새로운 뉴럴 렌더러를 개발하는 것이다. 이 혁신은 화이트박스 공격 프레임워크에서 적대적 텍스처를 최적화하는 데 중요하며, 최적화 파이프라인에서 정확하고 사실적인 장면을 사용할 수 있게 한다.

두 번째 목표는 적대적 텍스처를 생성하기 위한 두 가지 정교한 프레임워크를 수립하는 것이다. 이 프레임워크들은 이전에 개발된 뉴럴 렌더러를 활용하고 공격의 효과를 높이기 위해 새로운 손실 함수와 모듈을 도입한다. 그들의 목표는 다양한 조건과 모델에 걸쳐 보편적으로 효과적인 텍스처를 생산하는 것으로, 이러한 적대적 기술의 다재다능성과 잠재적 위협을 모두 보여준다.

이 논문은 총체적으로 적대적 기계 학습 분야에 중요한 기여를 한다. 물리적 적대적 위장을 위한 혁신적인 방법뿐만 아니라 AI 시스템의 취약점을 강조하며, 중요한 응용 분야에서 강화된 AI 보안의 필요성을 강조한다.

목차

  1. 1 Introduction 1
    1.1 Background 1
    1.2 Research Objectives 2
    1.3 Summary of Contributions 3
    1.4 Dissertation Outline 5
    2 Preliminaries 6
    2.1 Deep Learning-based Computer Vision 6
    2.1.1 Convolutional Neural Networks (CNNs) 6
    2.1.2 Image Classification 8
    2.1.3 Object Detection 9
    2.2 Adversarial Attacks 10
    2.2.1 Problem Formulation 11
    2.2.2 Taxonomy of Adversarial Attack 12
    2.3 Physical Adversarial Attacks 15
    2.3.1 Key Challenges in Physical Attacks 15
    2.3.2 Forms of Physical Attacks 16
    2.3.3 Techniques for Crafting Robust Physical Attacks 18
    2.4 Threat Model 20
    2.4.1 Definition of Physical Camouflage Attack 20
    2.4.2 Attack Scenarios 21
    2.5 3D Rendering 22
    2.5.1 Basics of 3D Rendering 23
    2.5.2 Photorealistic Rendering 24
    2.5.3 Differentiable Rendering 24
    2.5.4 Neural Rendering 25
    3 Enabling Differentiability in Photo-realistic Rendering via Neural Renderer 27
    3.1 Background 27
    3.2 Problem Definition 29
    3.3 Proposal of Differentiable Transformation Network (DTN) 30
    3.3.1 Overview 30
    3.3.2 Architecture 30
    3.3.3 Training Procedure 31
    3.4 Experiments Details 33
    3.4.1 Implemented Framework 33
    3.4.2 DTN Parameters 34
    3.4.3 Datasets 34
    3.4.4 Evaluation Metrics 34
    3.5 Experiments Results 35
    3.5.1 DTN with Different Architecture 35
    3.5.2 DTN with Different Reference Types 37
    3.5.3 DTN Sample Predictions on Unseen Data 37
    3.5.4 Visualizing Transformation Features in DTN 41
    3.6 Extending DTN into Neural Texture Renderer (NTR) 41
    3.6.1 Redundancy in Transformation Features 41
    3.6.2 Redundancy in Dataset 41
    3.7 NTR Experiment Results 43
    3.7.1 Experiment Settings 43
    3.7.2 Performance Comparisons 44
    3.7.3 NTR Sample Predictions 44
    3.8 Chapter Summary 45
    4 Attack Framework for Robust and Universal Physical Adversarial Camouflage 47
    4.1 Introduction 47
    4.2 Problem Definition 48
    4.3 Proposed Attack Frameworks 49
    4.3.1 DTA Framework 49
    4.3.2 ACTIVE Framework 52
    4.4 Experiments Details 56
    4.4.1 Environment and Dataset 56
    4.4.2 Attack Hyperparameters 58
    4.4.3 Compared Methods 58
    4.4.4 Evaluated Models and Metrics 60
    4.5 Experiment Results 61
    4.5.1 Robustness Evaluations 61
    4.5.2 Universality Evaluations 66
    4.5.3 Ablation Study 77
    4.6 Chapter Summary 80
    5 Conclusions, Implications, and Recommendations 81
    5.1 Conclusions 81
    5.1.1 Limitations of the Study 82
    5.2 Implications 83
    5.2.1 Justification and Broader Applicability 83
    5.2.2 Ethical Considerations and Public Awareness 83
    5.2.3 Implications for Policy and Regulation 84
    5.3 Recommendations 84
    5.4 Final Remarks 85
    List of Publications 94

최근 본 자료

전체보기