메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

장용현 (고려대학교, 고려대학교 대학원)

지도교수
유헌창
발행연도
2022
저작권
고려대학교 논문은 저작권에 의해 보호받습니다.

이용수5

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
최근에는 환경 변화에 적응적이고 목적에 맞는 최적의 파드 오토스케일링 정책을 만들기 위해 강화학습 기반 파드 오토스케일링에 대한 연구가 많이 이루어지고 있다. 그러나 실제 환경에서 강화학습 기반 수평적 파드 오토스케일링 (HPA, Horizontal Pod Autoscaling) 정책을 학습하기 위해서는 많은 비용과 시간이 필요하다. 그리고 새로운 애플리케이션이 배포될 때마다 애플리케이션에 대응하는 새로운 강화학습 기반 HPA 정책을 쿠버네티스 클러스터에서 운영하며 학습하는 것은 실용적이지 않다.
본 논문에서는 정책 비교에 드는 비용과 자원을 최소화하기 위해 이산시간 대기행렬 모델을 사용한 시뮬레이션 기법을 제안하고, 강화학습 기반 HPA 정책 학습을 가속하기 위한 전이학습 기법을 제안한다. 시뮬레이션 기법을 통해 1,000,000 초 분량의 워크로드를 사용해서 강화학습 기반 HPA 정책을 학습하고 평가하는데 53.1 초밖에 걸리지 않게 하였으며, 전이학습을 사용함으로써 전이학습을 사용하지 않았을 때 보다 최대 약 42.6%의 비용을 절감할 수 있었다.

목차

1. Introduction 1
2. Background 5
2.1. Kubernetes Pod Autoscaling 5
2.2. Reinforcement Learning 6
3. Related Works 8
3.1. HPA Modeling for Simulation 8
3.2. Autoscaling Methods 8
3.3. Reinforcement Learning-based Autoscaling 10
4. Discrete-time Queueing Model for HPA 14
4.1. Profiling the Performance of Application 14
4.2. System Environment Modeling 17
4.3. Kubernetes HPA Policy Modeling for Baseline 22
4.4. Model Validation 24
5. Reinforcement Learning-based HPA 26
5.1. Scenario 26
5.2. Reinforcement Learning Design 27
5.2.1. State 27
5.2.2. Reward 27
5.2.3. Action 28
5.2.4. Policy Update 29
5.3. Transfer Learning Technique 30
5.3.1. Offline-Learning Mode : Pre-training 32
5.3.2. Online-Learning Mode : Transfer Learning 32
6. Experiments 35
6.1. Policy Comparison using Simulation 35
6.1.1. Kubernetes HPA Comparison Simulation 37
6.1.2. RL-based HPA Comparison Simulation 39
6.1.3. 3-action, 5-action Comparison Simulation 40
6.2. Evaluation of Transfer Learning 42
7. Conclusion 48
References 50

최근 본 자료

전체보기

댓글(0)

0