메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술대회자료
저자정보
석혜원 (상명대학교) 김민석 (상명대학교)
저널정보
한국컴퓨터정보학회 한국컴퓨터정보학회 학술발표논문집 2024년 한국컴퓨터정보학회 하계학술대회 논문집 제32권 2호
발행연도
2024.7
수록면
41 - 44 (4page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
네트워크의 규모가 커짐에 따라 증가하는 사이버 공격에 대응할 방법으로 실제 공격 시나리오를 모방하여 대응 전략을 모색하는 사이버 훈련장 연구가 주목받게 되었다. 더 나아가, 복잡한 문제 해결에서 강점을 보였던 강화학습을 결합한 훈련장이 개발되었다. 하지만 환경에 분산이 큰 보상이나 과도한 step limit의 책정 등 강화학습 에이전트의 학습을 방해하는 요소가 있었으며, 이는 공격 전략 생성기술의 성능 저하를 야기하기 때문에 개선이 필요하다. 이에 본 논문에서는 강화학습 기반 사이버 훈련장인 Cyber Battle Simulation(CyberBattleSim)을 활용하여 에이전트가 효율적으로 공격 전략을 구성할 수 있도록 할 수 있는 학습 방법을 도입하고 새로운 보상 값을 제안한다. 제안하는 방법은 에이전트가 시간 단계를 고려하여 효율적인 행동을 선택할 수 있도록 하였다. CyberBattleSim에서 제공하는 ToyCTF-V0에서 Deep Q-Network(DQN) 알고리즘을 실험 한 결과, 본 논문에서 제안하는 학습 기법 및 보상 함수의 사용으로 에이전트가 기존환경보다 낮은 step인 48을 기록하였으며, 제안하는 방법이 최적 정책 학습 및 수렴 속도의 개선에 기여할 수 있었음을 검증하였다. 본 논문은 강화학습 기반 사이버 훈련장에서 환경 특성 분석의 중요성을 강조하고 에이전트의 최적 정책 탐색을 통한 효율적인 공격 전략 생성에 기여한다.

목차

요약
I. Introduction
II. Preliminaries
III. Proposed Method
IV. Research and Analysis
V. Conclusions
REFERENCES

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0