DOI QR코드

DOI QR Code

Virtual-Constructive Simulation Interoperation for Aircombat Battle Experiment

Virtual-Constructive 시뮬레이션 연동을 활용한 공중전 전투 실험

  • 김동준 (한국과학기술원 산업 및 시스템공학과) ;
  • 신용진 (한국과학기술원 산업 및 시스템공학과) ;
  • 안경수 (한화시스템 항공우주연구소 항공시스템팀) ;
  • 김영곤 ((주)한화시스템 항공우주연구소 항공시스템팀) ;
  • 문일철 (한국과학기술원 산업 및 시스템공학과) ;
  • 배장원
  • Received : 2020.09.07
  • Accepted : 2021.03.13
  • Published : 2021.03.31

Abstract

Simulations enable virtually experiencing rare events as well as analytically analyzing such events. Defense modeling and simulation research and develops the virtual and the constructive simulations to support these utilizations. These virtual and constructive(VC) simulations can interoperate to simultaneously virtual combat experience as well as evaluations on tactics and intelligence of combat entities. Moreover, recently, for artificial intelligence researches, it is necessary to retrieve human behavior data to proceed the imitation learning and the inverse reinforcement learning. The presented work illustrates a case study of VC interoperations in the aircombat scenario, and the work analyze the collected human behavior data from the VC interoperations. Through this case study, we discuss how to build the VC simulation in the aircombat area and how to utilize the collected human behavior data.

시뮬레이션을 통하여 경험하기 어려운 사건을 가상적으로 체험할 수도 있으며, 분석을 수행할 수도 있다. 국방시뮬레이션 분야에서 이런 체험을 기반으로 Virtual 시뮬레이션이 연구 개발되고 있으며, 분석을 위하여 Constructive 시뮬레이션이 연구 개발되고 있다. 이런 시뮬레이션을 연동하여, VC(Virtual-Constructive) 시뮬레이션 환경을 구성할 수 있고, VC 시뮬레이션 환경은 전투 환경의 가상적인 경험과 교전개체의 지능적인 전술을 동시에 시험할 수 있는 환경이다. 또한, 최근의 인공지능 연구를 위해, 사람의 행동을 학습하는 이미테이션 학습 혹은 역강화학습 분야는 VC 환경에서 수집된 인간 행동 데이터를 필요로 한다. 제시된 연구는 공중전 분야에 VC 시뮬레이션 환경의 사례를 보여주며, 이를 통해 수집된 인간 행동 데이터의 특징을 분석하고 있다. 본 논문을 통하여, 공중전 분야 VC 시뮬레이션 환경이 어떻게 구축될 수 있으며, 인공지능 학습을 위하여 어떻게 활용될 수 있는지 보여준다.

Keywords

References

  1. 이동진, 방효충 (2009), "강화학습을 이용한 무인전투기(UCAV) 근접 공중전". 한국항공우주학회 학술발표회 초록집, pp. 249-252.
  2. 문일철, 정민재, 김동준 (2020), "깊은강화학습 기반 1-vs-1 공중전 모델링 및 시뮬레이션". 한국시뮬레이션학회 논문지, 29(1), pp. 39-46.
  3. 한승엽, 이병윤, 탁민제 (2016), "Scoring Function Matrix 를 활용한 2:1 전투기 3차원 공중전 기동 생성". 한국항공우주학회 학술발표회 초록집, pp. 435-436.
  4. Abbeel, P., & Ng, A. Y (2004), "Apprenticeship learning via inverse reinforcement learning", In Proceedings of the twenty-first international conference on Machine learning, pp. 1.
  5. Bonanni, Pete (1993), The art of the kill. Spectrum HoloByte
  6. Ernest, N., Carroll, D., Schumacher, C., Clark, M., Cohen, K., & Lee, G (2016), "Genetic fuzzy based artificial intelligence for unmanned combat aerial vehicle control in simulated air combat missions". Journal of Defense Management, 6(144), pp. 2167-0374.
  7. Ho, Jonathan, and Stefano Ermon (2016), "Generative adversarial imitation learning.", Advances in neural information processing systems(NIPS). 2016.
  8. Toghiani-Rizi, B., Kamrani, F., Luotsinen, L. J., & Gisslen, L (2017), "Evaluating deep reinforcement learning for computer generated forces in ground combat simulation". In Proceedings of 2017 IEEE International Conference on Systems, Man, and Cybernetics (SMC), pp. 3433-3438
  9. Sutton, R. S., & Barto, A. G (1998), Introduction to reinforcement learning. Cambridge: MIT press.
  10. Shaw, R. L (1985), Fighter Combat. Naval Institute Press.
  11. Zeigler, Bernard P., Tag Gon Kim, and Herbert Praehofer, (2000), Theory of Modeling and Simulation.