DOI QR코드

DOI QR Code

Deep Learning-based Real-time Traffic Accident Type and Fault Information Provision Service

딥러닝 기반 실시간 교통사고 유형 및 과실 정보 제공 서비스

  • 김근모 (충북대학교 전기.전자.정보.컴퓨터공학부) ;
  • 조진성 (충북대학교 전기.전자.정보.컴퓨터공학부) ;
  • 김성민 (선문대학교 컴퓨터공학부) ;
  • 백승환 (선문대학교 컴퓨터공학부) ;
  • 류승훈 (선문대학교 법.경찰학과) ;
  • 고재종 (선문대학교 법.경찰학과) ;
  • 김봉재 (충북대학교 컴퓨터공학과)
  • Received : 2021.04.30
  • Accepted : 2021.06.04
  • Published : 2021.06.30

Abstract

Determining the percentage of negligence between the parties in the event of road traffic accidents is a significant problem. In order to provide users with more accurate criteria for determining the percentage of negligence, several companies are providing services. However, services currently available are limited to immediate use at the scene of an accident. Generally, the service that determines the percentage of negligence can be used after all accident handling procedures have been completed. This paper provides a real-time traffic accident type and fault rate information provision service utilizing a deep learning-based predictive model to overcome these limitations. Users can immediately identify accident types and fault information by taking pictures at the accident site and check actual precedents of the same accident type. Users will be able to use the service to more accurately and reliably determine the percentage of negligence and handle incidents.

도로 위 교통사고 발생 시 당사자 간의 과실 비율 판정이 주요 문제가 되고 있다. 사용자에게 더욱 정확한 과실 비율 판정 기준을 제공하기 위하여 여러 기업에서 서비스를 제공하고 있다. 하지만 현재 제공되고 있는 서비스들은 사고 현장에서 즉시 사용하기에는 한계가 있다. 일반적으로 현재 제공되는 과실 비율 판정 서비스는 모든 사고처리 절차가 종료된 이후 시간적 여유가 있을 때 사용된다. 이와 같은 한계를 극복하고자 본 논문에서는 딥러닝 기반의 예측 모델을 활용한 실시간 교통사고 유형 및 과실 비율 정보 제공 서비스를 제공한다. 사용자는 사고 현장에서 사진을 찍는 것으로 즉시 사고 유형 및 과실 정보 파악이 가능하며, 동일 사고 유형의 실제 판례를 확인할 수 있다. 사용자는 서비스를 사용하여 더욱 정확하고 확실한 과실 비율 판정 및 사고처리 절차를 진행할 수 있을 것이다.

Keywords

Ⅰ. 서론

도로 위 교통사고 발생이 빈번하게 발생하고 있다. 이와 관련된 손해배상 문제가 발생하게 되고, 사고 당사자 간의 과실 비율 판정은 매우 중요한 요소이다. 과실 비율판정은 일반적으로 손해보험협회에서 만든 기준례가 통용되고 있으며 이에 대한 웹 기반의 시스템이 구축되어있다. 이 시스템은 사고 유형별로 입력을 하게 되면 자신의 과실 비율을 알 수 있지만, 사고 현장에서는 바로 쓰이기 어렵다는 문제점이 있다. 관련하여 교통사고 발생 시 사고 현장에서 즉시 사고 경위 및 과실 비율을 대략적으로 알아보고 판정해볼 수 있는 시스템이나 서비스의 필요성이 증가하고 있다. 본 연구에서는 인공지능 기술을 기반으로 하여 스마트폰으로 촬영된 사진을 통해 교통사고 유형을 구분하고 과실 비율을 제공할 수 있는 서비스를 제안한다.

사용자는 차 대 차 교통사고 발생 시 사고 사진을 찍어 업로드 하는 것으로 서비스 이용이 가능하다. 사용자가 사고 사진을 업로드 하게 되면 해당 사진은 서버로 전송된다. 그 후 딥러닝 기반 예측 모델은 이에 해당하는 사고 유형을 추론하게 된다. 사용자는 딥러닝 모델의 예측 결과에 기반으로 한 사고 유형과 해당 사고 유형의 판결 사례를 확인할 수 있다. 이를 통해 교통 사고 현장에서 유사한 사고 사례와 과실 비율 정보를 파악할 수 있어 교통사고 후속 처리에 도움이 될 수 있을 것이다.

이후 본 논문의 구성은 다음과 같다. 2장에서는 CNN (Convolutional Neural Network)모델[1][2][3]을 이용한 교통 관련 연구에 대해 서술하고 본 연구와의 차별성에 대해서 서술한다. 이후 3장에서는 서비스의 설계에 대하여 다루고 4장에서 서비스의 구현 결과에 관하여 다룬다. 마지막으로 5장에서 결론을 서술하는 것으로 본 논문을 마친다.

Ⅱ. 관련 연구

많은 분야에서 인공지능을 분야 중 하나인 딥러닝 기법을 많이 사용한다[4][5]. 본 연구에서 사용한 CNN 모델은 딥러닝 기술로 이미지를 인식하거나 분류하는데 매우 뛰어난 성능을 보여주는 기술이다. 또한 많은 연구들에서 CNN 모델을 이용하여 이미지 인식 및 처리한다. 그중에서도 본 연구와 비슷하게 교통사고나 자동차 안전과 관련된 많은 연구들이 존재한다. 대부분의 연구들은 교통사고를 사전에 예방하여 교통사고를 감소시키는 것에 목적을 두고 있다.

교통사고 감소에 목적을 두고 있는 것 중 대표적으로는 교통표지판을 인식하고 관련 정보를 이용하는 연구가 있다[6][7][8]. 이러한 연구들에서는 운전자가 주행을 하고있는 지역의 제한 속도, 카메라, 보호구역 등 주시해야 하는 중요한 요소들을 미리 교통표지판을 통해 인식을 하여 운전자에게 제공한다. 또한 실시간으로 변화하는 교통상황을 인식하고 즉각적으로 운전자에게 알려줌으로써 교통사고의 예방에 도움을 주고 있다.

본 연구에서는 교통사고 예방에 중점을 두는 것이 아니라 교통사고 직후 많은 운전자들이 겪는 문제 중 하나인 과실 비율 판정에 대해 교통사고 현장에서 즉각적으로 과실정보와 관련 판례를 제공해줄 수 있는 서비스를 제안한다.

Ⅲ. 서비스 설계 및 구현

본 연구에서 제안하는 서비스는 그림 1과 같은 방식으로 동작한다. 먼저 사용자는 인터넷 접속이 가능한 모바일 기기를 통하여 제안하는 딥러닝 기반 실시간 교통사고 유형 및 과실 정보 제공 웹 사이트에 접속한다. 사용자는 웹 사이트에 발생한 교통사고 사진을 촬영하여 업로드한다. 업로드가 완료되면 이미지는 서버의 예측 모델을 통해 교통사고 유형, 과실비율을 예측한다. 그 후 사고 유형 예측 결과는 사용자에게 다시 전송된다. 이때 예측 결과와 같은 유형의 교통사고 판례를 데이터베이스에서 불러와 사용자에게 법적 근거와 판례 사례를 동시에 제공한다.

OTNBBE_2021_v21n3_1_f0001.png 이미지

그림 1. 서비스 시나리오

Fig. 1. Service Scenario

이후 본 논문에서는 고안한 서비스의 시스템 구조에 대하여 설명하고, 시스템 구조의 각 요소에 대해 구체적으로 설명한다.

1. 시스템 구조

제안하는 딥러닝 기반 실시간 교통사고 유형 및 과실정보 제공 서비스를 위한 시스템은 그림 2와 같은 구조를 갖는다. 크게 프론트엔드, 백엔드 그리고 데이터베이스로 나뉜다. 프론트엔드 서버는 Javascript 라이브러리인 Vue.js[9]를 사용하여 구현하였다. 백엔드 서버는 Node.js express를 사용하여 구현하였으며, 백엔드 서버에서 사용한 딥러닝 모델은 Python 프레임워크인 Tensorflow[10]를 사용하여 구현하였다. 데이터베이스는 관계형 데이터베이스인 MySQL을 사용하였다.

OTNBBE_2021_v21n3_1_f0002.png 이미지

그림 2. 시스템 구조도

Fig. 2. System Architecture

프론트엔드의 경우 사용자에게 빠른 응답성을 제공하기 위해 반응형 웹 구현에 초점을 두었다. 때문에 Javascript 기반의 반응형 웹 라이브러리인 Vue.js를 채택하였으며, 추후 기능 확장에 용이하도록 웹 페이지의 각 영역을 컴포넌트로 나누어 설계와 구현을 하였다. 프론트엔드에서 서버에 대한 모든 요청은 특정 URI의 API 를 호출하는 방식으로 백엔드 서버에 전달된다. URI는 모두 Restful API[11]로 정의하였다[12].

백엔드의 경우 여러 사용자의 요청을 효율적으로 처리하고, 고성능의 서버 구현을 위하여 Javascript 기반 라이브러리인 Node.js[13]를 채택하였다. 또한 프론트엔드와 HTTP 통신을 수행하기 위하여 Express.js 프레임워크를 사용하였다. 백엔드 에서는 사용자가 교통사고 유형 및 과실 비율 정보를 요청할 때마다 사전에 학습된 딥러닝 모델을 사용하여 예측 결과를 도출할 수 있도록 하였다. 또한 관계형 데이터베이스인 MySql을 사용하여 예측 결과에 따라 실제 판례를 제공할 수 있도록 설계 및 구현하였다.

2. 딥러닝 기반 교통사고 유형 및 과실 예측 모델

제안하는 서비스에서 중요한 부분은 교통사고 유형 및 과실 비율을 예측하는 딥러닝 기반의 예측 모델이다. 이후에는 CNN 형태로 구성된 교통사고 유형 및 과실 비율예측 모델에 대해서 설명한다.

가. 교통사고 데이터 셋

표 1은 교통사고 유형 및 과실 비율 예측 모델의 학습과 검증에 사용한 교통사고 데이터 셋의 전체적인 구성을 나타낸다. 본 논문에서 사용한 데이터 셋은 크롤링과 자동차 커뮤니티 사이트에서 수집하였고, 여러 사고 유형 중 빈번하게 발생하는 추월 사고와 교차로 사고를 위주로 하여 구성하였다. 학습(Training)과 검증 (Validation)을 위해 데이터 셋은 약 7:3의 비율로 나누었다. 데이터셋의 각 이미지는 300 × 300 의 크기를 가진다. 또한 각 이미지는 흑백이다. 또한 적은 이미지 수로 인해 학습의 정확도가 낮은 것을 방지하기 위해 Keras에서 제공하는 ImageDataGenerator를 사용하여 이미지 전처리를 하였다.

표 1. 교통사고 데이터 셋

Table 1. Traffic Accident Dataset

OTNBBE_2021_v21n3_1_t0001.png 이미지

나. 교통사고 유형 및 과실 예측 모델 구조

교통사고 유형 및 과실 비율 예측 모델은 표 2와 같은 구조를 가진다. 예측 모델의 학습에 사용된 이미지 수가 상대적으로 적기 때문에 충분한 학습이 이루어질 수 있도록 총 16개의 레이어로 구성된다. Convolution 레이어는 모두 3 × 3 크기의 필터를 사용하고 활성화 함수로 relu 함수를 사용하였다. Feature가 너무 많아져 과적합이 일어나는 것을 방지하기 위해 Max Pooling 레이어를 사용하였다. 또한 과적합에 의한 정확도 감소를 방지하기 위해 레이어 중간에 Batch Normalization 레이어를 추가하였고, 후반부에 Dropout 레이어를 사용하였다.

표 2. 모델 구조

Table 2. Model Architecture

OTNBBE_2021_v21n3_1_t0002.png 이미지

Ⅳ. 서비스 구현 및 결과

1. 서비스 제공을 위한 컴퓨팅 환경

표 3과 표 4는 딥러닝 기반 실시간 교통사고 유형 및 과실 정보 제공 서비스의 구현에 사용된 백엔드 서버와 프론트엔드 서버의 컴퓨팅 환경이다.

표 3. 백엔드 컴퓨팅 환경

Table 3. Back-end Computing Environment

OTNBBE_2021_v21n3_1_t0003.png 이미지

표 4. 프론트엔드 컴퓨팅 환경

Table 4. Front-end Computing Environment

OTNBBE_2021_v21n3_1_t0004.png 이미지

2. 딥러닝 기반 예측 모델 평가

표 5는 교차로 사고와 추월 사고 대한 학습된 모델의 정확도(Accuracy)와 손실(Loss) 값을 보여준다. 정확도를 측정할 때에는 멀티 클래스에서 분류 정확도를 측정하는 방식을 사용하였고[14], 손실 값을 구하기 위해 평균 제곱 오차 함수를 사용하였다. 표 5에서 확인할 수 있듯이 정확도와 손실 값에 대한 편차가 큰 이유는 모델 학습 과정에서 데이터가 충분하지 못하기 때문이다. 이와 같은 문제는 향후 연구에서 추가적으로 교통사고 데이터셋을 보강하고 교통사고 유형 및 과실 예측 모델 구조를 변경하여 개선할 계획이다.

표 5. 학습/검증시의 정확도 및 손실 값

Table 5. Accuracy and Loss Values at Learning/Validation

OTNBBE_2021_v21n3_1_t0005.png 이미지

3. 교통사고 유형 및 과실 정보 제공 서비스 구현 결과

그림 4는 사용자가 업로드한 교통사고 이미지에 대한 사고 유형을 확인 할 수 있는 교통사고 유형 확인 페이지의 구현된 예를 보여준다. 사용자가 사고 당시의 사진을 찍어 업로드를 하게 되면, 사용자는 그림 5와 같이 예측된 결과를 확인할 수 있다.

OTNBBE_2021_v21n3_1_f0003.png 이미지

그림 4. 교통사고 유형 확인 페이지

Fig. 4. Traffic Accident Type Page

OTNBBE_2021_v21n3_1_f0004.png 이미지

그림 5. 교통사고 상세보기 페이지

Fig. 5. Traffic Accident Detail Page

그림 5는 사용자가 업로드한 사고 유형에 대한 과실 비율, 법적 근거, 관련 판례 정보를 데이터베이스 통해 가져와 보여주는 페이지의 예를 보여준다. 교통사고 상세보기 페이지를 통해 사용자는 좀 더 자세하게 과실 비율, 법적근거, 관련판례를 확인할 수 있다.

Ⅴ. 결론

본 논문에서 딥러닝 기반 예측 모델을 활용한 교통사고 유형 및 과실 비율 정보 제공 서비스를 설계하고 구현하였다. 제안 서비스는 클라우드 기반의 서비스로 확대하여 적용할 수 있어 사용자가 교통사고 현장에서 즉시 활용이 가능하다. 사용자가 교통사고 현장을 사진으로 찍어 업로드하게 되면 딥러닝 모델은 해당 사고의 유형을 예측하고 사용자는 즉시 확인이 가능하다. 또한 동일사고 유형의 실제 판례를 제공하여 사용자는 더욱 정확하고 확실한 과실 비율 판정 및 사고처리 절차를 진행할 수 있을 것으로 기대 된다.

본 논문에서 제안한 서비스는 다양한 유형의 교통사고에 확대하여 적용이 가능하다. 다만, 현재 기업이나 커뮤니티 등에서 제공하는 교통사고 사진이 한정적이기 때문이며 교통사고 유형별 이미지 데이터가 부족하다는 문제점이 있다. 향후 연구에서는 이미지의 크기와 이미지의 각도를 변경하여 추가적인 이미지 데이터를 확보하는 데이터 증강 기법을 사용하여 예측 모델을 개선할 계획이다.

References

  1. Liu, Shuying, and Weihong Deng, "Very deep convolutional neural network based image classification using small training sample size", 2015 3rd IAPR Asian conference on pattern recognition (ACPR), IEEE, pp. 730-734, 2015. DOI: https://doi.org/10.1109/ACPR.2015.7486599
  2. Seok-Jin Kwon, and Min-Soo Kim, "Flaw Evaluation of Bogie connected Part for Railway Vehicle Based on Convolutional Neural Network", Journal of the Korea Academia-Industrial cooperation Society, Vol. 21, No. 11, pp. 53-60, 2020. DOI: https://doi.org/10.5762/KAIS.2020.21.11.53
  3. Jae-Myung Kim, Gyu-Ho Choi, Jin-Su Kim, and Sung Bum Pan, "User Recognition using Electromyogram 2D Spectrogram Images based on CNN", Journal of KIIT, Vol. 19, No. 1, pp. 107-117, 2021. DOI: https://doi.org/10.14801/jkiit.2021.19.1.107
  4. Nwankpa, Chigozie, et al, "Activation functions: Comparison of trends in practice and research for deep learning", arXiv preprint arXiv:1811.03378, 2018.
  5. Seung-Bin Lee, et al, "Comparison of fine-tuned convolutional neural networks for clipart style classification", International Journal of Internet, Broadcasting and Communication, Vol. 9, No. 4, pp. 1-7, 2017. DOI: https://doi.org/10.7236/IJIBC.2017.9.4.1
  6. Mao, Xuehong, et al, "Hierarchical CNN for traffic sign recognition", 2016 IEEE Intelligent Vehicles Symposium (IV), IEEE, pp. 130-135, 2016. DOI: https://doi.org/10.1109/IVS.2016.7535376
  7. Shustanov, Alexander, and Pavel Yakimov, "CNN design for real-time traffic sign recognition", Procedia engineering, Vol. 201, pp. 718-725, 2017. DOI: https://doi.org/10.1016/j.proeng.2017.09.594
  8. Zhu, Zhe, et al, "Traffic-sign detection and classification in the wild", Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 2110-2118, 2016.
  9. Wohlgethan, Eric, "SupportingWeb Development Decisions by Comparing Three Major JavaScript Frameworks: Angular, React and Vue. js", Diss. Hochschule fur Angewandte Wissenschaften Hamburg, 2018.
  10. Abadi, Martin, et al, "Tensorflow: A system for large-scale machine learning", 12th USENIX symposium on operating systems design and implementation (OSDI 16), pp. 254-283, 2016.
  11. Masse, Mark. "REST API Design Rulebook: Designing Consistent RESTful Web Service Interfaces", O'Reilly Media, Inc, 2011.
  12. Fielding, Roy T, "Architectural styles and the design of network-based software architectures", University of California, Irvine, 2000.
  13. Tilkov, Stefan, and Steve Vinoski, "Node. js: Using JavaScript to build high-performance network programs", IEEE Internet Computing, Vol. 14, No. 6, pp. 80-83, 2010. DOI: https://doi.org/10.1109/MIC.2010.145
  14. Bo-Seon Hong, and Bong-Jae Kim, "Efficient Caoshu Character Recognition Scheme and Service Using CNN-Based Recognition Model Optimization", Sensors, Vol. 20, No. 16, 2020. DOI: https://doi.org/10.3390/s20164641