DOI QR코드

DOI QR Code

A Development of Longitudinal and Transverse Springback Prediction Model Using Artificial Neural Network in Multipoint Dieless Forming of Advanced High Strength Steel

초고강도 판재 다점성형공정에서의 인공신경망을 이용한 2중 곡률 스프링백 예측모델 개발

  • 곽민준 (부산대학교 항공우주공학과 석사과정) ;
  • 박지우 (부산대학교 부품소재산학협력연구소 전임연구원) ;
  • 박근태 (부산대학교 항공우주공학과 석사과정) ;
  • 강범수 (부산대학교 항공우주공학과 교수)
  • Received : 2019.12.05
  • Accepted : 2020.02.05
  • Published : 2020.04.01

Abstract

The need for advanced high strength steel (AHSS) forming technology is increasing as interest in light weight and safe automobiles increases. Multipoint dieless forming (MDF) is a novel sheet metal forming technology that can create any desired longitudinal and transverse curvature in sheet metal. However, since the springback phenomenon becomes larger with high strength metal such as AHSS, predicting the required MDF to produce the exact desired curvature in two directions is more difficult. In this study, a prediction model using artificial neural network (ANN) was developed to predict the springback that occurs during AHSS forming through MDF. In order to verify the validity of model, a fit test was performed and the results were compared with the conventional regression model. The data required for training was obtained through simulation, then further random sample data was created to verify the prediction performance. The predicted results were compared with the simulation results. As a result of this comparison, it was found that the prediction of our ANN based model was more accurate than regression analysis. If a sufficient amount of data is used in training, the ANN model can play a major role in reducing the forming cost of high-strength steels.

Keywords

1. 서론

최근 전세계적으로 환경문제가 심화되면서 자동차의 연비 및 배기가스 배출 기준이 강화되고 있다. 이에 따라 자동차 산업은 차량 경량화와 운전자의 안전성 향상이란 상반된 목표를 달성하기 위한 방법으로 고강도의 강판을 적용한 자동차 부품 개발에 몰두하고 있다. 일반적으로 차량의 무게를 10% 낮추면 5~7% 정도의 연비 향상 효과를 가져온다[1~2]. 고강도 강(steel) 중 항복강도(yield strength) 550 MPa, 인장강도(tensile strength) 780 MPa 이상의 강도를 가진 강을 초고강도강(advanced high strength steel, AHSS)이라고 한다[3]. AHSS를 적용하면 같은 두께의 연강(mild steel)과 충돌성능(crashworthiness) 대비 약 50%의 무게를 줄일 수 있다[4]. 하지만 고강도의 강일수록 성형하는 판재가 성형 후 부분적으로 원래 상태로 돌아가려고 하는 스프링백(spring back)상이 강하게 발생하고 예측이 어렵다[5]. 과거와 비교해 자동차의 형상은 점점 복잡해지고 있고 그에 따른 초고강도 판재의 성형기술 발전이 필요하다.

본 연구에서는 인공신경망(artificial neural network, ANN)기법을 이용해 다점성형공정(multipoint dieless forming, MDF)에서 판재 성형 시 종, 횡 방향 스프링백을 예측할 수 있는 모델을 개발했다.

MDF는 Fig. 1[6]과 같이 위아래 위치한 다수의 펀치들의 배열을 통해 판재에 종, 횡방향의 2중 곡률을 만들어주는 성형방법으로 다품종 소량생산이 필요한 첨단 산업에 적합한 공정이다. 하나의 공정 장비로부터 필요한 여러 곡률을 적용시킬 수 있는 장점이 있다.

SSGGB@_2020_v29n2_76_f0001.png 이미지

Fig. 1 Upper and lower matrices of punches in MDF press[6]

인공신경망은 기본적으로 입력된 변수(input data)와 출력할 변수(output data)간의 관계를 입력층(input layer), 은닉층(hidden layer), 출력층(output layer) 사이에 가중치(weight)를 통해 나타내고 각 층의 뉴런(neuron)에 대한 가중치를 역전파(back propagation method) 기법을 통해 학습시키는 알고리즘으로 최근 많은 분야에 적용되고 있다. 실제 많은 연구에서 회귀분석(regression analysis)과 같은 기존의 예측모델과 비교해 좋은 결과를 보여주고 있다[7~9].

연구를 진행하기 위해 MDF 공정 결과에 영향을 줄 수 있는 인자들로 입력변수를 선정하였고, 시뮬레이션을 통해 인공신경망 모델에 학습시킬 데이터를 획득했다. 학습 데이터를 인공신경망 모델과 회귀분석 모델에 학습시켰고, 그 결과를 적합도 검정(goodness of fit test)을 통해 비교하였다. 최종적으로 학습된 인공신경망 모델에 임의의 입력변수를 입력해 출력된 예측 값과 시뮬레이션을 통해 출력된 값을 비교하여 실제 예측모델로서 사용될 수 있는지 확인하였다. 

2. MDF 모델링 및 해석

MDF는 펀치들의 배열을 바꿈으로써 다양한 곡률을 만들어낼 수 있지만 성형면이 불연속적이기 때문에 곡률의 크기와 누르는 힘의 크기에 따라 성형결과물에 주름(wrinkling)과 압흔(dimpling)이 발생하는 단점이 있다. 이 두 문제점을 발생시키지 않기 위해서는 성형물의 물성과 크기에 따라 판재 두께와 목표 곡률을 선정해주는 것이 중요하다[10].

MDF 모델링 및 해석은 ABAQUS 상용 프로그램을 사용하여 수행되었다. 적절한 성형 범위를 찾기 위해 시뮬레이션을 돌려본 결과, 같은 조건에 대하 여 convex 형상으로 성형된 판재가 saddle 형상에 비해 주름 발생에 더 취약했다. 이는 성형되는 면에 대해 saddle 형상의 경우 압축(compression)과 인장(tension)이 같이 발생하지만 convex 형상의 경우 한 면에 대하여 압축 혹은 인장만 발생하기 때문이다. 위 문제를 해결하기 위해 convex 형상 성형 시 펀치의 크기를 saddle 형상 성형에 사용한 펀치의 크기보다 작게 하고 펀치 수를 늘려서 펀치와 판재의 접촉면을 넓혔다. 최종적으로 saddle 형상은 Fig. 2 (a)와 같이 직경 40 mm의 펀치를 위 아래 각각 10×12개 배열하였고, convex 형상은 Fig. 2 (b)와 같이 직경 20 mm의 펀치를 아래 위 각각 20×24개 배열하여 성형을 진행하였다. 반복적인 시뮬레이션을 통해 주름과 압흔 현상, 해석 시간 등을 고려하여 성형할 DP980 판재의 크기를 400×480 mm, 두께를 4~6 mm로 선정하였고 목표 곡률 반경을 saddle, convex 모두 종, 횡 방향 600~800 mm로 선정하였다.

SSGGB@_2020_v29n2_76_f0002.png 이미지

Fig. 2 Simulation model of MDF process

본 논문에 사용된 DP980의 물성식은 식 (1)과 같다.

σ = A + Bεn       (1)

σ는 응력, ε은 변형률, A=285.035, B=1127.94, n=0.128 이다.

위 아래 위치한 특정 곡률의 배열을 가진 펀치들이 판재를 눌러 목표 곡률 성형 후, 펀치들을 제거하여 외력이 없는 상태에서 1초의 시간을 주어 스프링백이 일어나게 했다. Fig. 3은 임의의 곡률로 성형했을 때 각 형상의 스프링백 전, 후의 응력분포를 나타낸 것이며 Fig. 4는 Fig. 3의 스프링백 전, 후의 횡 방향 곡률을 나타낸 것이다. 인공신경망 모델의 학습을 위한 데이터로는 Fig. 3 (a), (b)의 하단에 위치한 스프링백 후의 상태에서 종, 횡 방향 곡률을 측정하였다. 학습을 위한 각 파라미터(parameter)들은 3수준으로 정의하여 3수준 3인자 완전요인설계(full factorial design)를 실험계획으로 활용하였다. Saddle 형상, convex 형상 각각 27개의 시뮬레이션 데이터를 얻었으며 임의의 입력 값에 대해 예측 정확도를 검증하는 random sample data test를 위해 형상 별 각각 10개의 데이터를 얻어 총 74개의 시뮬레이션 데이터를 부록 Table 3~6에 정리하였다.

SSGGB@_2020_v29n2_76_t0003.png 이미지SSGGB@_2020_v29n2_76_t0004.png 이미지SSGGB@_2020_v29n2_76_t0005.png 이미지SSGGB@_2020_v29n2_76_t0006.png 이미지

SSGGB@_2020_v29n2_76_f0003.png 이미지

Fig. 3 Stress distribution before and after springback (a) 701x783 mm–5.07T , (b) 609x701 mm–5.39T

SSGGB@_2020_v29n2_76_f0004.png 이미지

Fig. 4 Comparison of curvature before and after springback

3. 인공신경망을 이용한 예측 모델 구성

인공신경망을 이용한 예측모델 설계에는 구글(google)에서 제공하는 파이썬(python) 기반 딥러닝(deep learning) 라이브러리인 텐서플로우(tensorflow)를 사용하였다. 직관성과 접근성이 뛰어나다는 장점이 있고 오픈소스이기 때문에 문제점 해결이 빠르다.

3.1 활성화 함수

인공신경망은 생물학의 신경망에서 영감을 얻어 수학적 모델로 재구성한 학습 알고리즘이다. 시냅스의 결합으로 네트워크를 형성한 인공 뉴런이 학습을 통해 시냅스의 결합 세기를 변화시켜 문제해결 능력을 가지는 비선형 모델이라고 볼 수 있다.

본 논문에서 사용한 다층 인공 신경망은 가장 기본적인 알고리즘으로 Fig. 5와 같이 구성되며 크게 입력층, 은닉층, 출력층 3가지로 구분된다. 각 층들은 n개의 노드로 구성되며 각 층의 노드들은 가중치를 가지는 망으로 모두 연결되어 있다. 입력 계층에서 입력 값 xi를 받아 각 층을 지나며 가중치 wij를 곱하고 편향(bias) bi를 더한 뒤 최종적으로 활성화 함수(activation function)를 통해 비선형성(nonlinearity)을 부여함으로써 출력 값 hi를 얻는다. 이러한 과정을 수식으로 나타내면 식 (2)~(3)과 같다.

SSGGB@_2020_v29n2_76_f0005.png 이미지

Fig. 5 Composition of ANN model​​​​​​​

\(u_{i}=\sum w_{i j} x_{i}+b_{i}\)       (2)

\(h_{i}=f\left(u_{i}\right)\)       (3)

식 (3)의 f(ui) 는 활성화 함수로 식 (4)로 표현되는 sigmoid 함수 가 주로 사용된다.

\(f\left(u_{i}\right)=1 /\left(1+e^{\left(-u_{i}\right)}\right)\)       (4)

Sigmoid 함수는 비선형성을 쉽게 부여할 수 있어 신경망 초기에는 많이 사용되었다. 인공신경망 알고리즘에서 학습을 통해 최적 값을 도출할 때 경사하강법(gradient descent)을 주로 사용하는데 이는 식 (5)와 같이 비용함수(cost function)인 출력된 값 hi와 실제 값 Yi의 차의 제곱을 줄여 나가는 방법이다.

\(\cos t(\theta)=\frac{1}{m} \sum_{i=1}^{m}\left(h_{i}-Y_{i}\right)^{2}\)       (5)

cos t(θ), m은 각각 비용함수, 데이터의 개수를 의미한다. 경사하강법은 미분 값으로 표현되는 기울기를 줄이며 비용함수의 최소값을 찾는다. 이 과정에서 sigmoid 함수의 경우 Fig. 6 (a)와 같이 |ui|값이 커질수록 값이 0에 가까워져 소실되는 gradient vanishing 현상이 발생하고 복잡한 연산으로 학습이 느린 단점이 있다. 따라서 본 논문에서는 sigmoid 함수 대신 ReLU(rectified linear unit) 함수를 활성화 함수로 사용했다. ReLU 함수는 최근 인공신경망에서 많이 사용되는 활성화 함수로 식 (6)과 같이 정의된다.

SSGGB@_2020_v29n2_76_f0006.png 이미지

Fig. 6 Comparison of sigmoid function and ReLU function​​​​​​​

\(f\left(u_{i}\right)=\max \left(0, u_{i}\right)\)       (6)

식 (6)은 음수 값은 0으로 바꾸고, 양수 값은 입력 값을 그대로 사용하는 함수로 sigmoid 함수의 문제점인 vanishing gradient를 해결할 수 있으며 동시에 비선형성을 부여하면서 간단한 구조이기 때문에 연산속도가 빠르다는 장점이 있다. Fig. 6에 sigmoid와 ReLU 함수를 비교하여 나타냈다.

3.2 가중치 초기화

인공신경망 기법을 사용할 때 가중치 초기화(weight initialization)는 학습의 성공 유무를 결정할 수 있는 중요한 요소이다. 가중치 초기화만 잘 해줘도 실제 학습률과 학습시간을 상당히 높일 수 있다. 최근 성능이 좋다고 평가받는 초기화 기법으로 Xavier 초기화와 He 초기화가 있다.

초기화 기법이 발전되지 않은 초기에는 -1과 +1사이 범위에서 균등한 분포로 초기화 하는 랜덤 초기화를 사용하였다. 하지만 노드의 개수가 늘어나게 되면 활성화 함수에 입력되는 값 또한 커지게 되고 정해진 범위를 넘어서는 포화(saturation)현상이 발생하게 된다. 이러한 포화현상을 해결하기 위해 만들어 진 초기화 기법이 Xavier 초기화이다. Xavier 초기화는 입력 노드와 출력 노드의 개수에 기반해서 초기화의 범위를 정하는 방법으로 식 (7)로 표현되는 정규분포와 식 (8)으로 표현되는 균등분포 두가지 방법을 사용한다.

\(\operatorname{Var}(W)=\frac{2}{n_{i n}+n_{\text {out}}}\)       (7)

\(\operatorname{Var}(U)=[-\sqrt{\frac{6}{n_{i n}+n_{\text {out}}}}, \sqrt{\frac{6}{n_{i n}+n_{\text {out}}}}]\)       (8)

Var(W)는 정규분포의 분산으로 수식의 값을 기준으로 평균이 0이 되게 초기화 시키고, Var(U)는 균등분포의 분산으로 수식의 범위 내에서 균등하게 분포를 뽑아내어 가중치를 초기화한다. nin과 nout은 각각 초기화 하려는 특정구간의 가중치에 대해서 앞 층의 노드 개수와 뒤 층의 노드 개수이다. Xavier 초기화는 활성화 함수의 평균과 표준편차를 일정하게 유지시켜주어 인공신경망 모델의 성능을 향상시켜주지만 ReLU와 같이 함수의 평균이 0이 되지 않는 활성화 함수에는 적합하지 않다[11]. 본 연구에서는 활성화 함수로 ReLU 함수를 사용했기 때문에 He 초기화 기법을 사용하였다. He 초기화는 ReLU와 같은 함수에도 Xavier 초기화를 적용시킬 수 있게 수정된 방법이며 식 (9)~(10)의 정규분포와 균등분포 두가지 방법을 사용한다.

\(\operatorname{Var}(W)=\frac{2}{n_{i n}}\)       (9)

\(\operatorname{Var}(U)=[-\sqrt{\frac{6}{n_{i n}}}, \sqrt{\frac{6}{n_{i n}}}]\)       (10)

3.3 신경망 학습 최적화

인공신경망에서 최적화는 신경망 모델의 학습과 그 결과에 따른 비용함수의 값을 최소화하는 방향으로 하이퍼파라미터(Hyperparameter)의 값을 찾는 것을 의미한다. 3.1에서 언급했듯이 기본적인 최적화 방법에는 경사 하강법이 있다. 경사 하강법은 적용하기 쉬운 장점이 있지만 무작정 기울어진 방향으로 이동하는 방식이기 때문에 정확한 값을 찾는 탐색경로가 비효율적이라는 단점이 있다. 본 연구에서는 효율적인 경사 하강법을 위해 King and Ba[12]의 연구에서 제안된 기법인 Adam optimizer를 사용한다. Adam 최적화 알고리즘은 기존에 많이 사용되던 확률적 경사하강법(stochastic gradient descent)에 수식을 통해 관성(inertia)을 부여하여 학습되는 값이 학습 중 정확한 값으로 잘 수렴할 수 있게 하는 운동량 최적화 기법인 모멘텀(momentum)과 학습률(learning rate)을 초기에 크게 하여 빠르게 학습이 진행되고 어느정도 학습이 진행된 후 학습률을 세세하게 조정하여 정확한 값으로 수렴하게 하는 적응형 경사 하강법(adagrad)을 섞은 개념이다. 식 (11), (12)를 통해 과거의 갱신 값을 일정 부분 반영하면서 새로운 경사 방향과의 조합으로 갱신 크기를 계산한다.

\(m(n)=\beta_{1} m(n-1)+\left(1-\beta_{1}\right) \nabla E(p)\)       (11)

\(v(n)=\beta_{2} v(n-1)+\left(1-\beta_{2}\right)[\nabla E(p)]^{2}\)       (12)

∇E(p)는 n번째 갱신에서 임의의 지점 p에서의 경사 방향을 나타내고 m(n)은 1차 운동량 추정치, v(n)은 2차 운동량 추정치, β1과 β2는 감쇠 비율(decay rate)이다. 이러한 갱신 방식을 사용할 경우, 운동량의 초기값이 0이므로 초반 갱신 크기가 지나치게 작아지는 문제가 발생한다. 따라서 식 (13)~ (14)를 통해 경사 방향 및 경사 방향 자승의 지수 함수적인 갱신 크기 조절을 수행한다.

\(\hat{m}(n)=\frac{m(n)}{1-\beta_{1}^{n}}\)       (13)

\(\hat{v}(n)=\frac{v(n)}{1-\beta_{2}^{n}}\)       (14)

m(n)과 \(\hat{v}(n)\)은 지수 함수적으로 보정된 운동량 추정치이다. 위의 수식을 통해 최종적으로 만들어진 Adam 최적화 기법은 식 (15)와 같다.

\(p(n+1)=p(n)-\alpha \frac{\hat{m}(n)}{\sqrt{\hat{v}(n)}+\varepsilon}\)       (15)

α는 갱신 크기(step size), ε은 분모가 0이 될 때 발생하는 수치적 오류를 방지하기 위한 보정 값이다. 일반적으로 α는 0.001, β1은 0.9, β2는 0.999, E는 10-8을 사용하며 최적화되는 자료의 특성에 좌우된다[11].

본 연구에서는 위의 개념들을 적용하여 인공신경망을 구성하였고 인공신경망 특성상 성능이 좋은 은닉층 구조를 찾기 위해서는 경험적인 요소가 가장 중요하기 때문에 가장 수렴성이 좋은 은닉 층의 구조를 찾기 위해 반복적인 실험을 시행하였다. 최종적으로 Fig. 4와 같이 입력층에서 3개의 노드를 통해 횡 방향 곡률 반경, 종 방향 곡률 반경, 판재의 두께 3가지의 입력 값을 받아 각각 300개의 노드를 가지고 3개층으로 구성된 은닉층을 지나 출력층에서 스프링백 후의 종, 횡 방향 곡률반경을 예측하는 구성으로 모델을 설계하였다.

4. 인공 신경망 모델 검증

4.1 인공신경망 예측 결과 및 비교

Saddle 형상과 convex 형상 각각 27개의 학습데이터를 인공신경망 모델에 학습시켰고 실제 해석 결과와 학습한 데이터에 대한 모델의 예측 결과를 비교하여 부록의 Table 3, 4에 정리하였다. 학습 결과에 대한 검증을 위해 기존의 예측 모델에 많이 쓰이던 회귀분석 모델을 이용해 인공신경망 예측 결과와 비교하였다. 비교에 사용한 회귀분석 모델은 Park [13]의 연구를 참고하여 식 (16)과 같이 설계했다.

\(\begin{aligned} y=& \beta_{0}+\beta_{1} X_{1}+\beta_{2} X_{1}^{2}+\beta_{3} X_{2}+\beta_{4} X_{2}^{2}+\beta_{5} X_{1} \\ &+\beta_{6} X_{1}^{2}+\beta_{7} X_{1} X_{2}+\beta_{8} X_{2} X_{3}+\beta_{9} X_{1} X_{3}+E \end{aligned}\)       (16)

y는 종속 변수로 회귀 모델의 예측 값, Xi는 독립 변수로 입력 값, βi는 회귀계수(regression coefficient)를 의미하며 E는 오차를 보정해주는 값이다.

비교 방법으로는 적합도 검정을 사용하였다. 적합도 검정은 일반적으로 회귀분석에 많이 사용하는 방법으로 표본회귀식이 종속변수 값을 얼마나 정확하게 예측할 수 있는지에 대한 검증 방법이다. 적합도 검정 중 비교 방법으로 결정계수(coefficient of determination)와 평균 제곱근 편차(root mean square error, RMSE)를 사용하여 비교하였다. 결정계수는 R2로 표현되며 표본관측으로 추정한 회귀선이 실제로 관측된 표본과 얼마나 일치하는지를 계수로 나타낸 값으로 0과 1사이의 값을 가진다. 결정계수가 1에 가까울수록 적합도가 높은 모델이라고 판단한다. 결정계수를 구하는 방법은 식 (17)과 같다.

\(R^{2}=\frac{S S R}{S S T}=1-\frac{S S E}{S S T}\)       (17)

\(S S R=\sum\left(\hat{y}_{i}-\bar{y}_{i}\right)^{2}\) , \(S S T=\sum\left(y_{i}-\bar{y}_{i}\right)^{2}\) , \(S S E=\sum\left(y_{i}-\hat{y}_{i}\right)^{2}\)그리고 이다. SSR은 회귀 제곱 합, SSE는 오차 제곱 합, SST는 전체 제곱합을 의미하며 yi는 유한요소 해석 결과, \(\bar{y}_{i}\)는 yi의 평균, \(\hat{y}_{i}\)는 대체 모델의 예측 값이다.

RMSE는 모델이 예측한 값과 실제 값의 차이를 다룰 때 사용하는 측도이다. 각각의 차이를 잔차(residual)라고 하며 잔차들이 작을수록 RMSE의 값이 낮아지고 작을수록 모델의 적합도가 높다고 판단한다. 비교에는 RMSE를 예측 값에 맞게 값을 정규화 시킨 NRMSE(normalized root mean square error)를 사용했고 식 (18)과 같다.

\(N R M S E=\sqrt{\frac{S S E}{n}} \cdot \frac{1}{\left(y_{\max }-y_{\min }\right)}\)       (18)

n은 모델에 학습시킨 데이터 수, ymax는 예측 값의 최대 값, ymin은 예측 값의 최소 값이다.

 Table 1과 Fig. 7, 8은 인공신경망 모델의 예측 결과와 회귀분석 모델의 예측 결과를 적합도 검정과 그래프를 통해 오차를 비교한 결과이다. R2에서는 인공신경망 모델이 평균 0.9999이상으로 평균 0.9666인 회귀 모델과 비교해 더 높은 적합도를 보였고 NRMSE 또한 평균 4.65×10-5이하로 인공신경망 모델이 평균 5140×10-5인 회귀 모델과 비교해 더 높은 적합도를 보였다. 이는 인공신경망 모델의 장점을 잘 보여주는 결과이다. 회귀 모델의 경우 처리하는 데이터에 따라 그에 맞는 회귀식을 설계자가 찾아서 검증을 해야 하지만 인공신경망 모델의 경우 데이터 종류에 따라 적당한 기법을 적용시켜준다면 스스로 학습을 통해 데이터에 맞는 예측 모델로 변경 가능하다. 따라서 회귀모델보다 우수한 성능을 가진 대체 모델로써 사용될 수 있다고 판단할 수 있다.  

SSGGB@_2020_v29n2_76_t0001.png 이미지

SSGGB@_2020_v29n2_76_f0007.png 이미지

Fig. 7 Comparison of ANN model and regression model - saddle type

SSGGB@_2020_v29n2_76_f0008.png 이미지

Fig. 8 Comparison of ANN model and regression model - convex type​​​​​​​

4.2 Random sample data test

4.1절의 적합도 검정에서 인공신경망 모델은 회귀모델과 비교하여 뛰어난 결과를 보였다. 하지만 이는 학습 데이터를 바탕으로 학습된 데이터에 대해 재예측한 것으로 당연한 결과라고 할 수 있다. 따라서 학습된 모델이 임의의 데이터 입력에서도 결과를 잘 예측할 수 있는지 검증하기 위해 random sampling으로부터 saddle, convex 형상 각각 10개식 임의의 검증 데이터를 얻었다. 임의의 데이터를 입력 값으로 했을 때 유한요소 해석을 통한 결과 값과 인공신경망 모델을 통한 예측 값을 부록 Table 5, 6에 정리하였다. Table 2과 Fig. 9, 10는 Table 5, 6의 결과를 적합도 검정과 그래프를 통해 오차를 나타낸 결과이다. 

SSGGB@_2020_v29n2_76_t0002.png 이미지

SSGGB@_2020_v29n2_76_f0009.png 이미지

Fig. 9 Graphs of the observed curvature vs the predicted for random sample data - Saddle type

SSGGB@_2020_v29n2_76_f0010.png 이미지

Fig. 10 Graphs of the observed curvature vs the predicted for random sample data - Convex type​​​​​​​

결과를 보면 R2가 모두 0.9 이상으로 신뢰성 있는 모델이라고 볼 수 있다. 하지만 앞의 학습데이터 예측 결과에 비해 예측 정확도가 낮게 나왔다. Fig. 8, 9에서도 4.1절의 결과와 비교하여 예측 값이 측정 값을 연결한 선에서 조금 벗어나 있는 것을 확인할 수 있었고 이러한 결과가 NRMSE의 상승으로 이어진 것을 확인할 수 있다. 높은 학습률과 비교하여 낮은 예측도를 보이는 이유는 첫번째로 학습데이터 수의 부족으로 판단된다. 인공신경망은 양질의 데이터를 많이 학습해줄수록 성능이 향상된다. 특히 2중 곡률 스프링백과 같이 비선형성이 큰 데이터 같은 경우 정확한 예측을 위해선 많은 학습데이터 수를 요구한다. 본 연구에서 모델에 학습시킨 데이터 수가 각각 27개 밖에 되지 않기 때문에 기대보다 낮은 예측도를 보였다. 두 번째는 학습시킨 데이터의 범위이다. MDF의 문제점인 주름 현상이 일어나지 않는 범위 내에서 학습데이터의 범위를 찾으면서 600~800mm의 다소 좁은 범위의 곡률반경이 선정되었다. 적합도 검정에서 R2와 NRMSE는 데이터의 범위가 좁을수록 적합도에 대해 기준이 엄격해지기 때문에 검정 결과가 낮게 나오는 경향이 있다.

고강도 강판의 성형 비용을 줄이기 위해서는 정확한 예측 모델을 통해 스프링백을 예측해 성형 횟수를 줄이는 것이 중요하다. 따라서 본 연구에서의 결과를 볼 때 실제 예측 모델로써 사용되기는 아직 부족하다고 판단된다. 하지만 인공신경망의 특성상 양질의 학습데이터 수를 늘려줄수록 성능이 좋아지기 때문에 다양한 범위의 많은 학습데이터를 학습시킨다면 충분히 실제 예측 모델로 사용될 수 있을 만큼 예측 정확도가 상승할 것으로 보인다.

5. 결론

본 연구에서는 인공신경망 알고리즘을 이용해 초고강도 강판에서 MDF를 이용하여 2중 곡률 성형 시 스프링백 현상을 예측할 수 있는 모델을 개발하였다. 인공신경망 알고리즘은 데이터의 종류에 따라 스스로 학습을 통해 그 데이터를 분석하기 적합한 구조를 만들어 내는 장점이 있다. 따라서 데이터 종류에 따라 설계자가 직접 그에 맞는 회귀식을 만들어 줘야 하는 회귀분석보다 개선된 예측모델이라고 볼 수 있다. 만들어진 인공신경망 모델의 신뢰성을 검증하기 위해 적합도 검정을 사용하여 회귀모델과 적합도를 비교했고 임의의 입력 데이터에 대한 예측을 실제 결과와 비교하였다. 연구 결과를 요약하면 아래와 같다.

(1) 만들어진 인공신경망 모델은 다층 인공신경망 구조이며 입력층에서 횡방향 목표 곡률반경, 종방향 목표 곡률 반경, 성형하는 판재의 두께 총 3가지의 입력 데이터를 받아 은닉층을 거쳐 출력층에서 스프링백 후의 횡방향 곡률 반경, 종방향 곡률 반경을 예측한다. 은닉층은 각각 300개의 노드를 가진 3개의 층으로 구성되며 학습 동안 역전파 과정을 통해 가중치가 수정되며 정확한 예측 값으로 수렴된다.

(2) 인공신경망에 비선형성을 부여해주는 활성화 함수로는 ReLU 함수를 사용했다. ReLU 함수는 gradient vanishing 현상이 나타나지 않고 다른 활성화 함수와 비교해 간단한 형태의 비선형 함수이기 때문에 학습 속도가 빠르다는 장점이 있다. 가중치 초기화 방법으로는 He 초기화, 최적화 기법으로 Adam을 사용하여 학습 속도와 수렴성을 향상시켰다.

(3) 완성된 모델에 시뮬레이션 결과 값을 saddle, convex 각각 27개식 학습시켜 예측 결과를 회귀모델과 비교하였다. 비교 방법으로는 적합도 검정을 사용하였고 인공신경망 모델과 회귀모델의 예측결과에 대해 R2와 NRMSE을 비교하였다. 학습된 27개의 데이터에 대한 예측으로는 인공신경망이 월등히 높은 적합도를 보였다.

(4) 27개의 데이터로 학습된 인공신경망 모델에 임의의 입력데이터 10개를 입력하여 예측 값을 적합도 검정을 통해 정확도를 검증했다. 검증 결과 R2의 경우 0.9이상으로 신뢰성 있는 모델로 볼 수 있었지만 높은 학습 결과에 비해 전체적으로 낮은 적합도가 나왔다. 적합도가 낮은 이유는 적은 학습 데이터 수와 학습시킨 데이터의 범위가 좁기 때문이다. 이러한 결과를 볼 때 정확한 예측이 필요한 실제 스프링백 예측에는 아직 사용하기 부족하다고 판단된다. 하지만 인공신경망은 양질의 학습 데이터를 많이 학습시킬수록 성능이 좋아지기 때문에 본 연구의 인공신경망 모델도 다양한 범위의 데이터를 충분히 확보하여 학습시킨다면 실제 산업에 적용할 수 있을 만큼 성능 향상이 기대된다. 향후 연구에서 추가적인 데이터를 학습시켜 예측 정확도를 향상시키고 실제 다점성형공정 데이터와 비교하여 해석기반 예측모델의 신뢰성 확보가 필요하다.

후기

이 논문은 정부(미래창조과학부)의 재원으로 한국연구재단의 선도연구센터지원사업(No. 2019R1A5A60 99595)과 정부(산업통상자원부)의 재원으로 국가 산업기술진흥원-산업용 무인 비행장치 전문인력양성사업(No. G02N05660000601)의 지원을 받아 수행된 연구임. 이에 관계자 여러분께 감사드립니다.

부록

References

  1. Tang. L, Wang. H, Li. G, 2013, Advanced high strength steel springback optimization by projectionbasedheuristic global search algorithm, Mater. & Des., 43, 426-437. https://doi.org/10.1016/j.matdes.2012.06.045
  2. Y. H. Jeon, 2018, Master Thesis, Kangwon University, Kangwon.
  3. M. K. Son, 2019, Master Thesis, Daegu University, Gyeongsan.
  4. N. Baluch, Z. M. Udin, C. S. Abdullah, 2014, Advanced High Strength Steel in Auto Industry: an Overview, Engineering, Technol. & Appl. Sci. Res., Vol. 4, No. 4, pp. 686-689. https://doi.org/10.48084/etasr.444
  5. N. Kardes Sever, O. H. Mete, Y. Demiralp, C. Choi, T. Altan, 2012, Springback Prediction in Bending of AHSS-DP 780, Proceedings of NAMRI/SME, Vol. 40, pp.1-10.
  6. S. C. Heo, Y. H. Seo, B. S. Kang, J. Kim, 2012, Numerical and Experimental Study for Improvement of Formability in Flexible Forming Process, Trans. Mater. Process, Vol. 21, No. 7, pp. 432-440. https://doi.org/10.5228/KSTP.2012.21.7.432
  7. E. T. Park, Y. H. Lee, J. Kim, B. S. Kang, W. J. Song, 2018, Numerical Prediction of Temperature-Dependent Flow Stress on Fiber Metal Laminate using Artificial Neural Network, Trans. Mater. Process, Vol. 27, No. 4, pp. 227-235. https://doi.org/10.5228/KSTP.2018.27.4.227
  8. K. Mohammadi, H. R. Eslami, Sh. Dayyani Dardashti, 2005, Comparison of regression, ARIMA and ANN models for reservoir inflow forecasting using snowmelt equivalent (a case study of Karaj), J. Agric. Sci. Technol, Vol. 7, pp. 17-30.
  9. M. A. Woo, S. M. Lee, K. H. Lee, W. J. Song, J. Kim, 2018, Application of an Artificial Neural Network Model to Obtain Constitutive Equation Parameters of Materials in High Speed Forming Process, Trans. Mater. Process, Vol. 27, No. 6, pp. 331-338. https://doi.org/10.5228/KSTP.2018.27.6.331
  10. Z. Y. Cai, S. H. Wang, M. Z. Li, 2008, Numerical investigation of multi-point forming process for sheet metal: wrinkling, dimpling and springback, Int. J. Adv. Manuf. Technol, 37.9-10, pp. 927-936. https://doi.org/10.1007/s00170-007-1045-5
  11. X. Glorot, Y. Bengio, 2010, Understanding the difficulty of training deep feedforward neural networks, 13th International Conference on Artificial Intelligence and Statistics (AISTATS) 2010, Chia Laguna Resort, Sardinia, Italy, pp. 249-256.
  12. D. P. Kingma, J. Ba, 2014, Adam: A method for stochastic optimization, arXiv preprint, arXiv: 1412.6980.
  13. J. W. Park, J. Yoon, K. Lee, J. Kim, B. S. Kang, 2017, Rapid prediction of longitudinal curvature obtained by flexibly reconfigurable roll forming using response surface methodology, Int. J. Adv. Manuf. Technol., 91.9-12, pp.3371-3384. https://doi.org/10.1007/s00170-017-9999-4