DOI QR코드

DOI QR Code

A Study on Method of Automatic Geospatial Feature Extraction through Relative Radiometric Normalization of High-resolution Satellite Images

고해상도 위성영상의 상대방사보정을 통한 자동화 지향 공간객체추출 방안 연구

  • Lee, Dong-Gook (PhD Candidate, Department of Civil Engineering, Sangji University) ;
  • Lee, Hyun-Jik (Professor, Department of Civil Engineering, Sangji University)
  • 이동국 (상지대학교 토목공학과 박사수료생) ;
  • 이현직 (상지대학교 스마트건설공학과 정교수)
  • Received : 2020.09.09
  • Accepted : 2020.10.05
  • Published : 2020.10.31

Abstract

The Ministry of Land, Infrastructure and Transport of Korea is developing a CAS 500-1/2 satellite capable of photographing a GSD 0.5 m level image, and is developing a technology to utilize this. Therefore, this study attempted to develop a geospatial feature extraction technique aimed at automation as a technique for utilizing CAS 500-1/2 satellite images. KOMPSAT-3A satellite images that are expected to be most similar to CAS 500-1/2 were used for research and the possibility of automation of geospatial feature extraction was analyzed through relative radiometric normalization. For this purpose, the parameters and thresholds were applied equally to the reference images and relative radiometric normalized images, and the geospatial feature were extracted. The qualitative analysis was conducted on whether the extracted geospatial feature is extracted in a similar form from the reference image and relative radiometric normalized image. It was also intended to analyze the possibility of automation of geospatial feature extraction by quantitative analysis of whether the classification accuracy satisfies the target accuracy of 90% or more set in this study. As a result, it was confirmed that shape of geospatial feature extracted from reference image and relative radiometric normalized image were similar, and the classification accuracy analysis results showed that both satisfies the target accuracy of 90% or more. Therefore, it is believed that automation will be possible when extracting spatial objects through relative radiometric normalization.

우리나라 국토교통부는 GSD가 0.5m 급인 위성영상의 촬영이 가능한 CAS 500-1/2 위성과 함께 이를 활용하기 위한 기술을 개발 중에 있다. 이에 본 연구에서는 CAS 500-1/2 위성영상의 활용을 위한 기술로 자동화를 지향하는 공간객체추출 기술을 개발하고자 하였다. 연구 수행을 위해 CAS 500-1/2와 가장 유사할 것으로 예상되는 KOMPSAT-3A 위성영상을 연구에 이용하였으며, 상대방사보정을 통해 공간객체추출의 자동화 가능성을 분석하고자 하였다. 이를 위하여 상대방사보정에 이용된 참조 영상과 상대방사보정된 영상에서 매개변수 및 임계값을 동일하게 적용하고, 공간객체를 추출하였다. 추출된 공간객체가 참조영상과 상대방사보정된 영상에서 유사한 형태로 추출되는지에 대한 정성적 분석과 분류정확도가 본 연구에서 설정한 목표정확도인 90% 이상을 만족하는지에 대한 정량적 분석을 통해 공간객체추출의 자동화 가능성 여부를 분석하고자 하였다. 그 결과, 참조영상과 상대방사보정된 영상에서 각각 추출한 공간객체가 유사하게 추출되는 것을 확인하였으며, 분류정확도 분석 결과가 모두 목표정확도인 90% 이상을 만족하는 것으로 나타나 상대방사보정을 통해 공간객체추출 시 자동화가 가능할 것으로 판단된다.

Keywords

1. 서론

우리나라 국토교통부는 GSD(Ground Sample Distance)가 0.5 m 급인 위성영상의 촬영이 가능한 CAS 500-1/2 위성을 개발하고 있으며, CAS 500-1/2 위성은 국토관측 전용 위성으로 활용될 예정이다. 이에 국토를 모니터링할 수 있는 기술로 토지이용분류 및 공간객체추출, 변화탐지 및 시계열 모니터링, DSM(Digital Surface Model) 추출 등에 대한 자체적인 기술력 확보를 통해 위성정보 활용을 위한 SW를 개발 중에 있으며(Lee et al., 2019), 본 연구진은 공간객체추출 기술을 개발을 수행 중에 있다.

토지이용분류 및 공간객체추출은 환경에 대한 훌륭한 지표이며(Pekel et al., 2016), 환경 변화 등에 대하여 안정적인 정보를 제공할 수 있다(Melesse et al., 2007; Lee et al., 2018). 특히 주제정보를 추출하는 공간객체추출 기술은 위성영상의 주요 활용 분야 중 하나이며, 공간객체추출에는 화소기반분류 기법과 객체기반분류 기법이 이용되고 있다. 고해상도 위성영상에 화소기반분류 기법과 객체기반분류 기법을 적용하여 공간객체를 추출하고 비교한 결과 세부적인 분류를 위해서는 화소기반분류 기법보다 객체기반분류 기법이 유용함이 입증되었다(Yuan et al., 2006). 객체기반분류 기법은 수직적 프로세스와 수평적 프로세스로 나뉜다. 수직적 프로세스는 식생지역과 비식생 지역으로 구분하고, 단계별로 점차 작은 객체를 분류해 나가며, 이전 단계의 도출 결과를 고려하여 다시 영상분류를 수행하는 방법으로 3차에서 6차의 분류 과정을 거쳐 수행하여 주제도 제작을 목적으로 한다(Kim, 2016; NGII, 2018). 수평적 프로세스는 공간객체 항목을 기준으로 하고, 주제도와 같은 최종 성과물이 아닌, 특정 공간객체를 활용하기 위한 프로세스이다. 따라서 여러 단계를 거치는 수직적 프로세스를 이용하는 것보다 특정 항목만을 추출하는 수평적 프로세스를 이용하는 것이 효율적이다(Lee et al., 2018). 따라서 본 연구에서는 CAS500-1/2 위성으로부터 촬영된 영상을 활용하기 위하여 자동화를 지향하는 객체기반 공간객체추출 방안을 도출하고자 하였다. 이를 위하여 다시기 위성영상을 수집하고, 특정 항목만을 추출하는 수평적 프로세스에 상대방사보정 기술을 연계하여 연구 대상지역에서 공간객체추출을 위한 매개변수 및 임계값을 동일하게 적용해 공간객체추출을 수행하였다(Fig. 1).

OGCSBN_2020_v36n5_2_917_f0001.png 이미지

Fig. 1. Overview of this study.

2. 대상지역 선정 및 위성영상 수집

본 연구에서는 CAS500-1/2 위성영상의 활용을 위한 기술로 공간객체추출 연구를 수행하고자 하였다. 그러나 현재 CAS500-1/2 위성이 개발 중이므로 CAS500-1/2 위성영상과 가장 유사한 스펙을 갖을 것으로 예상되는 KOMPSAT-3A 위성영상을 이용해 연구를 수행하였다.

연구를 위해 수집한 위성영상은 Table 1 및 Fig. 2와 같이 총 4매의 KOMPSAT-3A 위성영상으로 2015년 6월 및 7월, 2017년 10월 및 11월에 촬영된 위성영상이며, 전라북도 김제시를 포함하는 지역을 촬영한 영상으로 위성정밀정사영상(L2G)이다.

Table 1. Specification of the satellite images used in this study

OGCSBN_2020_v36n5_2_917_t0001.png 이미지

OGCSBN_2020_v36n5_2_917_f0002.png 이미지

Fig. 2. Satellite imagery taken in (a) Jun 6, 2015, (b) July 30, 2015, (c) October 21, 2017, and (d) November 9, 2017.

수집된 위성영상 중 일부는 구름을 포함하고 있어 구름을 포함하고 있지 않은 지역으로 연구 대상지역을 선정하였다. 선정된 연구 대상지역은 Fig. 3과 같이 전라북도 김제시 백산면의 일부 지역으로 1:5,000 수치지도 1개 도엽 범위에 해당하는 지역이다.

OGCSBN_2020_v36n5_2_917_f0003.png 이미지

Fig. 3. Study area.

3. 연구 내용 및 방법

본 연구는 자동화를 지향하는 객체기반 공간객체추출 방안을 도출하는 것을 목적으로 하였다. 객체기반분류 기법은 영상 분할과 분류의 단계를 거치는데, 자동화를 위해서는 영상 분류 단계에서 적용되는 매개변수와 임계값의 범위를 동일하게 설정하여야 한다.

자동화 지향 객체기반 공간객체추출은 Fig. 4와 같이 동일한 지역을 촬영한 두 시기의 영상을 이용하며, 상대방사보정을 수행하고, 두 시기의 영상에서 동일한 매개 변수 및 임계값을 적용해 공간객체를 추출한다. 추출된 공간객체는 분류정확도 분석을 통하여 목표 정확도인 90% 이상을 만족하는지에 대하여 검증하고자 하였다.

OGCSBN_2020_v36n5_2_917_f0004.png 이미지

Fig. 4. Flowchart for analysis of possibility of automated geospatial feature extraction.

1) 실험 case 및 공간객체추출 항목 선정

공간객체추출의 자동화 가능성 분석을 수행하고자 상대방사보정 기술을 적용하였다. 상대방사보정은 유사 시기에 촬영된 영상 간 상대방사보정을 수행하여 2개의 상대방사보정 된 영상을 생성하고, 참조 영상과 상대방사보정 된 영상에서 객체기반분류를 위한 매개변수 및 임계값을 동일하게 적용하여 공간객체를 추출하는 2개의 실험 case를 설정하였다(Table 2). 공간객체추출을 위한 항목은 초지, 나대지, 수계, 도로, 건물로 5개 항목을 선정하였다.

Table 2. Test case in this study

OGCSBN_2020_v36n5_2_917_t0002.png 이미지

2) 상대방사보정 수행

공간객체추출의 자동화를 위한 전처리로 상대방사보정을 수행하였다. 상대방사보정은 입력영상과 참조 영상 간의 밝기 값의 차이를 최소화 하기 위한 과정으로 상대방사보정 수행 시 서로 다른 시기에 촬영된 영상일지라도 공간객체추출을 위한 매개변수 및 임계값의 범위를 동일하게 설정할 수 있을 것으로 예상하고 실험을 수행하였다.

본 연구에서 적용한 상대방사보정 알고리즘은 국토위성 연구단의 변화탐지 및 시계열 모니터링 기술 개발 연구진이 개발한 상대방사보정 SW를 이용해 수행하였다. 연구에서 적용한 상대방사보정 기술은 Fig. 5와 같이 입력영상 및 참조영상의 근적외선 밴드 간의 scattergram을 활용하여 No-change region을 추출하고, NDVI, NDWI 등의 분광지수와 함께 다층 퍼셉트론 기반의 생태학적 보정을 수행한다. 그 후 히스토그램 매칭 기반의 후처리 과정을 통해 상대방사보정을 수행하는 알고리즘이다(Seo and Eo, 2018).

OGCSBN_2020_v36n5_2_917_f0005.png 이미지

Fig. 5. Process of applying relative radiometric normalization algorithm applied in this study.

3) 자동화 지향 객체기반 공간객체추출 및 분류정확도 분석

자동화 지향 객체기반 공간객체추출은 상대방사보정에 사용된 참조영상과 상대방사보정된 영상을 이용하여 추출하고자 하는 공간객체 항목 선정 후 동일한 매개변수 및 임계값을 적용해 공간객체를 추출하였다.

공간객체추출을 위한 매개변수 별 임계값의 설정은 참조영상과 상대방사보정된 두 영상에서 임계값 적용에 따른 공간객체추출 결과 비교를 통해 임계값 범위를 도출하였으며, 도출된 공간객체항목 별 매개변수 및 임계값은 case 1에서 Fig. 6과 같고, case 2에서 Fig. 7과 같다. 두 case는 위성영상 촬영 당시 서로 계절이 다르기 때문에 case 별로 매개변수 및 임계값을 도출하여 실험을 수행하였다.

OGCSBN_2020_v36n5_2_917_f0006.png 이미지

Fig. 6. Parameters and threshold values for each geospatial feature item applied in case 1.

OGCSBN_2020_v36n5_2_917_f0007.png 이미지

Fig. 7. Parameters and threshold values for each geospatial feature item applied in case 2.

본 연구에서 설정한 두 case는 위성영상의 촬영 당시의 계절이 서로 다르고, 상대방사보정을 위해 적용된 참조영상을 동일하게 설정할 수 없어 두 case에서 공간객체추출을 위한 매개변수 및 임계값을 각각 도출하였다.

공간객체추출 결과의 품질분석을 위하여 실험 case별 공간객체추출 결과가 유사한 형태로 추출되는지에 대한 정성적 분석을 수행하고, 정량적 분석을 위하여 Fig. 8과 같은 오차행렬(Error matrix)을 이용한 분류정확도 분석을 수행하였다. 분류정확도 분석을 위한 오차행렬은 공간객체추출 항목별로 추출하고자 한 공간객체와 미분류 객체로 구분하였다.

OGCSBN_2020_v36n5_2_917_f0008.png 이미지

Fig. 8. Example of classification accuracy analysis using error matrix.

토지이용분류, 공간객체추출 및 분류정확도 분석과 관련된 연구 사례를 조사한 결과 70~90%의 분류정확도를 나타내는 것을 확인하였다(Oh et al., 2010; Lee et al., 2011; Li et al., 2016). 따라서 본 연구에서는 추출된 공간 객체의 분류정확도 분석 시 목표정확도를 90% 이상으로 설정하였다

4. 실험 결과

1) 상대방사보정 결과

공간객체추출에 앞서 위성영상의 밝기값 차이를 최대한 제거하기 위하여 상대방사보정을 수행하였다. 상대방사보정은 입력 영상을 참조 영상과 유사한 밝기값을 갖도록 수행하여 상대방사보정이 수행된 영상을 생성하였다. Fig. 9는 2015년 6월 및 7월 영상을 이용해 상대방사보정을 수행한 결과를 나타낸 것이고, Fig. 10은 2017년 10월 및 11월 영상을 이용해 상대방사보정을 수행한 결과를 나타낸 것이다.

OGCSBN_2020_v36n5_2_917_f0009.png 이미지

Fig. 9. Results of relative radiometric normalization for case 1 test: (a) July 30, 2015 (input image), (b) June 6, 2015 (reference image), (c) relative radiometric normalization image.

OGCSBN_2020_v36n5_2_917_f0010.png 이미지

Fig. 10. Results of relative radiometric normalization for case 2 test: (a) November 9, 2017 (input image), (b) October 21, 2017 (reference image), (c) relative radiometric normalization image.

2) 자동화 지향 객체기반 공간객체추출 결과

(1) 공간객체추출 case 1

실험 case 1은 상대방사보정 수행 시 참조 영상으로 활용한 2015년 6월 영상과 상대방사보정 수행된 2015년 7월 영상을 기반으로 공간객체를 추출하였다. 항목별 공간객체추출 시 적용한 매개변수 및 임계값의 범위는 두 영상에서 모두 동일하게 설정하였으며, Fig. 11, Fig. 12와 같이 추출된 공간객체가 약간의 차이는 있지만 유사한 형태로 추출되는 것을 확인할 수 있었다.

OGCSBN_2020_v36n5_2_917_f0011.png 이미지

Fig. 11. Result of extract geospatial feature using non-relative radiometric normalization image (2015.06).

OGCSBN_2020_v36n5_2_917_f0012.png 이미지

Fig. 12. Result of extract geospatial feature using relative radiometric normalization image (2015.07).

(2) 실험 case 2

실험 case 2는 상대방사보정 수행 시 참조 영상으로 활용한 2017년 10월 영상과 상대방사보정 수행된 2017년 11월 영상을 기반으로 공간객체를 추출하였다. 항목별 공간객체 추출 시 적용한 매개변수 및 임계값의 범위를 두 영상에서 모두 동일하게 설정하였으며, case 1과 같이 추출된 공간객체가 약간의 차이는 있지만 유사한 형태로 추출되는 것을 확인할 수 있었다(Fig. 13, Fig. 14).

OGCSBN_2020_v36n5_2_917_f0013.png 이미지

Fig. 13. Result of extract geospatial feature using non-relative radiometric normalization image (2017.10).

OGCSBN_2020_v36n5_2_917_f0014.png 이미지

Fig. 14. Result of extract geospatial feature using relative radiometric normalization image (2017.11).

3) 분류정확도 분석 결과

본 연구에서는 랜덤으로 지정된 500개의 위치에 대하여 포인트를 추출하고(Fig. 15), 추출된 랜덤 포인트를 기준으로 실제로 공간객체 항목과 일치하는지에 대한 여부를 분석하는 방법을 통하여 오차행렬 분석을 수행하였다. 분류정확도 분석에 이용된 랜덤 포인트의 위치는 2015년 및 2017년에 촬영된 영상 모두에서 동일하게 이용하였다.

OGCSBN_2020_v36n5_2_917_f0015.png 이미지

Fig. 15. Location map of random points.

본 연구에서 설정한 자동화 지향 객체기반 공간객체 추출의 목표 분류정확도인 90% 이상을 만족하는지에 대하여 분석한 결과 본 연구에서 설정한 목표정확도인 90% 이상을 모두 만족하는 것으로 나타났다(Table 3). 따라서 본 연구에서 제안한 상대방사보정 기술과 병렬식 공간객체추출 프로세스의 연계를 통한 자동화 지향 객체기반 공간객체추출 방안은 활용 가능한 방안인 것으로 판단된다.

Table 3. Analysis result of classification accuracy

OGCSBN_2020_v36n5_2_917_t0003.png 이미지

분류정확도 분석 결과가 매우 준수하게 나타났는데, 공간객체추출 시 적용한 매개변수가 밴드별 영상을 이용한 분광 평균, 표준편차, NDVI 등과 함께 nDSM, 경사도와 같은 공간정보 데이터를 매개변수로 활용하였으며, 영상분할 데이터의 길이대폭비와 같은 형상 정보를 매개변수로 활용했기 때문에 정확도가 매우 준수하게 나타난 것으로 판단된다.

추출된 공간객체 중 도로 및 초지 객체가 타 공간객체에 비해 정확도가 낮게 나타났는데, 이는 Fig. 16(a)와 같이 공간객체 내부에 명확하게 랜덤포인트가 위치해 있지 않고, Fig. 16(b)와 같이 랜덤포인트가 공간객체 경계 부분에 위치한 경우 오추출된 것으로 분석해 도로와 초지 객체가 타 객체에 비해 정확도가 낮게 나타난 것으로 판단된다.

OGCSBN_2020_v36n5_2_917_f0016.png 이미지

Fig. 16. Location of random points: (a) Location of random points is clearly within geospatial feature, (b) Difficult to determine location of random points at boundary of geospatial feature.

5. 결론

본 연구는 자동화 지향 객체기반 공간객체추출 방안을 연구하기 위하여 유사 시기에 촬영된 영상 2매씩 2개의 case를 설정하고, 상대방사보정 후 병렬식 프로세스를 적용해 공간객체추출을 수행하였다. 이때 case별 공간객체추출을 위한 매개변수 및 임계값을 동일하게 설정하였으며, 추출된 공간객체가 서로 유사한 형태로 추출되는 것을 확인하였다. 또한 오차행렬을 이용한 분류정확도 분석 결과 목표 정확도인 90% 이상을 만족하는 것으로 나타나 본 연구에서 제안한 상대방사보정 기술과 병렬식 공간객체추출 프로세스의 연계를 통한 자동화 지향 객체기반 공간객체추출 방안의 활용 가능성이 있을 것으로 판단된다. 지속적인 연구를 통해 상대방사보정을 위한 참조영상을 동일하게 설정하고, 밴드별 분광정보의 히스토그램을 이용한 회귀분석 등을 통해 매개변수별 임계값 범위를 자동으로 찾아주는 방법 도출이 필요할 것으로 판단된다.

사사

본 연구는 국토교통부 위성정보 활용센터 설립 운영 사업(과제명: 국토위성정보 수집 및 활용기술개발)의 연구비지원(과제번호: 20SIUE-B148326-03)에 의해 수행되었습니다. 이 논문은 2019년 상지대학교 교내 연구비 지원에 의한 것임.

References

  1. Kim, M. H., 2016. Multi-scale geographic object-based image analysis of very high spatial resolution satellite data, Journal of The Korean Association of Professional Geographers, 50(4): 525-538 (in Korean with English Abstract).
  2. Lee, D. G., J. H. You, S. G. Park, S. H. Baeck, and H. J. Lee, 2019. Comparison between object-based method and deep learning method for extracting road features using submeter-grade high-resolution satellite imagery, Journal of Sensors and Materials, 31(10): 3335-3353. https://doi.org/10.18494/SAM.2019.2472
  3. Lee, D. G., J. H. You, and H. J. Lee, 2018. Comparison of geospatial feature extraction process on object based classification method using KOMPSAT-3A satellite image, Journal of the Korean Society for Geospatial Information Science, 26(3): 13-21 (in Korean with English Abstract). https://doi.org/10.7319/kogsis.2018.26.3.013
  4. Lee, H. J., J. H. Lu, and S. Y. Kim, 2011. Land cover object-oriented base classification using digital aerial photo image, Journal of Korean Society for Geospatial Information System, 19(1): 105-113 (in Korean with English Abstract).
  5. Lee, J. K., T. D. Acharya, and D. H. Lee, 2018. Exploring land cover classification accuracy of Landsat 8 image using spectral index layer stacking in hilly region of South Korea, Journal of Sensors and Materials, 30(12): 2927-2941 (in Korean with English Abstract). https://doi.org/10.18494/SAM.2018.1934
  6. Li, M., A. Stein, W. Bijker, and Q. Zhan, 2016. Urban land use extraction from Very High Resolution remote sensing imagery using a Bayesian network, ISPRS Journal of Photogrammetry and Remote Sensing, 122: 192-205. https://doi.org/10.1016/j.isprsjprs.2016.10.007
  7. Melesse, A. M., Q. Weng, P. S. Thenkabail, and G. B. Senay, 2007. Remote sensing sensors and applications in environmental resources mapping and modelling, Sensors, 7(12): 3209-3241. https://doi.org/10.3390/s7123209
  8. NGII (National Geographic Information Institute), 2018. Development for CAS 500-1/2 image utilization on application technology, Research report, National Geographic Information Institute, Suwon-si, Korea, pp. 1-168.
  9. Oh, C.Y., S. Y. Park, H. S. Kim, Y. W. Lee, and C. U. Choi, 2010. Comparison of landcover map accuracy using high resolution satellite imagery, Journal of the Korean Association of Geographic Information Studies, 13(1): 89-100 (in Korean with English Abstract). https://doi.org/10.11108/KAGIS.2010.13.1.089
  10. Pekel, J.-F., A. Cottam, N. Gorelick, and A. S. Belward, 2016. High-resolution mapping of global surface water and its long-term change, Nature, 540: 418-422. https://doi.org/10.1038/nature20584
  11. Seo, D. K. and Y. D. Eo, 2018. Relative radiometric normalization for high-spatial resolution satellite imagery based on multilayer perceptron, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 36(6): 515-523 (in Korean with English Abstract). https://doi.org/10.7848/KSGPC.2018.36.6.515
  12. Yuan, F. and M. E. Bauerm, 2006. Mapping impervious surface area using high resolution imagery: A comparison of object-based and per pixel classification, Proc. of ASPRS 2006 Annual Conference, Reno, NV, May 1-5, pp. 1667-1674.