DOI QR코드

DOI QR Code

Development of Cloud and Shadow Detection Algorithm for Periodic Composite of Sentinel-2A/B Satellite Images

Sentinel-2A/B 위성영상의 주기합성을 위한 구름 및 구름 그림자 탐지 기법 개발

  • Received : 2021.10.11
  • Accepted : 2021.10.19
  • Published : 2021.10.31

Abstract

In the utilization of optical satellite imagery, which is greatly affected by clouds, periodic composite technique is a useful method to minimize the influence of clouds. Recently, a technique for selecting the optimal pixel that is least affected by the cloud and shadow during a certain period by directly inputting cloud and cloud shadow information during period compositing has been proposed. Accurate extraction of clouds and cloud shadowsis essential in order to derive optimal composite results. Also, in the case of an surface targets where spectral information is important, such as crops, the loss of spectral information should be minimized during cloud-free compositing. In thisstudy, clouds using two spectral indicators (Haze Optimized Tranformation and MeanVis) were used to derive a detection technique with low loss ofspectral information while maintaining high detection accuracy of clouds and cloud shadowsfor cabbage fieldsin the highlands of Gangwon-do. These detection results were compared and analyzed with cloud and cloud shadow information provided by Sentinel-2A/B. As a result of analyzing data from 2019 to 2021, cloud information from Sentinel-2A/B satellites showed detection accuracy with an F1 value of 0.91, but bright artifacts were falsely detected as clouds. On the other hand, the cloud detection result obtained by applying the threshold (=0.05) to the HOT showed relatively low detection accuracy (F1=0.72), but the loss ofspectral information was minimized due to the small number of false positives. In the case of cloud shadows, only minimal shadows were detected in the Sentinel-2A/B additional layer, but when a threshold (= 0.015) was applied to MeanVis, cloud shadowsthat could be distinguished from the topographically generated shadows could be detected. By inputting spectral indicators-based cloud and shadow information,stable monthly cloud-free composited vegetation index results were obtained, and in the future, high-accuracy cloud information of Sentinel-2A/B will be input to periodic cloud-free composite for comparison.

구름의 영향을 크게 받는 광학위성영상의 활용에 있어 일정 주기 합성은 구름의 영향을 최소화할 수 있는 유용한 방법이다. 최근 주기 합성 시 구름과 구름 그림자 정보가 직접 입력되어 일정 주기 시 두 인자의 영향을 가장 덜 받는 최적의 화소를 선택하는 기법이 제시되었다. 최적의 합성 결과를 도출하기 위해서는 구름과 구름 그림자의 정확한 추출이 필수적이다. 또한 농작물과 같이 분광정보가 중요한 대상의 경우 주기 합성 시 분광정보의 손실이 최소화되어야 한다. 본 연구에서는 구름과 구름 그림자의 높은 탐지정확도를 유지하면서 분광정보의 손실이 적은 탐지 기법을 도출하기 위해, 강원도 고랭지 배추밭을 대상으로 두 분광척도(Haze Optimized Tranformation; HOT, MeanVis)를 이용한 방법과 Sentinel-2A/B에서 제공되는 구름 정보를 비교 분석하였다. 2019년~2021년까지 자료를 분석한 결과 Sentinel-2A/B위성의 구름 정보는 F1값이 0.91인 탐지 정확도를 보이나, 밝은 인공물이 구름으로 오탐지되었다. 이에 비해 HOT에 임계치(=0.05)를 적용해 획득한 구름 탐지 결과는 상대적으로 낮은 탐지 정확도(F1=0.72)를 보였으나, 오탐지가 적어 분광정보의 손실을 최소화하였다. 구름 그림자의 경우, Sentinel-2A/B 부가 레이어에서는 최소한의 그림자만이 탐지된 결과를 볼 수 있었으나, MeanVis에 임계치(= 0.015)를 적용했을 시 지형적으로 발생한 그림자와 구별 가능한 구름 그림자만을 탐지할 수 있었다. 분광척도 기반 구름 및 그림자 정보를 입력해 안정된 월별 합성된 식생지수결과를 획득하였으며, 향후 Sentinel-2A/B의 높은 정확도의 구름 정보를 주기 합성에 입력해 비교할 예정이다.

Keywords

1. 서론

과학기술부, 농촌진흥청, 산림청 공동 다부처사업인, 차세대중형위성 2단계 개발사업의 일환으로 농림위성이 2025년에 발사될 예정이다. 농림위성은 120 km의 관측폭과 5 m 공간해상도로 촬영 가능한 광역전자광학카 메라를 탑재했으며, 한반도 전역을 3일 주기로 촬영을 목표로 개발되고 있다. Sentinel-2A/B나 Landsat 시리즈와 비교해 볼 때 짧은 재방문주기를 가질 것으로 예상된다. 이와 같이 짧아지는 극궤도 광학위성의 재방문주 기에도 불구하고 구름으로 인해 지속적인 농작물의 생육 모니터링이 어려운 경우가 많다(Griffiths et al., 2019). 특히 밭 작물의 경우 생육주기가 다양하고 매우 짧아 구름의 영향이 매우 크며, 논의 경우 벼의 생육주기에 장마나 태풍의 영향으로 일정 기간 동안의 광학위성을 이용한 생육 모니터링이 매우 어렵다. 이와 같은 구름의 영향을 최소화하기 위한 방안으로 주기 합성 기법이 사용되고 있다. 농업 활용을 위한 주기 합성은 10일, 30일, 60일, 계절 등 그 합성 주기가 다양하다(Griffiths et al., 2019). 주기 합성기법은 크게 일정 주기동안 구름의 영향을 가장 적게 받는 최적의 화소를 선정하는 방식과 일정 주기의 화소들의 가중 평균된 값을 산출하는 방식으로 나눌 수 있다. 최적의 화소를 선정하는 방식에는 최대 정규식생지수값을 선택하거나 특정 밴드의 최소값을 선정하는 간단한 방법과 선정 시 고려되는 다양한 환경인자들의 가중 점수를 계산해 가장 높은 점수를 나타내는 화소를 선택하는 방식으로 나눌 수 있다. 식생지수나 반사율의 최소/최대값을 선정하는 방식은 그 방법이 매우 간단하나, 많은 수의 자료가 필요하며, 촬영각의 제약이 있어(Skakun et al., 2017), 최근에는 최적화소를 선정하기 위한 다양한 인자들을 활용하는 기법이 제시되었다. 구름과 구름 그림자로부터의 거리 정보, 구름 면적정보, 대기 상태 정보 등이 주요 인자로 고려된다. 이와 같이 주기 합성에 있어 구름과 구름 그림자의 탐지가 매우 중요하다. 농업 뿐만 아니라 많은 광학 위성영상의 활용에 있어 중요한 구름 정보는 광학위성 영상의 필수부가 정보로 제공되고 있다. 구름 및 그림자의 탐지는 크게 분광척도에 임계치를 설정하는 방식 (Kim et al., 2011), 구름의 질감이나 공간적 특징을 기반으로 하는 방식, 마지막으로 기계학습기법으로 나눌 수 있다(Xiong et al., 2020). NOAA AVHRR, MODIS 등 많은 광학위성에 적용된 임계치 적용기법은 구름 탐지 정확도를 향상시키기는 했으나, 다양한 태양고도각이나 대기 및 지상 환경에 항상 최적에 결과를 보이지 않는다는 문제가 있다(Kawano and Kudoh, 2001; Dybbroe et al., 2005). 타 지상물과 다르게 고유 질감 정보를 나타내는 구름의 특성을 이용한 방법은 Landsat이나 MODIS 영상에 적용되었으나(Liu et al., 2007; Sun, 2017), 복잡한 알고리즘과 많은 계산량이 문제로 제시되었다(Xiong et al., 2020). 마지막으로 기계학습기법은 neural network, support vector machine, random forest 등 다양한 기법이 제시되었으나(Liu et al., 2017; Wu, 2015), 신뢰성 높은 결과 도출을 위해 많은 양의 훈련 자료와 테스트 자료가 필요하다(Xiong et al., 2020). 본 연구에서는 구름 및 그림자 탐지 자체가 목적이 아닌, 최적의 주기합성을 위한 구름 및 그림자 탐지기법을 제시하려 한다. 이때 높은 탐지 정확도만을 고려하는 것이 아닌, 농작물 생육 모니터링에 중요한 분광정보의 손실이 최소화하기 위한 구름과 구름 그림자 탐지 기법을 제시하려 한다.

2. 연구 방법

1) 연구 지역

본 연구에서는 높은 고도로 구름과 안개가 자주 나타나는 강원도 강릉과 태백의 고랭지 배추밭을 대상으로 하였다. Fig. 1과 같이 위성영상에서 비교적 넓은 면적으로 나타나는 대표적 고랭지 배추밭인 강릉에 안반덕, 태백에 매봉산, 귀네미 밭이 선택되었다. 본 대상지역은 Fig. 2(a)와 같이 고랭지 배추 고유 작물만을 넓은 면적으로 매년 재배하고 있으며, 매년 5월~7월에 심어져, 8~9월에 수확이 되고 있다. 또한 스마트팜맵의 중첩된 영상(Fig. 1)과 같이 필지별 파종, 생육상태, 수확 상태가 매우 다양하게 나타난다. 실제 2021년 8월 수행한 현장 조사에서도 필지별 배추의 크기 및 생육단계가 매우 다양하게 나타났으며, 필지별로 배추밭의 색이 다르게 나타나는 것을 목측하였다(Fig. 2(a)). 따라서 정확한 필지 별 생육 모니터링을 위해서는 고해상도 위성영상의 활용이 필수적이다. 특히, 2021년 9월의 현장 조사에서는 Fig. 2(c)에서와 같이 무름병이 발병해 많은 배추가 수확되지 못한 것이 관찰되었으며, Fig. 2(d)처럼 높은 지대에 구름이 넓은 면적으로 머무르는 것이 관찰되었다.

OGCSBN_2021_v37n5_1_989_f0001.png 이미지

Fig. 1. Distribution of study sites (http://www.google.co.kr/maps and Landsat 8 images).

OGCSBN_2021_v37n5_1_989_f0002.png 이미지

Fig. 2. Photos from the high altitude cabbage fields (a, b: August, 2021, c, d: September, 2021).

2) 사용한 자료

고랭지 배추밭을 모니터링하기 위한 위성영상으로 본 연구에서는 Sentinel-2A/B 영상을 사용하였다. 이는 향후 개발될 농림위성의 분광밴드 특성과 가장 유사한 위성이며(Table 1), 재방문주기도 5일로 가장 비슷하기 때문이다. 사용한 자료의 시기는 주기 합성 시 가장 문제가 되는 자료수의 영향을 분석하기 위해, 최근 잦은 태풍과 긴우기로 구름의 영향을 많이 받은 2020년 자료를 사용하였으며, 이와 비교하기 위해 평년과 비슷한 기상을 보인 2019년과 2021년 자료도 사용하였다. 고랭지 배추의 생육주기를 고려하여 2019년과 2020년은 5월부터 10월까지 자료를 사용하였으며, 2021년은 연구에 사용 가능한 5~7월까지의 영상을 사용하였다(Table 2). 이 시기의 사용된 총 50개의 Sentinel-2A/B L1C영상은 미국 USGS EarthExplorer (https://earthexplorer.usgs.gov)에서 제공받았으며, 배추밭의 정확한 경계 및 필지별 모니터링을 위해 2020년에 갱신된 스마트팜맵(https:// www.data.go.kr/site)을 사용하였다.

Table 1. Specifications of Sentinel-2A/B satellite (https://en.wikipedia.org/wiki/Sentinel-2)

OGCSBN_2021_v37n5_1_989_t0001.png 이미지

Table 2. The data used in this study

OGCSBN_2021_v37n5_1_989_t0002.png 이미지

3) Sentinel-2A/B L2A의 구름과 구름 그림자 자료

2019년~2020년 Sentinel-2A/B L2A자료가 제공되지 않아, 본 연구에서는 Sentinel-2A/B L1C 자료를 제공받아 ESA에서 제공하는 Sen2Cor 255 대기보정 소프트웨어를 이용하여 L2A자료로 변환하여 사용하였다. 이때 영상 대상지역이 강원도 산악지역이 대부분으로, 에어로졸 모델은 시골(rural)로 선택하였고, 계절이 5월에서 10월로 중위도 여름으로 선택해 적용하였다. L2A자료 에는 대기보정된 반사율 뿐만 아니라, 다수의 부가정보(각도, 대기, 눈, 구름 정보 등)가 제공되는데 구름과 구름 그림자 정보가 제공되는 Quality scene classification (QSC) 레이어를 본 연구에서 사용하였다. 본 레이어에는 총 12개 분류 등급이 있으며, 이중 본 연구에서는 구름 그림자(화소값 3),높은 확률과 중간 확률로 분류된 구름(화소값 8, 9), 얇은 권운(화소값 10)의 정보만을 사용하였다. 구름은 가시광선, 열적외선밴드의 반사율 임계치 필터링 기법을 이용해 탐지되며, 얇은 권운은 1.375 µm 밴드(밴드 10)에 반사율 임계치를 적용하여 탐 지된다(https://sentinels.copernicus.eu/web/sentinel/tech nical-guides/sentinel-2-msi/level-2a/algorithm). 이와 함께 구름 그림자는 neural network와 지형학적 특징을 이용한 Kohonen map 알고리즘을 이용해 탐지된다.

4) 주기 합성을 위한 Sentinel-2A/B영상의 구름 및 구름 그림자 탐지 방법

연구에서는 최근 구름 및 구름 그림자의 다양한 탐 지 분광척도 중 Xiong 등(2020)이 제시한 하이브리드 다중분광지수 기반 구름 화소 식별 알고리즘을 적용하여 보았다. GF-1 위성영상을 대상으로 개발된 하이브리드 다중분광지수 기반 알고리즘에서는 3가지 척도 NDVI, Whiteness, Haze-Optimized Tranformation (HOT)를 적용하였으나, 실제 본 연구지역의 Sentinel-2A/B 반사율영상에 적용한 결과 HOT 척도만으로도 구름을 탐지할 수 있었으며, NDVI와 Whiteness 척도는 구름과 밝은 인공물의 구분이 어려워 본 연구에서는 사용하지 않았다. 또한 그림자의 경우 Whiteness를 산출할 때 사용된 가시 대역의 평균값(MeanVIS) 영상에서 잘 나타났다. 두 척도의 임계치는 본 연구에 사용된 2019년부터 2021년 까지 Sentinel-2 자연색 합성 이미지를 참고하여 선정하 였다(Table 3). HOT 영상에서는 대부분의 영상에서 구름 탐지에 일관된 임계치가 산출되었는데, 이 임계치의 결정에 있어 구름과 비슷한 분광특성을 나타내는 밝은 인공물이 구름으로 오탐지 되지 않도록 선정되었다. MeanVIS영상을 이용해 탐지된 구름 그림자의 경우 위성영상의 대기 상황에 임계치 범위가 다양하게 나타났는데, 전체적으로 구름이 많은 영상에서는 그 임계치가 증가하였다. 또한 영상 전체적으로 연무가 심한 경우 그림자 탐지가 불가능하였다. 그러나 전체적으로 0.015~ 0.025 반사율의 범위에서 구름 그림자 탐지가 이뤄졌다. 본 연구에서는 구름 그림자 탐지 임계치 결정을 위해 0.015, 0.020, 0.025 임계치 등급을 나눠 그림자 탐지 정확도를 비교하였다. 이와 함께 구름 그림자 뿐만 아니라 산악지역의 지형적 특징으로 발생하는 그림자가 오탐 지 되지 않는지를 분석하였다. 이 지형에 의한 그림자 지역이 구름 그림자로 탐지되는 경우, 분광정보의 손실이 발생할 수 있어, 임계치 결정가 매우 중요하다. 본 연구는 구름과 그림자를 정확하게 탐지하기 위한 것이 본 목적이 아니라 주기 합성하는 것을 목적으로 하고 있으므로 임계값 선정 시 스펙트럼 정보의 손실을 최대한 줄이려고 노력하였다.

Table 3. Multispectral indexes for identifying cloud pixel

OGCSBN_2021_v37n5_1_989_t0003.png 이미지

5) 탐지 정확도 분석 방법

연구에서는 대상지역에 대한 Sentinel-2A/B L2A에 서 제공하는 구름과 구름 그림자 정보의 정확도를 분석 하였다. 이와 함께 본 연구에서 제시한 HOT와 MeanVIS 척도를 사용한 탐지 결과의 정확도도 분석하였다. 두 탐지 결과의 객관적 비교, 분석을 위해 본 연구에서는 Sentinel-2A/B B2,B3,B4 자연색 합성영상의 육안판독을 통해 기준 참조자료를 제작하였다. 분석 시 구름, 얇은 권운, 구름 그림자 세 개의 등급으로 스크린 디지타이징을 수행하였다. 구름과 얇은 권운의 경우 지표물의 반사율이 비춰지는 유무를 기준으로 결정하였다. 이렇게 제작된 참조 자료를 기준으로 다양한 탐지 정확도 척도가 본 연구 분석에 사용되었다(Table 4)

Table 4. Typical indicators for evaluating cloud and shadow detection accuracy (Hu et al., 2020)

OGCSBN_2021_v37n5_1_989_t0004.png 이미지

3. 연구 결과

2019년부터 2021년까지 매우 다양한 구름 및 그림자의 분포 형태를 볼 수 있는데, 두꺼운 구름, 얇은 권운, 구름 그림자가 모두 관찰되는 경우(Fig. 3(a)), 얇은 권운이 주로 분포한 경우(Fig. 3(b)), 두꺼운 구름이 가득한 경우(Fig. 3(c))로 나눌 수 있다.

OGCSBN_2021_v37n5_1_989_f0003.png 이미지

Fig. 3. Sentinel-2A/B natural color composite images (a: May 14, 2020, b: May 24, 2020, c: July 13, 2020) of Gwinemi fields.

두꺼운 구름의 경우, 가시광선에서 높은 반사율로 인해, 다른 피복과 반사율의 차이가 크게 나타난다. 그러나, 밝은 나지나 인공물이 구름으로 오탐지 되는 경우가 발생한다. Fig. 4(a)와 Fig. 4(b)을 살펴보면 Sentinel2A/B의 자체 보조자료에서 제공되는 구름 정보에서는 밝은 나지(노란색 점선 영역)가 구름으로 오탐지 되어 제공되는 것을 볼 수 있다. 또한 도심지의 밝은 콘크리트 도로가 구름으로 나타난 것을 볼 수 있다. 그에 비해 주기 합성에 사용되는 HOT 임계치를 통한 구름 마스크(Fig. 4(c))를 살펴보면 나지 몇몇 화소에서만 오탐지 되는 것을 볼 수 있으며, 도로에서는 오탐지되지 않은 것을 볼 수 있다. HOT 척도 하나만으로 오탐지율도 적으며 두꺼운 구름이 잘 탐지된 것을 볼 수 있다. 이와 같은 오탐지는 주기 합성 시 분광정보의 손실을 야기시킬 수 있다.

OGCSBN_2021_v37n5_1_989_f0005.png 이미지

Fig. 4. (a) Sentinel-2A/B natural color composite image, (b) cloud mask obtained from Sentinel-2A/B quality scene classification layer, and (c) cloud mask from Sentinel-2A/B HOT index on July 28, 2021.

반면에 지표면이 비치는 얇은 권운의 경우, 본 주기 합성 알고리즘에서는 탐지 대상으로 두지 않았는데, 이는 넓은 영역으로 분포하는 연무와 분광적 구분을 두기 어렵고, 이를 정확한 구름 마스크로 적용하기 어렵기 때문이다. 또한 주기 합성 시, HOT값이 중요한 인자로 입력되기 때문에 특별히 얇은 권운이나, 연무에 대한 정보의 입력이 필요없다. Sentinel-2A/B 부가 정보에서는 얇은 권운 정보를 제공하는데, Fig. 5(a)와 Fig. 5(b)를 비교할 때 부분적으로 탐지된 것을 볼 수 있다. 본 HOT 척도를 이용한 결과에서는 얇은 구름은 탐지되지 않았다(Fig. 5(d)).

OGCSBN_2021_v37n5_1_989_f0006.png 이미지

Fig. 5. (a) Sentinel-2A/B natural color composite image, (b) thin cirrus mask, (c) cloud mask obtained from Sentinel-2A/B quality scene classification layer, and (d) cloud mask from Sentinel-2A/B HOT index of Anbandeok fields on September 17, 2019.

구름 그림자의 경우, Sentinel-2A/B의 부가 정보에서 는 원 영상(Fig. 6(a))과 비교할 때 최소한으로만 탐지된 것을 볼 수 있다(Fig. 6(b)). 이렇게 최소한으로 탐지되는 경우 탐지 정확도 수치는 증가하겠지만, 미탐지된 영역이 넓어, 주기 합성 시 입력되는 그림자 정보에 대한 신뢰성에 문제가 발생한다. 그에 비해 MeanVis의 임계치를 적용한 경우 Fig. 6(c), Fig. 6(d), Fig. 6(e)에서와 같이 그림자가 매우 잘 탐지된 것을 볼 수 있다. 임계치가 증가되면서 구름 그림자 탐지 영역이 넓어지나, 구름 그림자가 아닌, 산악 지형에 의해 발생되는 그림자도 같이 탐지가 되는 것을 볼 수 있다. 따라서 탐지정확도와 오탐지율의 적절한 균형을 이루는 임계치의 결정이 매우 중요하다.

OGCSBN_2021_v37n5_1_989_f0007.png 이미지

Fig. 6. (a) Sentinel-2A/B natural color composite image, (b) cloud shadow mask obtained through visual interpretation, (c) cloud mask obtained from Sentinel-2A/B quality scene classification layer, (d) cloud shadow mask with 0.015, (e) 0.02, (f) 0.025 threshold values applied to the Sentinel-2A/B MeanVis image of Maebongsan fields on May 29, 2021.

이와 함께 구름과 구름 그림자 탐지 정확도에 대한 정량적 수치를 분석하였다. Table 5와 같이, 육안판독을 통한 탐지 결과를 기준으로 HOT와 MeanVis 척도 기반 구름 및 구름 그림자 탐지결과, Sentinel-2A/B 부가 정보의 탐지 정확도를 비교하였다. 기본적으로 구름 탐지 결과는 Sentinel-2A/B의 탐지 결과가 높게 나타났으나, Precision 값은 HOT척도를 이용한 구름 탐지 알고리즘이 더 높게 나타났다. 이는 정성적 비교결과에서 보듯이, Sentinel-2A/B가 과탐지되는 경향이 나타난 것으로 보인다. 얇은 권운의 경우 두꺼운 구름에 비해 탐지 정확도가 많이 감소된 것을 볼 수 있다. 구름 그림자의 경우, accuracy 척도는 두 방법 다 비슷하게 나타났으나, F1과 같은 정확도 척도에서는 MeanVis척도를 이용한 결과가 Sentinel-2A/B의 부가 정보보다 높게 나타난다. 이는 정성적 비교 결과에서 봤듯이, Sentinel-2A/B에서 구름 그 림자의 탐지 면적이 매우 작게 탐지되었기 때문이다. MeanVis의 임계치가 커질수록 정확도가 감소하는 것을 볼 수 있는데, 이는 산악지역의 사면에 의한 그림자가 구름 그림자로 오탐지되기 때문이다. 그러나, 구름에 의한 그림자와 사면에 의한 그림자의 차이가 MeanVis 척도의 임계치에 의해 구분될 수 있다는 결과를 확보하였다. 정성, 정량적 분석 결과 MeanVis의 임계치는 0.015가 가장 적합한 것으로 사려된다. 구름 그림자는 그 탐지가 어려워 구름 탐지 기법에 비해 많은 개발이 되지 않았으며, 사면에 의한 그림자와의 구분 등 아직까지 높은 정확도를 기대하기 어려운 실정이다.

Table 5. Cloud and cloud shadow detection accuracies

OGCSBN_2021_v37n5_1_989_t0005.png 이미지

Fig. 7은 HOT와 MeanVis척도를 이용한 구름과 구름 그림자 정보를 이용해 월별 주기합성한 Sentinel-2A/B NDVI 영상을 보여주고 있다. 결과를 보면 월별 식생지 수가 증가하는 것을 잘볼수 있다.

OGCSBN_2021_v37n5_1_989_f0004.png 이미지

Fig. 7. Sentinel-2A/B monthly composite NDVI images of May (a), June (b), July (c), 2021 of Gwinemi fields.

4. 결론

생육주기가 짧고, 미묘한 분광정보의 차이가 중요한 의미를 가지는 농작물 모니터링을 위한 주기 합성에서 구름과 구름 그림자 정보는 매우 중요하다. 특히 구름이 자주 발생되는 고랭지 지역에서 배추의 정확한 생육 모니터링을 위해서는 더욱 그렇다. 현재 공식적으로 Sentinel-2A/B 위성영상과 함께 제공되고 있는 구름 정보는 탐지 정확도가 높으나, 밝은 인공물을 구름으로 오탐지되는 경우가 발견되었다. 오탐지되는 결과는 주기 합성 시 분광정보의 손실을 야기하므로, 농업 활용을 위한 주기 합성에 문제가 될 수 있다. 본 연구에서 제시한 HOT와 MeanVis 척도에 임계치를 적용한 알고리즘은 상대적으로 탐지 정확도는 낮으나, 오탐지를 줄여 분광 정보의 손실을 최소화하였다. 특히, 구름 그림자 탐지 알고리즘은 지형에 의해 발생되는 그림자와의 구분이 가능해 분광정보의 손실을 줄였다. 또한 단순한 분광척도에 단일 임계치를 적용하는 방식으로 그 알고리즘 자체가 간단하고, 계산량이 적다는 장점이 있다. 임계치가 고랭지 배추밭을 대상으로 3년의 Sentinel-2A/B에만 제한적으로 결정된 결과이기 때문에, 향후 다양한 농경지와 보다 많은 시계열 자료의 적용이 필요하다. 이와 함께 본 구름과 구름 그림자 탐지 결과가 주기 합성 시 정량적으로 얼마나 활용성이 있는지도 추가 연구로 진행 될 예정이다.

사사

본 논문은 농촌진흥청 연구사업(과제번호: PJ01623 42021)의 지원에 의해 이루어진 것임.

References

  1. Doninck J.V. and H. Tumisto, 2017. Influence of compositing criterion and data availability on pixel-based Landsat TM/ETM+ image compositing over Amazonian forests, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 10: 857-867. https://doi.org/10.1109/JSTARS.2016.2619695
  2. Dybbroe, A., K.G. Karlsson, and A. Thoss, 2005. NWCSAF AVHRR cloud detection and anaysis using dynamic thresholds and radiative transfer modeling, Part I: Algorithm description, Journal of Applied Meteorology and Climatology, 44: 39-54. https://doi.org/10.1175/JAM-2188.1
  3. Griffiths, P., C. Nendel, and P. Hostert, 2019. Intra-annual reflectace composites from Sentinel-2 and Landsat for national-scale crop and land cover mapping, Remote Sensing of Environment, 220: 135-151. https://doi.org/10.1016/j.rse.2018.10.031
  4. Huang, H., C. Wang, S. Liu, Z. Sun, D. Zhang, C. Liu, Y. Jiang, S. Zhan, H. Zhang, and R. Xu, 2020. Single spectral imagery and faster R-CNN to identify hazardous and noxious substances spills, Environmental Pollution, 258: 113688. https://doi.org/10.1016/j.envpol.2019.113688
  5. Kawano K. and J.I. Kudoh, 2001. Cloud detection method fro NOAA AVHRR images by using local area parameters, Proc. of the IEEE 2001 Onternational Geoscience and Remote Sensing Symposium, Sydney, NSW, AU, Jul. 9-13, vol. 5, pp. 2155-2157.
  6. Kim, S.H., J. Eun, S.J. Kang, and K.S. Lee, 2011. Detection of short-term changes using MODIS daily dynamic cloud-free composite algorithm, Korean Journal of Remote Sensing, 27(3): 259-276. https://doi.org/10.7780/KJRS.2011.27.3.259
  7. Liu, Z., L. Han, P. Zhou, X. Wang, and T. Wu, 2017. A method for cloud interpretation in ZY-3 satellite imagery and its application, Remote Sensing Information, 32: 41-46.
  8. Liu, Z., Y. Li, and F. Huang, 2007. Cloud detection of MODIS satellite images based on dynamic cluster, Remote Sensing Information, 4: 33-35.
  9. Skakun, S., C.O. Justice, E. Vermote, and J.C. Roger, 2017. Transitioning from MODIS to VIIRS: an analysis of interconsistency of NDVI data sets for agricultural monitoring, International Journal of Remote Sensing, 39(4): 971-992. https://doi.org/10.1080/01431161.2017.1395970
  10. Sun, S., 2017. A multi-spectral remote sensing imagery cloud detection algorithm based on spectral angle principle, Microcomputer Its Apple, 36: 16-18.
  11. Wu, J., 2015. Cloud detection algorithm for domestic high-resolution multispectral image data, Computer Networks, 41: 45-47.
  12. Xiong, Q., Y. Wang, D. Liu, S. Ye, Z. Du, W. Liu, J. Huang, W. Su, D. Zhu, X. Yao, and X. Zhang, 2020. A cloud detection approach based on hybrid multispectral features with dynamic thresholds for GF-1 remote sensing images, Remote Sensing, 12: 450. https://doi.org/10.3390/rs12030450

Cited by

  1. 논과 고랭지 배추밭 대상 Sentinel-2A/B 정규식생지수 월 합성영상의 구름 제거 효과 분석 vol.37, pp.6, 2021, https://doi.org/10.7780/kjrs.2021.37.6.1.5