DOI QR코드

DOI QR Code

Analysis of UAV-based Multispectral Reflectance Variability for Agriculture Monitoring

농업관측을 위한 다중분광 무인기 반사율 변동성 분석

  • Ahn, Ho-yong (Researcher, Climate Change Assessment Division, National Institute of Agricultural Sciences, Rural Development Administration) ;
  • Na, Sang-il (Researcher, Climate Change Assessment Division, National Institute of Agricultural Sciences, Rural Development Administration) ;
  • Park, Chan-won (Senior Researcher, Climate Change Assessment Division, National Institute of Agricultural Sciences, Rural Development Administration) ;
  • Hong, Suk-young (Senior Researcher, Climate Change Assessment Division, National Institute of Agricultural Sciences, Rural Development Administration) ;
  • So, Kyu-ho (Senior Researcher, Climate Change Assessment Division, National Institute of Agricultural Sciences, Rural Development Administration) ;
  • Lee, Kyung-do (Researcher, Climate Change Assessment Division, National Institute of Agricultural Sciences, Rural Development Administration)
  • 안호용 (농촌진흥청 국립농업과학원 기후변화평가과 연구사) ;
  • 나상일 (농촌진흥청 국립농업과학원 기후변화평가과 연구사) ;
  • 박찬원 (농촌진흥청 국립농업과학원 기후변화평가과 연구관) ;
  • 홍석영 (농촌진흥청 국립농업과학원 기후변화평가과 연구관) ;
  • 소규호 (농촌진흥청 국립농업과학원 기후변화평가과 연구관) ;
  • 이경도 (농촌진흥청 국립농업과학원 기후변화평가과 연구사)
  • Received : 2020.12.07
  • Accepted : 2020.12.16
  • Published : 2020.12.31

Abstract

UAV in the agricultural application are capable of collecting ultra-high resolution image. It is possible to obtain timeliness images for phenological phases of the crop. However, the UAV uses a variety of sensors and multi-temporal images according to the environment. Therefore, it is essential to use normalized image data for time series image application for crop monitoring. This study analyzed the variability of UAV reflectance and vegetation index according to Aviation Image Making Environment to utilize the UAV multispectral image for agricultural monitoring time series. The variability of the reflectance according to environmental factors such as altitude, direction, time, and cloud was very large, ranging from 8% to 11%, but the vegetation index variability was stable, ranging from 1% to 5%. This phenomenon is believed to have various causes such as the characteristics of the UAV multispectral sensor and the normalization of the post-processing program. In order to utilize the time series of unmanned aerial vehicles, it is recommended to use the same ratio function as the vegetation index, and it is recommended to minimize the variability of time series images by setting the same time, altitude and direction as possible.

농업에서의 무인기는 촬영 영역은 작지만, 위성이 가지지 못하는 초고해상도의 영상 수집이 가능하며, 작물의 생물계절에 맞는 영상을 적시에 획득 할 수 있어 들녘단위 농경지의 모니터링에 유용하게 사용될 수 있다. 하지만 무인기의 경우 위성과 달리 다양한 카메라와 촬영 환경에 따른 다중시기 영상을 활용하기 때문에 시계열 영상 활용을 위해서는 정규화 된 영상자료를 활용하는 것이 필수적으로 요구된다. 본 연구는 무인기 다중분광 영상의 농업 모니터링 시계열 활용을 위해 촬영 환경에 따른 무인기 반사율 및 식생지수의 변동성을 분석하였다. 촬영 고도, 촬영 방향, 촬영시간, 운량과 같은 환경요인에 따른 반사율 변동성은 8%에서 11%로 매우 크게 나타났으나, 식생지수의 변동성은 1% ~ 5%로 안정적인 것을 확인 할 수 있었다. 이러한 현상은 무인기 다중분광센서의 특성과 후처리 프로그램의 정규화 등 다양한 원인이 존재하는 것으로 판단된다. 따라서 무인기 영상의 시계열 활용을 위해서는 식생지수와 같은 밴드비율함수를 활용하는 것이 권장되며 촬영 시 가능한 동일한 촬영시간, 촬영 고도, 촬영 방향을 설정하여 시계열 영상의 변동성을 최소화하는 것이 권장된다.

Keywords

요약

농업에서의 무인기는 촬영 영역은 작지만, 위성이 가지지 못하는 초고해상도의 영상 수집이 가능하며, 작물의 생물계절에 맞는 영상을 적시에 획득 할 수 있어 들녘단위 농경지의 모니터링에 유용하게 사용될 수 있다. 하지만 무인기의 경우 위성과 달리 다양한 카메라와 촬영 환경에 따른 다중시기 영상을 활용하기 때문에 시계열 영상 활용을 위해서는 정규화 된 영상자료를 활용하는 것이 필수적으로 요구된다. 본 연구는 무인기 다중분광 영상의 농업 모니터링 시계열 활용을 위해 촬영 환경에 따른 무인기 반사율 및 식생지수의 변동성을 분석하였다. 촬영 고도, 촬영 방향, 촬영시간, 운량과 같은 환경요인에 따른 반사율 변동성은 8%에서 11%로 매우 크게 나타났으나, 식생지수의 변동성은 1% ~ 5%로 안정적인 것을 확인 할 수 있었다. 이러한 현상은 무인기 다중분광센서의 특성과 후처리 프로그램의 정규화 등 다양한 원인이 존재하는 것으로 판단된다. 따라서 무인기 영상의 시계열 활용을 위해서는 식생지수와 같은 밴드비율함수를 활용하는 것이 권장되며 촬영 시 가능한 동일한 촬영시간, 촬영 고도, 촬영 방향을 설정하여 시계열 영상의 변동성을 최소화하는 것이 권장된다.

1. 서론

최근 ICT(Information & Communications Technology) 및 MEMS(Micro Electro Mechanical Systems) 기술의 발전과 더불어 무인항공기 산업이 급격한 성장과 동시에 활용 범위가 물류, 통신, 스포츠, 환경, 농업 등 그 분야가 광범위하게 확대되고 있다(Teal Group, 2012). 무인항공기에 장착되는 다양한 센서(광학, 다중 분광, 열화상, LiDAR)들이 개발됨에 따라 다양한 자료 수집 플랫폼으로 매우 높은 가치를 가진 것으로 평가된다(Anderson, 2017).

농업 분야에서의 무인기는 촬영 영역은 작지만, 위성이 가지지 못하는 초고해상도의 영상수집이 가능하며, 작물의 생물계절에 맞는 적시성을 가지고 있어 들녘 단위 농경지의 모니터링에 유용하게 사용될 수 있다(Lee et al., 2015). 국내 무인기를 활용한 농업 분야 주요 연구는 벼 등 주요 작물의 생육 및 수량 추정(Lee et al., 2017a; Lee et al., 2017b; Jang et al., 2019; Lee et al., 2019b), 작물 구분 및 면적추정(Park and Park, 2015; Lee et al., 2016; Yun et al., 2016), 풋거름작물의 질소량 추정(Lee et al., 2015), 가뭄, 병해 등 재해에 따른 피해평가(Park and Park, 2017; Lee et al., 2020a), 마늘 양파, 배추 등 채소 주산단지 생육인자 분포지도, 정식/수확 시기 분포 지도작성(Na et al., 2016a; Na et al., 2016b; Na et al., 2017a; Na et al., 2017b) 등 작물의 작황 추정 및 생육 진단을 위해 다양하게 활용되고 있다.

원격탐사 자료를 사용한 작황 분석은 서로 다른 작물의 생육 주기를 이용하여 분류, 모니터링, 추정단계 순으로 진행되므로 생물계절에 맞는 다시기의 시계열 자료가 필요하다. 하지만 무인기 영상을 이용한 기존 연구는 단시기 혹은 단일 작물에 국한하여 수행되었다. 또한, 기존의 무인기 다중 분광 센서는 카메라의 메타 정보(ISO, 노출 시간, F 수)만을 사용하여 경험적 방법으로 반사율과 식생지수를 사용하기 때문에 들녘 단위의 영상을 촬영할 경우 촬영환경(구름, 촬영고도, 촬영 시간) 에 따른 정확한 반사율 산정에 한계가 존재한다(Lee et al., 2016; Lee et al., 2019a; Lee et al., 2020b).

무인기 영상기반 농업환경 모니터링 연구는 지속해서 이루어지고 있지만 반사율 산출 등 전처리 및 영상 품질검증은 상대적으로 미진한 실정이다. 특히, 농업관측에 가장 많이 활용되는 정규화 식생지수(NDVI: Normalized difference vegetation index)는 가시 및 근적외선의 상대적인 비율함수로 작물의 식생활력도와 관련된 NIR 밴드는 작은 차이라도 큰 영향을 미치기 때문에 (Galvão et al., 1999) 정확한 반사율을 산출을 위한 전처리 작업은 매우 중요하다. 무인기의 경우 위성과 달리 다양한 카메라와 촬영환경에 따른 다중시기 영상을 활용하기 때문에 시계열 영상 활용을 위해서는 정규화된 영상 자료를 활용하는 것이 필수적으로 요구된다.

본 연구는 다중분광 무인기 영상의 시계열 농업활용을 위해 다양한 촬영환경에서의 반사율 및 식생지수를 비교 분석하여 영상의 품질평가와 변동성 분석을 위해 (1) 검보정 방법에 따른 반사율 변화(2) 촬영환경에 따른 반사율 변동성(3) 촬영환경이 식생지수에 미치는 영향을 분석하였다.

2. 방법론

1) 연구지역 및 자료

무인기 다중분광센서의 반사율 변동성을 분석하기 위해 전라북도 완주군 이서면에 있는 국립농업과학원 시험연구 포장 및 운동장에서 반사율이 일정한 Tarp 및 식생을 선정하여 다양한 환경(촬영 고도, 태양천정각, 촬영 방향, 구름 유무) 에서 촬영을 수행하였다(Fig. 1). 영상 획득을 위해 Red Edge-MX(Micasense, USA) 다중분광 카메라를 Matrice200(DJI, China) 기체에 장착하여 (Fig. 3) 종·횡 중복도 75%를 기준으로 자동 비행하여 영상을 취득하였다.

OGCSBN_2020_v36n6_1_1379_f0001.png 이미지

Fig. 1. Location of study area (Left: Playground, Right: Crop land).

OGCSBN_2020_v36n6_1_1379_f0002.png 이미지

Fig. 3. UAV with multispectral camera attached DLS.

RedEdge-MX는 농업 분야 활용성이 높은 무인기 다중분광센서로 Blue, Green, Red, Red-Edge, Near Infrared의 5개 밴드를 가지고 있으며, 120 m 고도에서 픽셀당 8 cm의 공간 해상도를 가진다 (Table 1). 무인기 촬영 시각 밴드별 태양 복사 조도 측정이 가능한 DLS(Downwelling Light Sensor)가 장착되어 광량에 따른 반사율 보정이 가능하다.

Table 1. Specification Multispectral Camera

OGCSBN_2020_v36n6_1_1379_t0001.png 이미지

RedEdge-MX 카메라의 원시(Raw) 영상은 위성영상과 유사하게 1) 복사 휘도변환, 2) 반사율 변환 과정으로 수행된다. 하지만 다중 분광카메라의 원시(Raw) 영상은 위성영상과 유사하게 1) 복사 휘도변환, 2) 반사율 변환 과정으로 수행된다. 하지만 다중 분광 카메라의 특성이 고려되어 촬영 시 카메라 EXIF(Exchangeable Image File Format)에 기록되는 감광 속도(ISO), 셔터 스피드, 카메라 중앙에서 외곽 부분으로 갈수록 어두워지는 Vignette 현상 그리고 카메라에 측정된 아날로그 신호를 전기신호(Digitanl Number, DN)으로 변환할 때 발생하는 암전류 (Dark Current) 보정이 적용되어 복사 휘도가 산출되며 산출된 복사휘도를 복사조도계(Downwelling Light Sensor, DLS)에서 측정된 값으로 나누어 반사율이 산정된다(Lee et al., 2019a). 식(1)은 영상에 산정된 복사휘도를 반사율 변환하는 식을 나타낸다.

\(\rho=\frac{\pi^{*} L}{E_{D L S}} * f\)       (1)   

\(\text { where, } \rho: \text { the spectral reflectance obtained from the direct method }\)

\(\begin{aligned} &L: \text { the spectral radiance }\left(\mathrm{W} / \mathrm{m}^{2} / \mathrm{sr} / \mathrm{nm}\right)\text { calculated by Equation } 1 \end{aligned}\)

\(f: \text { the EDLS correction factor }\)

\(E_{D L S}: \text { the spectral irradiance measured by }\mathrm{DLS}\left(\mathrm{W} / \mathrm{m}^{2} / \mathrm{nm}\right)\)

여기서 반사율 산정을 위한 보정방법이 나누어지며, 복사 조도 보정계수(f) 산정에 있어 촬영 전, 후 지상에서 Calibrated Reflectance Panel(CRP)를 촬영하여 기준으로 나누는 방법(경험적)과 촬영 없이 영상마다 DLS 센서의 복사조도 값을 적용하는 방법(직접적), 그리고 두 경우를 모두 적용하는 방법이 있다.

촬영환경에 따른 영상 획득을 위해 본 연구에서는 Table 2와 같이 각 조건을 독립변수로 설정하고 촬영을 수행하였다. 2020년 3월 촬영 영상의 경우 태양 고도 각에 따른 반사율 변화, 9월 촬영의 경우 검보정 방법 및 고도에 따른 식생지수 변화, 11월 촬영의 경우 고도 및 기상에 따른 반사율 변화를 분석하였다.

Table 2. UAV Flight Parameter

OGCSBN_2020_v36n6_1_1379_t0002.png 이미지

2) 연구방법

촬영환경에 따른 무인기 반사율 변동성 분석을 위해 본 연구에서는 무인기 영상 후 처리 프로그램(Meta Shape, Agisoft, Russia)을 이용하여 정사보정과 모자이크 처리를 적용하여 집성 영상(Mosaic Image)으로 제작하였다. Fig. 2와 같이 촬영환경별 영상을 취득한 Raw Data를 표면 반사율로 변환하기 위해서는 암전류, ISO 감도, 노출시간 및 비네팅과 같은 카메라 EXIF에 기록된 Parameter를 고려한 보정이 선행된다(Aasen et al., 2015). 다음으로 DLS의 조도 측정값을 사용하여 반사율을 보정하는 직접적 보정과 보정된 반사판(Calibrated Reflectance Panel)을 이용하여 복사 조도를 조정하는 방법 경험적 보정이 있다. 촬영환경에 따른 반사율을 변동성 평가에 앞서 본 연구에서는 직접적 보정과 경험적 보정에 대한 영상의 반사율의 정확도 평가하였다. 다음으로 각각의 촬영 조건(기상, 고도, 태양각, 방향)에 대하여 같은 보정 방법을 적용하여 반사율 변동성을 분석하였다. 반사율 정확도 평가를 위해 본 연구는 9월 23~24일 분광 복사계를 이용하여 Tarp의 반사율을 측정하였다. 일정한 반사율 측정을 위해 Fig. 5과 같이 삼각대를 이용하여 태양광의 수직 방향으로 측정하였다.

Fig. 2. Flow chart.

OGCSBN_2020_v36n6_1_1379_t0003.png 이미지

OGCSBN_2020_v36n6_1_1379_f0004.png 이미지

Fig. 5. Tarp measurement.

분광복사계의 경우 1 nm 간격으로 복사 휘도가 측정되기 때문에 다중 분광카메라의 반사율과 직접 비교가 불가능하다. 따라서 식(2) 및 Fig. 4와 같이 다중 분광카메라의 상대분광응답 반응(Relative Spectral Response, RSR) 을 이용하여 카메라 밴드별 반사율(ρ) 산정 후 비교하였다 (Fig. 6).

\(\rho=\frac{\int_{a}^{b} \rho(\lambda) \cdot R S R(\lambda) d \lambda}{\int_{a}^{b} R S R(\lambda) d \lambda}\)       (2)

\(\text { where, } \rho: \text { the spectral reflectance obtained from spectro-radiometer using RSR }\)

\(R S R: \text { the relative spectral response function of multi-spectral sensor for each band }\)

OGCSBN_2020_v36n6_1_1379_f0003.png 이미지

Fig. 4. RSR of Multispectral camera.

OGCSBN_2020_v36n6_1_1379_f0005.png 이미지

Fig. 6. Spectral reflectance of tarp.

무인기 반사율 변동성을 분석하기 위해 본 연구에서는 촬영고도, 촬영 시간(태양천정각), 촬영 방향, 구름양에 대해 독립조건을 설정하였다. 영상 후 처리는 Meta Shape 소프트웨어를 사용하였으며 처리된 DN정사 영상을 반사율로 변환하였다.

3. 연구결과

1) 검보정 방법에 따른 반사율 평가

무인기 다중분광센서의 반사율 정확도 평가를 위해 본 연구에서는 9월 23일 및 24일 13시 30분에 촬영된 영상과 분광 복사계 자료를 바탕으로 Tarp 반사율을 비교하였다. Fig. 7은 보정 방법에 따른 무인기 영상반사율(좌측)과 분광 복사계와 반사율 차이(우측)를 나타낸다.

OGCSBN_2020_v36n6_1_1379_f0006.png 이미지

Fig. 7. UAV image reflectance Tarp by Calibration Method (Left) and Difference of Spectroradiometer (Right).

NIR 밴드를 제외하고 반사율이 높은 Tarp일수록 무인기 영상에서의 추정 반사율의 오차는 증가하는 경향을 보였다. NIR밴드는 Tarp반사율이 낮을수록 큰 오차가 발생했다. 보정방법에 따른 정확도의 차이는 밴드별로 상이하게 나타났으며 특히 DLS 센서를 사용한 직접적 보정방법 적용 시 큰 오차를 나타냈다 (Table 3). Mamaghani and  Salvaggio(2019)는 이러한 반사율 차이에 대한 원인으로 카메라의 Vignette, Radiometric Calibration 계수로 지목하였다. 일반적으로 다중 분광센서의 경우 입사 조도(광량)의 변화에 따라 ISO 및 노출 시간이 달라지기 때문에 Radiometric Gain 및 Vignette 보정량이 달라져야 하지만 RedEdgeMX 센서의 경우 단일 값만 제공되기 때문이다.

Table 3. Percent Difference UAV Reflectance image and Spectroradiometer

OGCSBN_2020_v36n6_1_1379_t0004.png 이미지

Fig. 8, 9는 다중분광무인기영상의 DN과 분광복사계 측정반사율 사이의 관계를 나타낸다. 정사 처리된 영상(우)과는 달리 단영상의 경우 DN의 증가에 따라 반사율이 일정하게 증가하는 1차 선형을 보인다. 정사 영상의 경우 영상을 합성하면서 발생하는 평활화(Smoothing)에 따른 반사율 왜곡으로 정확한 반사율 산정에 한계가 있다. 따라서 무인기 기반의 영상 반사율 활용을 위해 전처리 및 영상 합성 방법의 개선이 필요하다.

OGCSBN_2020_v36n6_1_1379_f0007.png 이미지

Fig. 8. DN-Reflectance (Mosaic Image).

OGCSBN_2020_v36n6_1_1379_f0009.png 이미지

Fig. 9. DN-Reflectance (Singe Image).

직접적 보정 시 높은 오차가 발생하는 원인에 대해 Lee et al. (2020b) 은 천청일 일주촬영을 통해 일정한 경향 없이 변동성이 크게 나타난 것은 다중분광센서 복사 조도계의 하드웨어적 성능한계 및 영상 전처리 프로그램의 영상의 밝기 정규화에 따른 평활화(Smoothing)로 추정하였다. 이에 본 연구는 정확한 반사율 추정보다는 시계열 무인기 반사율 영상의 활용을 평가하기 위해 다양한 촬영환경이 가지는 반사율과 식생지수의 변동성 및 경향을 분석하였다.

2) 촬영환경에 따른 반사율 변화

촬영환경에 따른 반사율 변동성 분석을 위해 전처리시 Calibration 방법은 상대적으로 정확도가 높은 직·경험적 보정방법을 사용하였다. Fig. 10은 무인기 촬영 고도 변화에 따른 반사율 변화를 나타낸다. 모든 경우에 적용되지 않지만, 일반적으로 고도가 높아짐에 따라 반사율이 이 증가하였다. 고도와 반사도의 관계는 수증기, 에어로졸 및 먼지로부터 확산복사 때문에 카메라 센서에 감지되는 복사 휘도의 대기산란의 영향으로 판단된다(Chavez, 1988). Guo et al. (2019)은 다중분광무인기 카메라에서의 고도에 따른 반사율 변화를 카메라 자체 영향과 대기의 영향으로 구분하여 분석하였다. 그 결과 촬영 고도가 높아질수록 대기 효과에 따른 반사율의 증가는 100 m 고도에서 2.5%로 평가하여 본 연구와 유사한 결과를 보였다. 하지만 본 연구에서는 150 m고도 의 경우 감소하는 120 m 고도보다 반사율이 감소하는 경향을 보였다. 즉, 일정 고도 이상에서의 대기 산란에 따른 고도효과는 제한적으로 사료된다.

OGCSBN_2020_v36n6_1_1379_f0008.png 이미지

Fig. 10. Change of UAV image reflectance by altitude.

무인기 촬영 시 구름 양에 따른 반사율 변화를 분석하기 위해 Fig. 11과 같이 다른 기상 조건에서 같은 촬영 조건(비행 방향, 고도, 시간) 하에 촬영된 영상의 Tarp 반사율을 비교하였다.

OGCSBN_2020_v36n6_1_1379_f0010.png 이미지

Fig. 11. Different Weather Condition during UAV Flight.

Fig. 12에서 확인할 수 있듯이 모든 Tarp에서 구름이 없는 맑은 조건에서 반사율이 낮게 나타나는 경향을 보였으며, Partly Cloud의 환경에서 촬영한 영상의 경우 반사율의 변동성이 상대적으로 크게 나타났다. 이는 구름 조금 혹은 적운이 있을 때 구름에 의한 음영과 구름에 의한 산란으로 인해 표면 반사율의 변화가 크기 때문이다(Assmann et al., 2018). 특히, NIR 밴드에서 상대적으로 큰 변동성을 나타냈는데 이는 NIR 밴드가 다른 가시대역 밴드보다 수증기 영역에서 더 민감성을 보이기 때문으로 사료된다(Richards, 2013). 따라서 농업환경 관측을 위한 무인기 영상 취득 시 가능한 맑은 날이나 흐린 날에 촬영하여 변동성을 최소화하는 것이 권장된다. 하지만 무인기 영상을 적시에 얻기 위해서는 기상 상황을 고려하여 촬영하기는 현실적으로 어려우므로 비행 중 대기상태를 기록하여 분석 시 그 영향을 고려하는 것이 대안으로 판단된다.

OGCSBN_2020_v36n6_1_1379_f0011.png 이미지

Fig. 12. Change of UAV image reflectance by Cloud.

무인기 촬영 시간(태양천정각)에 따른 반사율 변동성 평가를 위해 맑은 날 동일 비행 고도, 및 비행 방향으로 2시간 간격으로 영상을 촬영하고 Reference Target의  반사율 변화를 분석하였다 (Fig. 13). 그 결과, 태양 고도 각이 상승함에 따라 반사율이 증가하는 경향을 나타냈다. Hashimoto et al. (2019) 는 태양 복사 조건이 항공 사진에 미치는 영향을 평가하기 위해 복사 전달 모델을 통해 캐노피 반사율을 시뮬레이션한 결과 Diffusee Radiance가 낮은 날씨의 경우 태양고도가 증가할수록 반사율도 증가하는 것을 보고하였다. 촬영 시간 및 방향과 관련하여 DN의 변화는 태양 입사각과 관련이 있을 수 있으며, 이는 각도에 따른 대기 산란의 변화로로 초래된다. Cao et al.(2019) 의 연구에서도 다중분광 카메라의 반사율 데이터에서 태양각과 대기 조건의 간섭에 영향을 미치는 것을 언급하였다.

OGCSBN_2020_v36n6_1_1379_f0012.png 이미지

Fig. 13. Change of UAV image reflectance by Direction.

3) 촬영환경에 따른 식생지수 변화

촬영환경에 따른 식생지수 변화를 분석하기 위해 식생활력도가 높은 작물(벼, 콩, 옥수수 등)과 비식생 그리고 식생활력도가 낮은 잔디 등을 대상으로 면적 10 m2 표본 조사구를 선정하여 촬영 조건 및 검보정 방법에 따른 식생지수를 비교하였다 (Fig. 14).

OGCSBN_2020_v36n6_1_1379_f0013.png 이미지

Fig. 14. Location of NDVI area.

정규화 식생지수는 식물체의 질소량과 직접적인 비례 관계에 있는 엽록소의 분광반사 특성이 주로 적색(Red), 청색(Blue) 파장은 흡수하는 반면 근적외선(NIR: Near Infra Red) 파장은 반사하는 현상을 바탕으로 이들 파장을 조합하여 녹색식물의 상대적 분포량과 활동성을 평가하는 지표로 널리 사용됐다(Tomas and Gausman, 1977).본 연구에서는 적색 파장과 근적외선 파장의 반사율을 이용하여 계산하는 NDVI를 산정하여 비교하였다(식(3)).

\(N D V I=\frac{\rho_{N I R}-\rho_{R E D}}{\rho_{N I R}+\rho_{R E D}}\)       (3)

촬영환경에 따른 식생지수 변화는 Fig. 15와 같다. 특히, 고도의 경우에는 11월에 촬영된 영상이 다양한 피복을 반영하기에는 제한이 있어 9월에 촬영된 100 m, 144 m 영상을 이용하여 분석하였다. 전체적으로 반사율과는 다르게 식생지수는 큰 차이를 나타내지 않았다. Table 5는 촬영환경에 따른 식생지수 변화의 변동계수 (Coefficient of Varation)이다. 검보정 방법에 따른 변동계수는 1% 이내의 매우 작은 변동성이 나타났지만, 고도에 따른 식생지수변화는 다른 촬영환경에 비해 상대적으로 큰 변화를 보였다. 하지만 고도에 따른 식생지수 변화는 100 m 고도와 144 m고도만을 비교하였기 때문에 향후 추가적인 분석이 필요하다. 비식생 지표 피복인 Soil과 Concrete에서 변동성이 큰 것으로 나타났으며, 식생활력도가 높은 벼, 콩, 밀의 경우 촬영환경에 따른 NDVI변동성이작게나타났다. 반사율의 변동성과 비교를 위해 밴드별 촬영환경에 대한 변동성을 비교한 결과 검보정8.6%, 기상 5.0%, 고도 각 10.2%, 고도 11.2%로 변동성이 크지만 식생지수는 검보정0.48%, 기상 2.92%, 고도 각 3.45%, 고도 5.8%로 상대적으로 작은 차이를 보였다 (Table 4).

OGCSBN_2020_v36n6_1_1379_f0014.png 이미지

Fig. 15. Change of UAV image reflectance by Environment.

Table 4. Coefficient of variation of UAV Image Reflectance by Environment

OGCSBN_2020_v36n6_1_1379_t0005.png 이미지

Table 5. Coefficient of variation of UAV Image NDVI by Environment

OGCSBN_2020_v36n6_1_1379_t0006.png 이미지

Deng et al. (2018), Cao et al. (2019), Fawcett et al. (2020)은 기상 조건, 다중시기 및 항공 초분광 영상과 무인기 영상을 비교하여 반사율의 경우 지상 계측 값이 큰 차이를 보인 반면 식생지수는 선형적 관계성을 보인다는 연구결과와 본 연구결과는 유사한 결과를 보였다. 이러한 원인으로 처리프로그램과 센서 특성 분석 및 반사율 변동성의 정량화를 위한 추가연구가 필요할 것으로 판단된다.

4. 결론

본 연구는 무인기 다중분광 영상의 농업 모니터링 시계열 활용을 위해 촬영환경에 따른 무인기 반사율 및 식생지수의 변동성을 분석하였다. 각 촬영환경을 독립변수로 설정하여 고도, 태양각, 검보정 방법, 날씨의 조건에 맞춰 무인기 촬영을 수행하였고 반사율이 일정한 Tarp 및 식생에 대해 상호 비교분석을 수행하였다. 그 결과 무인기 다중분광 기반 영상의 반사율은 촬영방식에 따라 변동성이 크게 나타났다. 촬영 높이 및 태양고도에 따라 일부 경향성을 보이기는 했으나 재현성 있는 값은 나타나지 않아 시계열 영상 활용은 한계가 있을 것으로 판단된다. 이러한 현상은 무인기 탑재 센서의 특성과 후처리 프로그램의 정사 영상 정규화 등 다양한 원인이 존재하는 것으로 판단된다. 식생지수의 경우 반사율보다 상대적으로 안정적인 변동성을 보였다. 따라서 무인기 영상의 시계열 활용을 위해서는 최대한 균일한 촬영조건을 유지하여 시계열 영상의 변동성을 최소화하고, 반사율을 직접 이용하는 것보다는 식생지수와 같은 비율함수를 활용하는 것이 중요할 것으로 판단된다. 또한, 기상의 경우 통제할 수 있는 촬영조건이 아니지만 구름이 부분적으로 있는 경우 그림자 및 대기 산란에 의한 반사율 변동성이 매우 크기 때문에 가능한 맑은 날·흐린 날 촬영을 수행하는 것이 권장된다. 또한, 촬영 시 기상을 기록하여 분석 참고 자료로 활용하는 것이 권장되며, 향후 태양 복사 조건의 영향을 줄이기 위한 보정방법의 개발이 필요하다.

사사

본 연구는 농촌진흥청 공동연구사업(과제번호: PJ01 350001)의 지원에 의해 이루어진 결과로 이에 감사드립니다.

References

  1. Aasen, H., A. Burkart, A. Bolten, and G. Bareth, 2015. Generating 3D hyperspectral information with lightweight UAV snapshot cameras for vegetation monitoring: From camera calibration to quality assurance, ISPRS Journal of Photogrammetry and Remote Sensing, 108(2015): 245-259. https://doi.org/10.1016/j.isprsjprs.2015.08.002
  2. Anderson, C., 2017. The drone economy, Harvard Business Publishing, Brighton, MA, USA.
  3. Assmann, J. J., J. T. Kerby, A. M. Cunliffe, and I. H. Myers-Smith, 2018. Vegetation monitoring using multispectral sensors-Best practices and lessons learned from high latitudes. Journal of Unmanned Vehicle Systems, 7(1): 54-75. https://doi.org/10.1139/juvs-2018-0018
  4. Cao, S., B. Danielson, S. Clare, S. Koenig, C. Campos-Vargas, and A. Sanchez-Azofeifa, 2019. Radiometric calibration assessments for UAS-borne multispectral cameras: Laboratory and field protocols, ISPRS Journal of Photogrammetry and Remote Sensing, 149: 132-145. https://doi.org/10.1016/j.isprsjprs.2019.01.016
  5. Chavez Jr, P. S., 1988. An improved dark-object subtraction technique for atmospheric scattering correction of multispectral data, Remote sensing of environment, 24(3): 459-479. https://doi.org/10.1016/0034-4257(88)90019-3
  6. Deng, L., Z. Mao, X. Li, Z. Hu, F. Duan, and Y. Yan, 2018. UAV-based multispectral remote sensing for precision agriculture: A comparison between different camera, ISPRS Journal of Photogrammetry and Remote Sensing, 146: 124-136. https://doi.org/10.1016/j.isprsjprs.2018.09.008
  7. Fawcett, D., C. Panigada, G. Tagliabue, M. Boschetti, M. Celesti, A. Evdokimov, K. Biriukova, R. Colombo, F. Miglietta, U. Rasher, and K. Anderson. 2020. Multi-scale evaluation of drone-based multispectral surface reflectance and vegetation indices in operation conditions, Remote Sensing, 12(3): 514. https://doi.org/10.3390/rs12030514
  8. Galvao, L. S., I. Vitorello, and R. Almeida, 1999. Effects of band positioning and bandwidth NDVI (Normalized difference vegetation index) measurements of tropical savannas, Remote Sensing of Enviroment, 67: 181-193. https://doi.org/10.1016/S0034-4257(98)00085-6
  9. Guo, Y., J. Senthilnath, W. Wu, X. Zhang, Z. Zeng, and H. Huang, 2019. Radiometric calibration for multispectral camera of different imaging conditions mounted on a UAV platform, Sustainability, 11(4): 978. https://doi.org/10.3390/su11040978
  10. Hashimoto, N., Y. Saito, M. Maki, and K. Homma, 2019. Simulation of Reflectance and Vegetation Indices for Unmanned Aerial Vehicle (UAV) Monitoring of Paddy Fields, Remote Sensing, 11(18): 2119 https://doi.org/10.3390/rs11182119
  11. Jang, S. H., C. S. Ryu, Y. S. Kang, S. R. Jun, J. W. Park, H. Y. Song, K. S. Kang, D. W. Kang, K. Zou, and T. H. Jun, 2019. Estimation of fresh weight, dry weight, and leaf area index of soybean plant using multispectral camera mounted on rotor-wing UAV, Korean Journal of Agricultural and Forest Meteorology, 21(4): 327-336 (in Korean with English abstract). https://doi.org/10.5532/KJAFM.2019.21.4.327
  12. Lee, K. D., S. I. Na, S. C. Baek, K. D. Park, J. S. Choi, S. J. Kim, H. J. Kim, H. S. Choi, and S. Y. Hong, 2015. Estimating the amount of nitrogen in hairy vetch on paddy fields using unmanned aerial vehicle imagery, Korean Journal of Soil Science and Fertilizer, 48(5): 384-390 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2015.48.5.384
  13. Lee, K. D., Y. E. Lee, C. W. Park, S. Y. Hong, and S. I. Na, 2016. Study on reflectance and NDVI (Normalized difference vegetation index) of aerial images using a fixed-wing UAV "Ebee", Korean Journal of Soil Science and Fertilizer, 49(6): 731-742 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2016.49.6.731
  14. Lee, K. D., C. W. Park, K. H. So, and S. I. Na, 2017a. Selection optimal vegeation indices and regression model for estimation of rice growth using UAV aerial images, Korean Journal of Soil Science and Fertilizer, 50(5): 409-421 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2017.50.5.409
  15. Lee, K. D., C. W. Park, K. H. So, K. D. Kim, and S. I. Na. 2017b. Characteristics of UAV aerial images for monitoring of highland Kimchi cabbage, Korean Journal of Soil Science and Fertilizer, 50(3): 162-178 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2017.50.3.162
  16. Lee, H. S., W. W. Seo, C. S. Woo, and K. S. Lee, 2019a. Derivation and evaluation of surface reflectance from UAV multispectral image for monitoring forest vegetation, Korean Journal of Remote Sensing, 35(6-2): 1149-1160 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2019.35.6.2.10
  17. Lee, K. D., H. Y. An, C. W. Park, K. H. So, S. I. Na, and S. Y. Jang, 2019b. Estimation of rice grain yield distribution using UAV imagery, Journal of the Korean Society of Agricultural Engineers, 61(4): 1-10 (in Korean with English abstract). https://doi.org/10.5389/KSAE.2019.61.4.001
  18. Lee, K. D., S. M. Kim, H. Y. An, C. W. Park, S. Y. Hong, K. H. So, and S. I. Na, 2020a. Yearly estimation of rice growth and bacterial leaf blight inoculation effect using UAV imagery, Journal of the Korean Society of Agricultural Engineers, 62(4): 75-86 (in Korean with English abstract). https://doi.org/10.5389/KSAE.2020.62.4.075
  19. Lee, K. D., S. I. Na, C. W. Park, S. Y. Hong, K. H. So, and H. Y. An, 2020b. Diurnal Change of Reflectance and Vegetation Index from UAV Image in Clear Day Condition, Korean Journal of Remote Sensing, 36(5-1): 735-747 (in Korean with English abstract). https://doi.org/10.7780/KJRS.2020.36.5.1.7
  20. Mamaghani, B. and C. Salvaggio, 2019. Multispectral sensor calibration and characterization for sUAS remote sensing, Sensors, 19(20): 4453. https://doi.org/10.3390/s19204453
  21. Na, S. I., C. W. Park, and K. D. Lee, 2016a. Application of highland kimchi cabbage status map for growth monitoring based on unmanned aerial vehicle, Korean Journal of Soil Science and Fertilizer, 49(5): 469-479 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2016.49.5.469
  22. Na, S. I., S. Y. Hong, C. W. Park, K. D. Kim, and K. D. Lee, 2016b. Estimation of highland kimchi cabbage growth using UAV NDVI (Normalized difference vegetation index) and agrometeorological factors, Korean Journal of Soil Science and Fertilizer, 49(5): 420-428 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2016.49.5.420
  23. Na, S. I., B. K. Min, C. W. Park, K. H. So, J. M. Park, and K. D. Lee, 2017a. Development of field scale model for estimating garlic growth based on UAV NDVI and meteorological factors, Korean Journal of Soil Science and Fertilizer, 50(5): 422-433 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2017.50.5.422
  24. Na, S. I., C. W. Park, K. H. So, J. M. Park, and K. D. Lee, 2017b. Monitoring onion growth using UAV NDVI (Normalized difference vegetation index) and meteorological factors, Korean Journal of Soil Science and Fertilizer, 50(4): 306-317 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2017.50.4.306
  25. Park, J. K. and J. H. Park, 2015. Crops classification using imagery of unmanned aerial vehicle (UAV), Journal of the Korean Society of Agricultural Engineers, 57(6): 91-97 (in Korean with English abstract). https://doi.org/10.5389/KSAE.2015.57.6.091
  26. Richards, J. A., 2013. Remote Sensing Digital Image Analysis, Springer, Berlin GER.
  27. Teal Group., 2012. Worldwide UAS market will total $89 billionin 10 years, http://tinyurl.com/l9hav8g, Accessed on Nov. 21, 2020.
  28. Tomas, J. R. and H. W. Gausman, 1977. Leat reflectance vs. leaf chlorophyll and carotenoid concentrations for eight crops 1, Agronomy Journal, 69(5): 799-802. https://doi.org/10.2134/agronj1977.00021962006900050017x
  29. Yun, H. S., S. H. Park, H. J. Kim, W. D. Lee, K. D. Lee, S. Y. Hong, and G. H. Jung, 2016. Use of unmanned aerial vehicle for multi-temporal monitoring of soybean vegetation fraction, Journal of Biosystems Engineering, 41(2): 126-137. https://doi.org/10.5307/JBE.2016.41.2.126