DOI QR코드

DOI QR Code

Application Method of Unmanned Aerial Vehicle for Crop Monitoring in Korea

국내 작황 모니터링을 위한 무인항공기 적용방안

  • Na, Sang-il (National Institute of Agricultural Sciences, Rural Development Administration) ;
  • Park, Chan-won (National Institute of Agricultural Sciences, Rural Development Administration) ;
  • So, Kyu-ho (National Institute of Agricultural Sciences, Rural Development Administration) ;
  • Ahn, Ho-yong (National Institute of Agricultural Sciences, Rural Development Administration) ;
  • Lee, Kyung-do (National Institute of Agricultural Sciences, Rural Development Administration)
  • 나상일 (농촌진흥청 국립농업과학원) ;
  • 박찬원 (농촌진흥청 국립농업과학원) ;
  • 소규호 (농촌진흥청 국립농업과학원) ;
  • 안호용 (농촌진흥청 국립농업과학원) ;
  • 이경도 (농촌진흥청 국립농업과학원)
  • Received : 2018.08.01
  • Accepted : 2018.10.10
  • Published : 2018.10.31

Abstract

Crop monitoring can provide useful information for farmers to establish farm management strategies suitable for optimum production of vegetables. But, traditional monitoring has used field measurements involving destructive sampling and laboratory analysis, which is costly and time consuming. Unmanned Aerial vehicle (UAV) could be effectively applied in a field of crop monitoring for estimation of cultivated area, growth parameters, growth disorder and yield, because it can acquire high-resolution images quickly and repeatedly. And lower flight altitude compared with satellite, UAV can obtain high quality images even in cloudy weather. This study examined the possibility of utilizing UAV in the field of crop monitoring and was to suggest the application method for production of crop status information from UAV.

작황 모니터링은 농민들에게 최적의 작물 생산을 위한 농작업 관리 전략을 수립하는데 유용한 정보를 제공할 수 있다. 그러나 시료 채취에 의한 분석 등에 한정된 기존의 현장 모니터링 방법은 많은 시간과 노동력이 필요하다. 무인항공기는 고해상도 이미지를 신속하고 정기적으로 취득할 수 있는 장점이 있기 때문에 재배 면적, 생육인자, 생육이상 및 생산량 추정 등과 같은 작황 모니터링 분야에 효과적으로 활용될 수 있다. 또한, 위성과 비교하여 비행 고도가 낮아 흐린 날씨에서도 높은 화질의 영상을 수집할 수 있다. 본 연구는 작황 모니터링 분야에서의 무인항공기 활용 가능성을 검토하고 무인항공기 기반의 작황 정보 생산을 위한 적용방안을 제시하고자 하였다.

Keywords

1. 서론

무인항공기(Unmanned Aerial Vehicle; UAV)는 사람이 탑승하지 않고 지상에서 원격조종(Remote control) 을 이용한 반자동(Semi-auto-piloted) 형식으로 운영하거나 사전 프로그램 된 경로에 따라 자동(Autopiloted)으로 운영되는 비행체를 의미하며, 넓은 범위에서는 비행체 뿐만 아니라 이를 제어하는 지상통제장비(Ground Control System; GCS)와 통신장비, 지원장비 등의 전체 시스템까지도 포함하고 있다. 일반적으로 드론(Drone)으로도 표현되고 있지만 드론의 어원이 ‘벌이 윙윙 거린다’라는 뜻의 영어단어에서 파생된 것으로 볼 때, 드론은 단순히 회전익 기체만을 의미하는 것으로 회전익 기체와 고정익 기체를 통칭할 경우에는 무인항공기 또는 UAV로 표기하는 것이 정확한 표현이라 할 수 있다. 또한, 최근에 많이 사용되고 있는 무인비행시스템 (Unmanned Aircraft System; UAS)은 UAV가 기존의 군사적 영역에서 민간 영역으로 사용성이 확장됨에 따라 단순한 이동체(Vehicle)가 아닌 안전성을 확보하는 항공기(Aircraft)임을 강조하는 용어로서 UAV와 같은 의미로 정의할 수 있다. 우리나라의 항공법상에서는 “사람이 탑승하지 아니하는 것으로 무인동력비행장치의 경우 연료의 중량을 제외한 자체중량이 150 kg 이하인 무인항공기 또는 무인회전익비행장치, 무인비행선의 경우 연료의 중량을 제외한 자체 중량이 180 kg 이하이고, 길이가 20미터 이하인 무인비행선”으로 규정되어 있다 (Kim et al., 2014).

무인항공기는 위성영상, 유인항공기 등과 비교하여 가격이 저렴하고, 운용이 용이하다. 국내에서는 이러한 장점을 바탕으로 다양한 분야에서 그 적용성이 빠르게 증가하고 있으며, 전통적인 위성영상 기반의 원격탐사 기술을 활용하였던 건설(Park et al., 2013), 지적(Lee et al., 2013), 국토모니터링(Kim et al., 2014), 해양(Jeong et al., 2014), 대기(Ahn et al., 2014), 수자원(Jeong and Jung, 2014), 농업(Park et al., 2015), 광물자원(Kim et al., 2016), 문화유적(Lee et al., 2016) 등의 분야에서는 그 경험을 바탕으로 각 분야별 무인항공기 연구 및 활용 현황 등을 정리하여 보고하고 있다. 그러나 활용 현황에 대한 연구 결과들은 대부분 각 분야별 무인항공기 활용 사례를 광범위한 범위에서 소개하는 수준으로 이를 참고하여 무인항공기를 작황 모니터링에 적용하기에는 매우 제한적이다. 또한, 농업분야에서의 무인항공기 적용은 작황 모니터링을 위한 관측 목적과 파종, 시비, 방제 등 실제 농작업을 취하는 임무 목적으로 나누어져 있어, 각각의 목적에 맞게 무인항공기를 적용하기 위해서는 많은 검토가 필요하다. 따라서 본 논문에서는 농촌진흥청 농업 과학원에서 구축한 작황 정보 사례를 바탕으로 무인항공기 적용을 위한 국내 작황 모니터링 유형별 검토 사항 및 구체적인 접근 방법을 제시하고자 한다.

2. 분광반사 특성 및 식생지수의 이해

무인항공기를 활용한 작황 모니터링은 기본적으로 원격탐사 원리를 기반으로 결과를 도출한다. 원격탐사란 전자기파를 감지하는 각종 센서를 이용하여 지표면, 대기 현상 등에 대하여 비접촉·비파괴적인 방법으로 필요한 정보를 얻어내는 과학기술이다(Hong et al., 2010). 지표면의 식생조건에 따른 작물의 반사 특성은 그 작물의 잎과 엽층 구성에 따른 울폐도, 생체량, 식재방법, 토양수분 및 지표면 토양과 피복형태에 따라서 크게 좌우되며, 농경지에 다양하게 분포되어 있는 식생조건은 작물의 반사특성에 반영되어 작물 고유의 분광반사특성과 식생지수를 나타낸다. 따라서 정확한 작황 모니터링을 위해서는 작물별 분광반사특성 및 무인항공기 영상에서 산출된 식생지수에 대한 이해가 선행되어야 한다.

1) 분광반사특성

작물에 대한 분광반사율은 Fig. 1과 같이 휴대용 분광복사계 등을 이용하여 현장에서 측정할 수 있다. 분광복사계를 이용한 현장 측정은 농업분야의 원격탐사가 발달하기 시작하던 초기부터 작물 군락의 분광반사특성과 바이오매스와의 관계를 규명하기 위하여 이용되어 왔으며, 이미 많은 연구자들에 의하여 다양한 작물의 분광반사특성이 규명되었다.

피1.JPG 이미지

Fig. 1. Measurement of spectral reflectance at the field.

Hong et al.(1998)은 일품벼를 대상으로 군락의 생육단계에 따른 분광반사특성을 규명하였으며(Fig. 2a), Park and Na(2005)는 콩, 담배, 수박, 파, 토란, 무, 고추, 참외 등 8가지의 밭작물을 대상으로 분광반사율을 조사하였다(Fig. 2b). 또한, Na et al.(2016c)은 보리와 밀의 5 품종을 대상으로 맥류의 시계열 분광반사율을 측정하고 도함수를 이용하여 각 품종에 따른 스펙트럼 기울기를 추정 하였다(Fig. 2c).

피2.JPG 이미지

Fig. 2. Spectral reflectance curves of crops.

그러나 Fig. 2와 같이 다양한 작물의 분광반사특성은 대부분 유사한 형태로 나타난다. 이는 녹색식물이 가지는 일반적인 특성으로 식생의 반사특성이기 보다는 식생이 가지고 있는 엽록소 고유의 반사특성이기 때문이다. 물론 엽록소의 활력도에 따라 파장대 별 반사 또는 흡수되는 양이 달라지기는 하지만 작물의 영양상태의 차이가 뚜렷하게 나타나지 않아 반사특성만을 이용하여 작황 모니터링을 하기에는 매우 어렵다.

2) 식생지수

분광반사곡선에서 일부 파장대를 취하여 산술적인 조합으로 만들어 지는 식생지수는 작황 모니터링에 유용하게 활용되고 있다. 작황 모니터링에 식생지수를 용할 경우, 각 필지별 물의 활력도를 정량화하여 수치로 표현함으로서 필지별 작황의 상대적인 비교가 가능해지고(Fig. 3), 작물 생육단계별 식생지수의 변화 패턴을 주기적으로 파악하여 다년간 축척하면 평년 및 전년도 대비 작황 판단에 유용하게 사용할 수 있다.

피3.JPG 이미지

Fig. 3. Comparison between RGB image and NDVI distribution.

식생지수가 갖추어야 할 조건은 다음과 같다(Huete et al., 1999). 첫째, 식생지수는 생·물리적 변수들에 최대한 반응하여야 하며, 수치에 대한 검정이 용이해야 한다. 둘째, 식생지수는 공간적·시간적으로 비교가 가능하도록 태양각도, 촬영 각도, 대기상태 등의 외부 효과를 정규 화하거나 모의(simulation)할 수 있어야 한다. 셋째, 식생 지수는 지형적 효과, 토양상태, 고사된 식물이나 가지, 줄기 등의 영향으로 인한 배경효과를 정규화 할 수 있어야 한다. 넷째, 식생지수의 검정과 효율성 향상을 위하여 생체량, 엽면적지수(Leaf Area Index; LAI) 및 광합성 흡수량 등 측정이 가능한 작물의 생·물리적 인자들과 연관되어야 한다. 이와 같은 조건 때문에 식생지수는 작물의 생육 특성을 반영하는 지표로써 식생의 활력도와 생산량 추정에 매우 중요한 인자로 사용되고 있으며 많은 연구자들에 의해 파장대 간의 비, 차, 선형조합 등 다양한 방법으로 제안되어 이용되고 있다 (Table 1).

Table 1. Various remote sensing indices related to vegetation cover and chlorophyll content (Hunt et al., 2012)

테1.JPG 이미지테11.JPG 이미지

a Rλ the reflectance at wavelength λ ; Rn, Rr, Rg, and Rb are the reflectances for NIR, red, green, and blue bands, respectively.

현재까지 제안되고 있는 식생지수는 약 50여종 이상이 있으나 무인항공기 도입 직후에는 주로 일반 카메라를 이용하여 촬영된 관계로 가시광선(RGB) 기반의 식생지수를 사용하였다. 그러나 최근에는 무인항공기에 탑재 가능한 근적외선(NIR) 및 적색경계(Red-edge) 센서가 개발됨으로서 보다 다양한 식생지수의 적용이 가능해졌다. 이에 따라 Na et al.(2016c)은 동계작물의 작황 모니터링을 위하여 무인항공기 기반의 최적 식생지수를 검토한 결과, Red-NIR 및 Vis 조합에 의한 식생지수가 Vis-NIR 조합의 식생지수와 비교하여 맥류 생육인자의 변화 경향을 잘 반영하는 것으로 나타났으며, 식생지수와 육인자는 지수식의 관계가 성립된다고 보고였다. 또한, Lee et al.(2017)도 벼를 대상으로 최적 식생지수를 선정한 결과, 출수기 이전에는 NDVI가 생육인자와 가장 상관성이 높은 반면에 출수기 이후에는 RVI, NDVI, gNDVI, CI-G 등의 식생지수가 높은 상관관계를 나타낸다고 보고하였다. 이와 같이 정밀한 작황 모니터링을 위해서는 다양한 식생지수와 대상 작물의 생육인자별 상관관계에 대한 검토가 선행되어야 한다.

3. 작황 모니터링 유형별 무인항공기 적용방안

작황이란 농작물의 생육 상황을 나타내는 것으로 농작물의 생산이 잘되었는지 못되었는지의 상황 또는 생산량을 평가할 때 사용한다. 작황에 영향을 미치는 요인은 재배면적, 단수, 생산량, 생육, 품질 등을 비롯하여 작물의 수량을 결정하는 기상, 물, 토양, 양분, 병충해 및 농업재해 등이 포함될 수 있다. 따라서 작황 모니터링은 좁은 범위에서 작물의 생산량만을 대상으로 하지만 넓은 범위에서는 농업환경과 관련된 모든 요인을 대상으로 할 수 있다.

1) 작물별 재배면적 산정

작물별 재배면적 변화에 대한 정보는 작물 수급 조절, 가격 예측, 농가 소득 보전을 위한 정책 수립의 판단 자료로 중요하게 사용될 수 있다. 따라서 재배면적의 산정은 작황 모니터링에 있어 가장 기본적이고 중요한 단계라 할 수 있다. 특히, 원격탐사를 이용하면 재배면적 변화와 함께 재배지의 공간분포도 파악이 가능하기 때문에 원격탐사 활용분야 중 가장 활발한 연구가 진행되는 분야에 해당한다(Kim et al., 2016). 위성영상을 이용한 전통적인 재배면적 산정은 감독분류, 무감독분류 등 영상의 분광정보를 기반으로 화소(pixel) 기반의 분류기법을 이용하여 작물구분도를 작성하고 각 작물에 따른 면적을 합산하는 방법이 주를 이루었다(Franklin and Wulder, 2002; Antonarakis et al., 2008; Simonneaux et al., 2008). 그러나 무인항공기가 도입된 이후에는 객체 (object) 기반의 영상분류 기법과 함께 머신러닝과 같은 고차원의 분류기법이 사용되는 추세이며, 최근에는 딥러닝 기술을 적용한 다양한 연구들이 진행되고 있다.

무인항공기를 이용하여 작물별 재배면적을 산정하는 방법은 크게 작물분류(crop classification)와 작물추출 (crop extraction)로 나눌 수 있다. 여기서 작물분류는 기존의 위성영상을 기반으로 토지이용도 및 토지피복도 (Land Use & Land Cover; LULC)를 작성하기 위하여 고안된 분류기법을 농경지에 적용하여 촬영 범위 내 모든 작물에게 자동으로 클래스를 지정하는 방법이다. 이 방법은 다양한 작물에 대한 재배면적을 짧은 시간에 파악할 수 있다는 장점이 있지만 사전에 분류 항목을 설정하기 위하여 대상지역 내 재배되는 모든 작물에 대한 사전 정보가 필요하다는 한계가 있다. 또한, 무인항공기 촬영 영상은 1 m 이내의 고해상도영상으로 필지 내 토양과 멀칭을 위한 비닐 등의 피복상태 잡음으로 반영되어 위성영상과 비교하여 정확도가 감소하는 단점이 있다. 반면에 작물추출은 기존의 촬영된 영상을 기반으로 작성된 작물별 판독 라이브러리를 참고하여 육안판 독에 의한 디지타이징(digitizing) 방법 또는 작물 생육단계별 식생지수 최고치(peak)가 나타나는 시기의 차이를 이용한 시계열 분석 방법 등을 이용하여 특정 작물의 재배 필지만을 추출하는 방법이다. 이 방법은 판독자의 주관적 판단이 일부 포함되기는 하지만 지적도, 스마트팜 맵(Smart farm map) 등 참조 자료를 이용할 경우 비교적 높은 정확도로 재배면적을 산정할 수 있다는 장점이 있다.

Fig. 4는 제주도 서귀포시 대정읍 신도리에 위치한 마늘 재배단지를 대상으로 촬영된 무인항공기 영상을 이용하여 육안판독(Fig. 4a) 및 현장 전수조사(Fig. 4b)에 의한 마늘 재배필지 추출 결과이다. 육안판독에 의해 마늘 재배면적은 60.46 ha로 산정되었으며, 전수조사 결과인 65.31 ha와 비교하여 92.6%의 정확도를 보였다. 이와 같이 무인항공기를 이용하여 촬영된 영상은 실제 농경지의 상황을 그대로 반영하여 육안판독만으로도 상당히 높은 정확도의 재배면적 추출이 가능하다. 따라서 100~200 ha 규모의 농경지가 대상일 경우 분류기법에 의한 재배면적 산정보다는 육안판독에 의한 작물추출에 의한 방법이 보다 정확하고 효율적인 방법으로 판단할 수 있다.

피4.JPG 이미지

Fig. 4. Garlic area extracted using digitizing and field survey.

농촌진흥청 국립농업과학원에서는 고랭지배추 주산지를 대상으로 무인항공기를 이용하여 주기적으로 촬영한 영상과 현장 표본조사 자료를 바탕으로 RGB 영상 지도, 식생지수 분포 지도, 작물 분포 지도, 정식/수확시기 분포 지도, 생육인자 분포 지도 및 생육이상 분포 지도 등을 작성하여 농촌경제연구원 농업관측센터, 농협 및 한국농수산식품유통공사 등 관계기관에 제공하고 있다(Na et al., 2016a). Fig. 5는 강릉 안반덕 고랭지 배추 재배단지 내 작물 분포 지도이다. 재배단지 내 배추, 감자 및 양배추의 재배면적 산정은 1주일 주기로 촬영된 영상을 이용하여 육안판독과 시계열 분석 방법을 혼용하였으며, 이를 이용하여 연차별 재배면적 변동을 파악할 수 있다. 또한, 작물 추출 결과는 고랭지배추 작황 분석 시 배추 고유의 식생인자를 추출하기 위한 마스크맵(mask map)으로 활용이 가능하다.

피5.JPG 이미지

Fig. 5. Crop distribution map of Anbandeok in 2016 (Na et al., 2016a).

Fig. 6은 감자, 양배추 및 배추 재배필지를 대상으로 무인항공기를 이용하여 동일시기에 촬영된 영상의 일부이다. 그림을 살펴보면, 감자의 경우 배추와 비교하여 비교적 이른 시기에 정식이 이루어고 정식 패턴에서 일정 간격의 선형을 확인할 수 있다. 반면에 양배의 경우에는 정식은 감자와 유사한 시기에 이루어지지만 배추와 같이 필지 전반에 고르게 정식되는 패턴을 보이며, 감자 및 배추와 비교하여 가장 어두운 색상으로 나타난다. 따라서 재배단지 내 필지별 식생지수의 시계열 변화를 이용하여 1차적으로 배추를 추출하고, 2차적으로 육안판독을 통해 감자와 양배추를 추출할 수 있다.

피6.JPG 이미지

Fig. 6. Various crops photo using UAV.

이와 같이 무인항공기 영상 기반의 들녘단위(100~ 200 ha) 재배면적 산정에는 작물분류보다는 작물추출 방법이 효과적이다. 그러나 작물분류와 비교하여 판독자의 주관적인 판단이 결과에 반영될 여지가 있고 무인 항공기의 촬영 범위를 고려해보면 시군단위 이상의 작물구분도 작성에는 한계가 있다. 이를 해결하기 위하여 Na et al.(2017c)은 위성영상과 무인항공기 영상을 융합한 계층분류 기법을 제안하였다. 계층분류 기법은 분류 관심 항목과 다른 항목과의 혼재를 줄이기 위하여 관심 계층을 우선적으로 구분하고, 각 계층의 세분류를 수행하는 방법이다(Fig. 7).

피7.JPG 이미지

Fig. 7. Flowchart of hierarchical classification (Na et al., 2017c).

계층분류 기법의 특징은 시군단위 위성영상을 대상으로 기존의 화소단위 분류가 아닌 스마트 팜 맵 기반의 필지단위 분류를 수행하고 작물 세분류를 위한 훈련 자료 작성에 들녘단위 무인항공기 영상을 사용하는데 있다. 즉 광역 촬영이 가능한 위성영상의 장점과 촬영 범위는 작지만 공간해상도가 높아 육안판독이 가능한 무인 항공기의 장점을 모두 고려한 방법으로 해당 시군센터에서 조사한 재배면적 자료와 비교한 결과 모든 작물의 재배면적 산정 오차가 ±5% 이내로 나타났다(Table 2).

Table 2. The statistics analysis of accuracy between area using RS and area using field survey (Na et al., 2017c)

테2.JPG 이미지

* WCB : Whole crop barley

작물 재배면적 산정과 관련하여 공간 규모에 따른 활용 플랫폼 및 분석 방법을 정리하면 Table 3과 같다. 이와 같이 정확한 재배면적 모니터링을 위해서는 대상 지역의 공간 규모(필지, 들녘, 읍면동 및 시군단위 등)에 따라 플랫폼과 분석 방법을 선택적으로 적용하여야 한다.

Table 3. The required resolution, platform and method to estimation of crop area for spatial scale

테3.JPG 이미지

* EMD : Eup-Myeon-Don, SGG : Si-Gun-Gu

2) 생육인자 및 생육상황 추정/h2>

무인항공기를 이용한 생육인자 및 생육상황을 추정하는 단계는 작황 모니터링 관점에서 가장 본질적인 목표에 해당한다. 즉, 작물의 생육인자를 직접적으로 추정함으로써 현재의 생육상황을 파악하고 이를 이용하여 작황을 판단할 수 있다. 작물의 생장량을 정량적으로 예측하기 위해서는 광합성이 이루어지는 엽면적의 예측이 우선되어야 하며(Terry et al., 1983), 엽면적과 밀접한 관계를 가지는 초고 및 엽장 등을 파악하면 작물의 생장 및 단수 예측에 사용이 가능하기 때문이다. Na et al.(2016d, 2017a, 2017b)은 작물별 생육기간 동안 무인항공기 기반의 시계열 식생지수 및 기상요인을 이용하여 고랭지배추 및 양파, 마늘을 대상으로 생육인자별 관계식을 도출 하고(Table 4), 각 인자별 분포도를 작성하였다(Fig. 8). 그결과, 고랭지배추의 생육추정 모형은 NDVIUAV와 강우량 및 적산온도가 설명변수로 채택되어 모두 양의 관계가 있는 것으로 나타났으며, 양파의 경우에는 생육인자 중 초고와 생체중은 NDVIUAV와 강우량이 채택된 반면에 엽수는 기상요인은 누락되고 NDVIUAV만 채택되었다. 또한, 마늘의 경우에는 한지형과 난지형에서 최고/최저 및 평균온도, 강우량, 토양수분, 상대습도, 일사량 등 생육인자에 영향을 미치는 기상요인이 생육인자 별로 매우 다양하게 나타났다.

Table 4. Regression equation of crop growth parameters extracted from NDVIUAV and meteorological factors

테4.JPG 이미지

P.H.: Plant Height (cm), L.L.: Leaf Length (cm), L.N.: Outer Leaf Number, F.W.: Fresh Weight (g), T: Temperature, R.H.: Relative Humidity, R.F.: Rainfall, Rad.: Radiation, S.M.: Soil Moisture.

피8.JPG 이미지

Fig. 8. Garlic growth parameter map of Hapcheon on May 11, 2017 (Na et al., 2017a).

Fig. 9는 모형의 추정값과 실측값을 비교한 산점도이다. 그림을 살펴보면, 모든 작물에서 생육 초기에는 모형의 추정값이 실측값보다 과대평가되는 경향이 나타났지만 전반적으로 1:1선에 근접한 결과를 보이고 있어 모형이 작물 생육인자의 변화 특성을 잘 반영하는 것을 확인할 수 있다.

피9.JPG 이미지

Fig. 9. Cross-validation scatter plots of various crops growth model

무인항공기 기반의 식생지수를 이용하여 작물별 생육인자를 추정하기 위해서는 식생지수와 생육인자간의 적절한 회귀분석이 이루어져야 한다(Na et al., 2016b). 생육인자 추정과 관련하여 주로 사용되는 회귀함수는 선형 회귀함수(Linear regression function)이며, 생육인자와 같이 자료의 특성상 음수(-)값을 가지지 않는 특성을 고려하여 원점을 지나는 선형 회귀함수(Linear regression through the origin)도 많이 사용한다. 또한, 생물체 전체와 어느 한 기관, 또는 부분 사이의 생장 관계로 정의되는 상대생장(allometry) 연구 분야에서는 멱함수(Power function)로 정의된 비선형 회귀함수(Nonlinear regression function)가 사용되고 있으며, 작물 성장모형에서는 로그함수(Logistic function)로 정의된 비선형 회귀함수도 많이 사용되고 있다. Na et al.(2016b)은 IRG를 대상으로 무인항공기 기반 식생지수와 현장에서 조사한 생육인자 자료를 바탕으로 위에서 언급한 회귀함수를 상호비교한 결과, 멱함수 모형에서 IRG 생육인자를 87% 이상 설명이 가능하다고 보고하였으며, 이를 이용하여 무인항공기 기반 IRG의 생육단계별 초고분포도를 작성하였다(Fig. 10).

피10.JPG 이미지

Fig. 10. Spatial distribution of plant height in IRG fields in 2016 (Na et al., 2016b).

이와 같이 무인항공기를 활용하여 작물별 생육인자를 추정하고 지도 형태로 제작하면 촬영 범위 내 생육 인자의 필지별 공간분포를 시각적으로 확인할 수 있고, 각 필지별 작황의 상대적인 비교도 가능하다. 또한 이를 시계열로 작성하여 데이터베이스화 한다면 필지단위 작황의 변화 추이 파악에도 이용될 수 있다. 이를 위해서는 1회성이 아닌 주기적인 작황 모니터링이 필수적이며, 이러한 원인 등으로 인하여 작황 모니터링에 무인항공기의 활용성이 높아지고 있다.

3) 생육상황 판단

무인항공기를 이용하여 주기적인 작황 모니터링이 가능해짐에 따라 작물별 생육단계에 따른 식생지수의 변화 특성 파악이 용이해졌다. 또한, 특정 작물을 대상으로 다년간 축적된 식생지수의 변화 패턴을 분석하면 작황 판단의 기준을 설정할 수 있다. 즉, 기준년도를 대상으로 시계열로 작성된 식생지수 또는 생육인자들의 변화를 필지별로 정리하고 이를 과거 자료와 대조하여 기준치를 벗어난 필지를 선별하면 생육이상이 나타난 필지를 추정해 낼 수 있다. 농촌진흥청 국립농업과학원에서는 전술한 방법을 이용하여 고랭지배추 주산단지를 대상으로 무인항공기 기반의 주기적인 작황 모니터링을 수행하고 생육이상이 발생할 경우, 생육이상 지점 및 면적 등을 파악하여 관계기관에 제공하고 있다. Fig. 11은 농촌경제연구원 농업관측센터의 농업관측(2017년 8월호)에 수록된 생육이상 분도이다. 그러나 생육이상 분포도는 관측 시점에서 생육이상을 모니터링하고 이상발생 지점에 대한 공간정보만을 제공할 뿐 구체적인 원인 및 대응방안에 대한 정보 제공에는 한계가 있다. 생육이상의 원인 파악을 위해서는 생육이상 징후와 작물, 기상, 토양 및 병해충과 같은 농업환경 전반에 대한 인과관계를 규명해야 하기 때문이다(Na et al., 2016a).

피11.JPG 이미지

Fig. 11. Growth disorder map of Maebong Mt. in 2017.

고랭지배추의 생육이상은 발생 시점과 범위를 기준으로 Table 5와 같이 생육 초기에 필지 부분적으로 이상이 발생하여 생육 후기까지 지속되는 유형(A), 생육 초기에는 작황이 양호하다가 생육 후기에 부분적으로 이상이 발생하는 유형(B), 생육 후기에 필지 전체적으로 이상이 발생하는 유형(C) 등으로 분류할 수 있다. 현장 조사자료와 전문가 의견을 바탕으로 원인을 파악해 본 결과, A 유형은 대부분 토양의 문제로 밝혀졌으며, B 유형은 병충해, C 유형은 기상의 문제로 나타났다. 이와 같이 작물별 생육이상 및 원인 등을 유형별로 정리하면 간접적으로 생육이상에 대한 원인 파악도 가능하다.

Table 5. Growth disorder type of highland Kimchi cabbage in Anbandeok

테5.JPG 이미지

그러나 일반적으로 생육이상은 여러 가지 유형이 복합적으로 나타나기 때문에 원인을 하나로 규정하기는 어렵다. 따라서 생육이상에 효율적 대응을 위해서는 무인항공기를 이용한 지속적인 모니터링을 통해 생육이상 원인과 징후에 대한 유형별 정보를 라이브러리 형태로 수집하는 것이 중요하다. 또한, 정확한 생육이상 분포도가 작성되면 생육이상 상습 피해지역의 분석 및 대응 방안 마련을 위한 의사결정 지원에도 활용이 가능하며, 농가 및 관계자에게 작물별 맞춤형 자료로 제공할 수 있을 것으로 기대된다.

4) 생산량 예측

농업 관측에서의 생산량 예측은 수급 조절, 가격 예측, 농가 소득 보전을 위한 정책 수립 등과 관련하여 중요한 의미를 갖는다. 특히 작황 조건에 따라 재배 가능한 작물이 결정되며, 기후, 토양, 파종, 비료 및 농약살포, 물관리, 수확, 건조, 보관 등의 모든 농작업의 일정이 달라지고 그에 따른 경제적 부담이 증감되는 등 경제 전반에 미치는 파급 효과가 매우 크다. 따라서 생산량 예측은 작황 모니터링의 최종 목표라 할 수 있다. 생산량 예측은 크게 두 단계로 나누어진다. 먼저 대상작물의 육 초기에 재배면적을 추정하고, 생육 중기 이후 추정된 단수(단위면적당 수량)를 곱하여 최종 생산량을 예측한다. 따라서 생산량 예측의 정확도는 생육 초기에는 재배면적의 정확도에 영향을 받지만 생육 중기 이후에는 단수의 정확도에 큰 영향을 받는다. 즉 재배면적과 단수의 정확도를 모두 확보하여야 안정적인 생산량 예측이 가능하다.

일반적으로 위성영상을 사용한 단수 추정은 식생지수와 기상요소를 이용한 경험모형, 원격탐사 자료의 엽면적지수와 작물 생육 모형을 연합한 방법, 광합성 유효복 사율(fraction of Photosynthetically Active Radiation, fPAR) 을 이용한 방법 등이 이용되고 있다(Na et al., 2014). 무인항공기를 이용한 생산량 예측도 이와 유사한 방법을 사용하지만 위성영상과 비교하여 상대적으로 적은 분광밴드를 가지기 때문에 무인항공기 기반의 엽면적지수를 정확하게 추출해 내는 것에는 한계가 있다. 또한, 광합성 유효복사율(fPAR)을 이용한 방법은 작물의 광합성을 기반으로 생체량(biomass)을 추출하여 수량을 추정하는 방법으로 중요한 입력정보인 fPAR를 위성영상으로부터 획득한다. 따라서 무인항공기를 이용한 단수 추정은 주로 경험적 통계모형을 사용한다. 식생지수와 기상요소를 이용한 경험모형은 작물별 생육시기 동안 단수와의 상관성이 높은 시기의 식생지수 및 기상요소와 단수와의 관계식을 이용한 방법이다. 경험적 통계 모형으로 추정한 작황과 실제 작황을 비교해보면, 연차변이는 유사하나 단수에 있어 오차가 발생한다(Na et al., 2012). 이는 통계모형의 적용 단계에서 실제 생육과정에서 발생되는 병충해, 기상재해 등 돌발현상이 고려되지 못한 결과로 모형에 의해 추정된 단수는 주어진 조건하에서의 잠재수량에 가깝기 때문이다. 또한, 경험적 통계모형은 이론적 근거가 약하고 광범위한 지역에 바로 적용할 경우 정확도가 떨어지는 단점이 있다. 따라서 저해상도의 광역 촬영이 가능한 위성영상보다는 상대적으로 면적은 작지만 고해상도 촬영이 가능한 무인항공기에 적합한 방법이라 할 수 있다.

Na et al.(2017d)은 무인항공기를 활용한 중부지역 IRG의 사료가치 평가 기법 개발을 위하여 무인항공기 기반 식생지수를 이용한 생초수량 및 조단백질 평가 모형을 개발하고 들녘단위 생초수량 분포도를 작성하였다. 그러나 조단백질 모형의 설명력은 67.8%인 반면에 생초수량 모형의 설명력은 47.9%로 수량 추정 정확도의 한계를 나타내었다.

무인항공기를 이용한 생산량 예측에서 정확도를 높이기 위해서는 관측치의 확보가 필수적이다. 그러나 현장조사를 통해 직접 단수를 측정하기에는 많은 어려움이 따른다. 시군단위 이상의 광역지역이 대상인 경우에는 시군단위 통계자료를 이용할 수 있지만 무인항공기 촬영면적과 같이 들녘단위에 대한 생산량 자료는 전무한 실정이다. 또한, 생육인자의 경우 작물이 성장함에 따라 생육단계별로 수집할 수 있지만 생산량 자료는 수확기에 이르러서야 수집이 가능하. 일반적으로 생산량 예측 모형 구축을 위해 필요한 데이터 수집 최소기 간은 10년으로 7년간의 데이터를 이용하여 모형을 구축하고 3년치 데이터는 구축된 모형을 검보정하데 사용한다. 즉 무인항공기를 이용한 생산량 예측은 충분한 데이터 수집이 이루어지고 모형의 안정성이 확보되어야 가능하다.

이를 해결하는 방법으로는 공간적인 관측치의 확보와 생육인자를 이용하여 간접적으로 수량을 추정하는 방법이 있다. 시간적으로 관측치의 확보가 불가능한 경우 다수의 시험필지를 선정하고 각 필지별 단수를 직접 조사하는 방법으로 공간적 관측치를 확보한 후 모형을 구축하는 방안을 검토하여야 한다. 또한 무인항공기에 의한 수량 예측 모형의 정확도가 낮은 경우에는 작물별 초고, 엽장, 엽수 등 생육인자와 수량과의 상관관계를 규명한 선행연구 결과를 참고하여 간접적으로 수량을 예측하는 방법도 대안이 될 수 있다.

피12.JPG 이미지

Fig. 12. Spatial distribution of feed values in IRG plots (Na et al., 2017d).

4. 결론 및 제언

최근 무인항공기 산업은 매우 빠른 속도로 발전하고 있으며, 관련 기술의 발전은 다양한 분야로의 파급 효과가 매우 크다. 물론 공간해상도가 높고 재방문 주기도 빠른 외국 상업용 위성들도 증가하고 있으나 높은 가격과 몬순기후의 영향을 많이 받는 우리나라의 지리적 특성상 상업용 위성에 비해 저렴한 가격으로 영상 취득이 가능하며 사용자가 원하는 시간과 공간에서 고해상도 항공 영상을 획득할 수 있는 장점으로 무인항공기의 활용은 더욱 증가될 전망이다.

작황 모니터링에 무인항공기를 적용하기 위해서는 촬영시기 및 해상도, 관측주기의 선정 등 무인항공기의 운영과 관련된 사항들도 신중히 검토해야 한다. 특정 지역을 대상으로 작물의 종류를 구분하거나 생체량과 엽록소 함량 등 생·물리적 특성 정보를 추출하는데 무인항공기 촬영 시기는 매우 중요하기 때문이다. 또한, 작물의 생육특성 파악을 위한 무인항공기 촬영의 최적기를 선정하기 위해서는 각 작물의 생육주기에 대한 정확한 정보가 무엇보다 필요하다. 일반적으로 식생지수를 이용하여 작물 분류를 할 경우 생육 초기의 영상자료를 사용하는 것이 유리하고, 작물 생체량 변화 모니터링 등작황 관측 목적인 경우는 작물이 최대 생육을 유지하는 시기의 영상자료를 사용하는 것이 유리하다. 따라서 작황 모니터링에 무인항공기를 적용하기 위해서는 다년간의 현장조사와 함께 작물별 식생지수가 최대치(Peak)에 도달하는 시기를 파악하는 것이 선행되어야 한다.

전술한 바와 같이 무인항공기를 이용한 작황 모니터링은 기존 위성영상을 이용한 방법과 비교하여 영상 수급의 한계를 극복하고 정밀도 높은 고해상도 영상을 통한 필지 단위의 분석이 가능한 장점이 있다. 그러나 현재 기술 수준으로는 배터리 용량의 제약과 바람의 영향을 크게 받아 광역 촬영이 불가능한 한계가 존재한다. 따라서 무항공기 플랫폼 및 모터 등의 경량화와 배터리 기술의 발전을 통해 비행시간을 확보하려는 노력이 필요하다. 또한 기상요인과 같은 기초 자료의 고공간화에 관련된 추가적인 연구도 지속되어야 한다 작황에 대한 기상요인의 영향을 정확히 파악하기 위해서는 현재 작물이 재배되고 있는 지역의 기상관측 자료의 대표성을 확보하고 정밀도 높은 기상분포도를 작성하여 작황에 가장 영향을 주는 기상요인을 선별하는 과정이 중요하기 때문이다.

마지막으로 재배면적, 생육인자, 생육이상 등의 모니터링 결과를 개별적으로 활용하기보다는 다양한 모니터링 결과를 동시에 활용하는 것이 보다 정확한 작황 판단을 위한 방법으로 생각되며, 이를 위해서는 안정적인 정보 제공을 위한 공간정보 기반의 시스템 구축 연구가 추가적으로 필요할 것으로 판단된다. 양파, 마늘 및 고추 등과 같이 전국에 걸쳐 주산지가 분포되어 있는 작물의 경우에는 재배기간 동안 각 주산지 단위로 재배현황에 대한 공간정보가 연차적으로 생산된다. 따라서 생산된 다량의 공간정보들을 축적하고, 축적된 정보의 필지별, 시기별 비교 및 제공 서비스를 효율적으로 하기 위한 GIS 기반의 공간정보 기술을 도입하여 확대해 나아가야 할 것으로 판단된다.

사사

본 논문은 농촌진흥청 공동연구사업(과제번호: PJ011838)의 지원을 받았으며, 이에 감사드립니다.

References

  1. Ahn, K.H., Y.H. Park, H.R. En, H.K. Lee, K.H. Lee, I.K. Hwang, and J.Y. Choi, 2014. Atmospheric aerosol measurement using UAV, Proc. of the 57th Meeting of Korean Society for Atmospheric Environment, Pyeongchang, Oct. 30-31, pp. 149.
  2. Antonarakis, A., K.S. Richards, and J. Brasington, 2008. Object-based land cover classification using airborne LiDAR, Remote Sensing of Environment, 112(6): 2988-2998. https://doi.org/10.1016/j.rse.2008.02.004
  3. Broge, N.H. and E. Leblanc, 2000. Comparing predictive power and stability of broadband and hyperspectral vegetation indices for estimation of green leaf area index and canopy chlorophyll density, Remote Sensing of Environment, 76(2): 156-172. https://doi.org/10.1016/S0034-4257(00)00197-8
  4. Dash, J. and P.J. Curran, 2004. The MERIS terrestrial chlorophyll index, International Journal of Remote Sensing, 25(23): 5403-5413. https://doi.org/10.1080/0143116042000274015
  5. Daughtry, C.S.T., C.L. Walthall, M.S. Kim, E. Brown de Colstoun, and J.E. McMurtrey, 2000. Estimating corn leaf chlorophyll concentration for leaf and canopy reflectance, Remote Sensing of Environment, 74(2): 229-239. https://doi.org/10.1016/S0034-4257(00)00113-9
  6. Eitel, J.U.H., D.S. Long, P.E. Gessler, and A.M.S. Smith, 2007. Using in situ measurements to evaluate the new RapidEyeTM satellite series for prediction of wheat nitrogen status, International Journal of Remote Sensing, 28(18): 4183-4190. https://doi.org/10.1080/01431160701422213
  7. Eitel, J.U.H., D.S. Long, P.E. Gessler, and E.R. Hunt, 2008. Combined spectral index to improve ground-based estimates of nitrogen status in dryland wheat, Agronomy Journal, 100(6): 1694-1702. https://doi.org/10.2134/agronj2007.0362
  8. Franklin S. and M. Wulder, 2002. Remote sensing methods in medium spatial resolution satellite data land cover classification of large areas, Progress in Physical Geography, 26(2): 173-205. https://doi.org/10.1191/0309133302pp332ra
  9. Gitelson, A.A. and M.N. Merzlyak, 1994. Quantitative estimation of chlorophyll using reflectance spectra: experiments with autumn chestnut and maple leaves, Journal of Photochemistry and Photobiology B: Biology, 22(3): 247-252. https://doi.org/10.1016/1011-1344(93)06963-4
  10. Gitelson, A.A., Y.J. Kaufman, and M.N. Merzlyak, 1996. Use of a green channel in remote sensing of global vegetation from EOS-MODIS, Remote Sensing of Environment, 58(3): 289-298. https://doi.org/10.1016/S0034-4257(96)00072-7
  11. Gitelson, A.A., Y.J. Kaufman, R. Stark, and D. Rundquist, 2002. Novel algorithms for remote estimation of vegetation fraction, Remote Sensing of Environment, 80(1): 76-87. https://doi.org/10.1016/S0034-4257(01)00289-9
  12. Gitelson, A.A., Y. Gritz, and M.N. Merzlyak, 2003. Relationships between leaf chlorophyll content and spectral reflectance algorithms for non-destructive chlorophyll assessment in higher plants, Journal of Plant Physiology, 160(3): 271-282. https://doi.org/10.1078/0176-1617-00887
  13. Haboudane, D., J.R. Miller, N. Tremblay, P.J. Zarco-Tejada, and L. Dextraze, 2002. Integrated narrow-band vegetation indices for prediction of crop chlorophyll content for application to precision agriculture, Remote Sensing of Environment, 81(2-3): 416-426. https://doi.org/10.1016/S0034-4257(02)00018-4
  14. Haboudane, D., J.R. Miller, E. Pattey, P.J. Zarco-Tejada, and I.B. Strachan, 2004. Hyperspectral vegetation indices and novel algorithms for predicting green LAI of crop canopies: modeling and validation in the context of precision agriculture, Remote Sensing of Environment, 90(3): 337-352. https://doi.org/10.1016/j.rse.2003.12.013
  15. Haboudane, D., N. Tremblay, J.R. Miller, and P. Vigneault, 2008. Remote estimation of crop chlorophyll content using spectral indices derived from hyperspectral data, IEEE Transactions on Geoscience and Remote Sensing, 46(2): 423-437. https://doi.org/10.1109/TGRS.2007.904836
  16. Hong, S.Y., Y.H. Kim, E.Y. Choe, Y.S. Zhang, Y.K. Sonn, C.W. Park, K.H. Jung, B.K. Hyun, S.K. Ha, and K.C. Song, 2010. Geographic information system and remote sensing in soil science, Korean Journal of Soil Science and Fertilizer, 43(5): 684-695 (in Korean with English abstract).
  17. Hong, S.Y., J.T. Lee, S.K. Rim, W.K. Jung, and I.S. Jo, 1998. Estimation of paddy rice growth increment by using spectral reflectance signature, Korean Journal of Remote Sensing, 14(1): 83-94 (in Korean with English abstract). https://doi.org/10.7780/kjrs.1998.14.1.83
  18. Huete, A.R., 1988. A soil-adjusted vegetation index (SAVI), Remote Sensing of Environment, 25(3): 295-309. https://doi.org/10.1016/0034-4257(88)90106-X
  19. Huete, A., C. Justice, and W. Leeuwen, 1999. MODIS vegetation index (MOD13) algorithm theoretical basis document version 3, NASA Goddard Space Flight Center, Greenbelt, Maryland, USA.
  20. Huete, A., K. Didan, T. Miura, E.P. Rodriguez, X. Gao, and L.G. Ferreira, 2002. Overview of the radiometric and biophysical performance of the MODIS vegetation indices, Remote Sensing of Environment, 83(1-2): 195-213. https://doi.org/10.1016/S0034-4257(02)00096-2
  21. Hunt, E.R., C.S.T. Daughtry, J.U.H. Eitel, and D.S. Long, 2011. Remote sensing leaf chlorophyll content using a visible band index, Agronomy Journal, 103(4): 1090-1099. https://doi.org/10.2134/agronj2010.0395
  22. Hunt, E.R., P.C. Doraiswamy, J.E. McMurtrey, C.S.T. Daughtry, E.M. Perry, and B. Akhmedov, 2012. A visible band index for remote sensing leaf chlorophyll content at the canopy scale, International Journal of Applied Earth Observation and Geoinformation, 21: 103-112.
  23. Haboudane, D., J.R. Miller, E. Pattey, P.J. Zarco-Tejada, and I.B. Strachan, 2004. Hyperspectral vegetation indices and novel algorithms for predicting green LAI of crop canopies: modeling and validation in the context of precision agriculture, Remote Sensing of Environment, 90(3): 337-352. https://doi.org/10.1016/j.rse.2003.12.013
  24. Jeong, A.C. and K.S. Jung, 2014. Research trend of UAV for flood monitoring, Proc. of 2014 Korean Society of Civil Engineers, Daegu, Oct. 22-24, pp. 907-908.
  25. Jeong, J.H., K.A. Choi, and I.P. Lee, 2014. Application plans through case analysis of maritime surveillance systems using UAVs, Proc. of 2014 Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, Seoul, Apr. 24-25, pp. 205-209 (in Korean with English abstract).
  26. Jordan, C.F., 1969. Derivation of leaf area index from quality of light on the forest floor, Ecology, 50(4): 663-666. https://doi.org/10.2307/1936256
  27. Kim, D.I., Y.S. Song, G.H. Kim, and C.W. Kim, 2014. A Study on the application of UAV for Korean land monitoring, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 32(1): 29-38 (in Korean with English abstract). https://doi.org/10.7848/ksgpc.2014.32.1.29
  28. Kim, S.Y., J.H. Yu, S.M. Koh, G.S. Park, and J.H. Shin, 2016. Extraction of the mine information using Unmanned Aerial Vehicle, Proc. of the Annual Joint Conference of the Petrological Society of Korea and the Mineralogical Society of Korea, Busan, May 26-27. pp. 120.
  29. Kim, Y.S., K.D. Lee, S.I. Na, S.Y. Hong, N.W. Park, and H.Y. Yoo, 2016. MODIS data-based crop classification using selective hierarchical classification, Korean Journal of Remote Sensing, 32(3): 235-244 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2016.32.3.3
  30. Lee, G.S., Y.W. Choi, M.H. Lee, S.G. Kim, and G.S. Choi, 2016. Reconnaissance surveying for cultural assets using Unmanned Aerial Vehicle, Journal of the Korean Cadastre Information Association, 18(3): 25-34 (in Korean with English abstract).
  31. Lee, I.S., M.K. Lee, J.H. Kang, and J.O. Lee, 2013. Application of ultra-light UAV in cadastre, Proc. of 2013 Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, Busan, Apr. 25-26, pp. 181-183 (in Korean with English abstract).
  32. Lee, K.D., C.W. Park, K.H. So, and S.I. Na, 2017. Selection of optimal vegetation indices and regression model for estimation of rice growth using UAV aerial images, Korean Journal of Soil Science and Fertilizer, 50(5): 409-421 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2017.50.5.409
  33. Louhaichi, M., M.N. Borman, and D.E. Johnson, 2001. Spatially located platform and aerial photography for documentation of grazing impacts on wheat, Geocarto International, 16(1): 65-70. https://doi.org/10.1080/10106040108542184
  34. Na, S.I., J.H. Park, and J.K. Park, 2012. Development of Korean Paddy Rice Yield Prediction Model (KRPM) using meteorological element and MODIS NDVI, Journal of the Korean Society of Agricultural Engineers, 54(3): 141-148 (in Korean with English abstract). https://doi.org/10.5389/KSAE.2012.54.3.141
  35. Na, S.I., S.Y. Hong, Y.H. Kim, and K.D. Lee, 2014. Estimation of corn and soybean yields based on MODIS data and CASA model in Iowa and Illinois, USA, Korean Journal of Soil Science and Fertilizer, 47(2): 92-99 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2014.47.2.092
  36. Na, S.I., C.W. Park, and K.D. Lee, 2016a. Application of highland kimchi cabbage status map for growth monitoring based on unmanned aerial vehicle, Korean Journal of Soil Science and Fertilizer, 49(5): 469-479 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2016.49.5.469
  37. Na, S.I., C.W. Park, Y.J. Kim, and K.D. Lee, 2016b. Mapping the spatial distribution of IRG growth based on UAV, Korean Journal of Soil Science and Fertilizer, 49(5): 495-502 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2016.49.5.495
  38. Na, S.I., C.W. Park, Y.K. Cheong, C.S. Kang, I.B. Choi, and K.D. Lee, 2016c. Selection of optimal vegetation indices for estimation of barley & wheat growth based on remote sensing - An application of unmanned aerial vehicle and field investigation data, Korean Journal of Remote Sensing, 32(5): 483-497 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2016.32.5.7
  39. Na, S.I., S.Y. Hong, C.W. Park, K.D. Kim, and K.D. Lee, 2016d. Estimation of highland kimchi cabbage growth using UAV NDVI and agro-meteorological factors, Korean Journal of Soil Science and Fertilizer, 49(5): 420-428 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2016.49.5.420
  40. Na, S.I., B.K. Min, C.W. Park, K.H. So, J.M. Park, and K.D. Lee, 2017a. Development of field scale model for estimating garlic growth based on UAV NDVI and meteorological factors, Korean Journal of Soil Science and Fertilizer, 50(5): 422-433 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2017.50.5.422
  41. Na, S.I., C.W. Park, K.H. So, J.M. Park, and K.D. Lee, 2017b. Monitoring onion growth using UAV NDVI and meteorological factors, Korean Journal of Soil Science and Fertilizer, 50(4): 306-317 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2017.50.4.306
  42. Na, S.I., C.W. Park, K.H. So, J.M. Park, and K.D. Lee, 2017c. Satellite imagery based winter crop classification mapping using hierarchical classification, Korean Journal of Remote Sensing, 33(5-2): 677-687 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2017.33.5.2.7
  43. Na, S.I., Y.J. Kim, C.W. Park, K.H. So, J.M. Park, and K.D. Lee, 2017d. Evaluation of feed value of IRG in middle region using UAV, Korean Journal of Soil Science and Fertilizer, 50(5): 391-400 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2017.50.5.391
  44. Park, J.H. and S.I. Na, 2005. Estimating the vegetation indices for field crops using a spectral reflectance technique, Journal of Agriculture Science Chungbuk National University, 22(1): 101-105 (in Korean with English abstract).
  45. Park, J.K., A. Das, and J.H. Park, 2015. Application trend of unmanned aerial vehicle (UAV) image in agricultural sector: Review and proposal, Korean Journal of Agricultural Science, 42(3): 269-276 (in Korean with English abstract). https://doi.org/10.7744/cnujas.2015.42.3.269
  46. Park, M.H., S.G. Kim, and S.Y. Choi, 2013. The Study about building method of geospatial informations at construction sites by Unmanned Aircraft System (UAS), Journal of the Korean Cadastre Information Association, 15(1): 145-156 (in Korean with English abstract).
  47. Pearson, R.L. and L.D. Miller, 1972. Remote mapping of standing crop biomass for estimation of the productivity of the shortgrass prairie, Proc. of the Eighth International Symposium on Remote Sensing of Environment, Ann Arbor, MI, Oct. 2-6, pp. 1357-1381.
  48. Qi, J., A. Chehbouni, A.R. Huete, Y.H. Kerr, and S. Sorooshian, 1994. A modified soil adjusted vegetation index, Remote Sensing Environment, 48(2): 119-126. https://doi.org/10.1016/0034-4257(94)90134-1
  49. Rondeaux, G., M. Steven, and F. Baret, 1996. Optimization of soil-adjusted vegetation indices, Remote Sensing of Environment, 55(2): 95-107. https://doi.org/10.1016/0034-4257(95)00186-7
  50. Rouse, J.W., R.H. Haas, J.A. Schell, and D.W. Deering, 1974. Monitoring vegetation systems in the great plains with ERTS, Proc. of Third Earth Resources Technology Satellite-1 Symposium, Washington, D.C., pp. 309-317.
  51. Simonneaux, V., B. Duchemin, D. Helson, S. Er-Raki, A. Olioso, and A. Chehbouni, 2008. The use of high-resolution image time series for crop classification and evapotranspiration estimate over an irrigated area in central morocco, International Journal of Remote Sensing, 29(1): 95-116. https://doi.org/10.1080/01431160701250390
  52. Terry, N., L.J. Waldron, and S.E. Taylor, 1983. The growth and functioning of leaves I, Leaf growth and the development of function, Cambridge University Press, Cambridge, UK.
  53. Tucker, C.J., 1979. Red and photographic infrared linear combinations for monitoring vegetation, Remote Sensing of Environment, 8(2): 127-150. https://doi.org/10.1016/0034-4257(79)90013-0
  54. Vincini, M., E. Frazzi, and P. D'Alessio, 2008. A broad-band leaf chlorophyll index at the canopy scale, Precision Agriculture, 9(5): 303-319. https://doi.org/10.1007/s11119-008-9075-z

Cited by

  1. Developing a p-NDVI Map for Highland Kimchi Cabbage Using Spectral Information from UAVs and a Field Spectral Radiometer vol.10, pp.11, 2018, https://doi.org/10.3390/agronomy10111798
  2. Potential of Hybrid CNN-RF Model for Early Crop Mapping with Limited Input Data vol.13, pp.9, 2018, https://doi.org/10.3390/rs13091629
  3. UAV, a Farm Map, and Machine Learning Technology Convergence Classification Method of a Corn Cultivation Area vol.11, pp.8, 2018, https://doi.org/10.3390/agronomy11081554
  4. Two-stage Deep Learning Model with LSTM-based Autoencoder and CNN for Crop Classification Using Multi-temporal Remote Sensing Images vol.37, pp.4, 2021, https://doi.org/10.7780/kjrs.2021.37.4.4