DOI QR코드

DOI QR Code

Multi-Tasking U-net Based Paprika Disease Diagnosis

Multi-Tasking U-net 기반 파프리카 병해충 진단

  • 김서정 (전북대학교 전자.정보공학부) ;
  • 김형석 (전북대학교 지능형로봇연구소)
  • Received : 2020.01.20
  • Accepted : 2020.03.04
  • Published : 2020.03.31

Abstract

In this study, a neural network method performing both Detection and Classification of diseases and insects in paprika is proposed with Multi-Tasking U-net. Paprika on farms does not have a wide variety of diseases in this study, only two classes such as powdery mildew and mite, which occur relatively frequently are made as the targets. Aiming to this, a U-net is used as a backbone network, and the last layers of the encoder and the decoder of the U-net are utilized for classification and segmentation, respectively. As the result, the encoder of the U-net is shared for both of detection and classification. The training data are composed of 680 normal leaves, 450 mite-damaged leaves, and 370 powdery mildews. The test data are 130 normal leaves, 100 mite-damaged leaves, and 90 powdery mildews. Its test results shows 89% of recognition accuracy.

본 연구에서는 Multi-Tasking U-net를 사용하여 영역 세분화 작업(Segmentation) 과 분류 작업(Classification) 이 동시에 수행되게 함으로써 파프리카 병과 충 진단을 수행하였다. 시설 농장의 파프리카에는 병의 종류가 다양하지 않다. 이 연구에서는 비교적 발생빈도가 높은 흰가루병과 응애에 의한 피해, 정상 잎 3개의 클래스에 대해서만 진단 할 수 있도록 하였다. 이를 위한 중추 모델로는 U-net을 사용하였다. 또, 이 모델의 Encoder와 Decoder의 최종 단을 활용하여 분류 작업과 영역 세분화 작업이 각 각 수행되게하여, U-net의 Encoder가 분류작업과 영역 세분화 작업에 공유되도록 하였다. 학습 데이터로는 정상 잎 680장, 응애에 의한 피해 잎 450장, 흰가루병 370장을 사용하였다. 테스트 데이터로는 정상 잎 130장, 응애에 의한 피해 잎 100장, 흰가루병 90장을 사용하였고, 이를 통한 테스트 결과로는 89%의 인식률을 얻었다.

Keywords

References

  1. 김서정, 이재수, 김형석, "딥러닝을 이용한 양파 밭의 잡초 검출 연구," 스마트미디어저널, 제7권, 제3호, 16-21쪽, 2018년 9월 https://doi.org/10.30693/SMJ.2018.7.3.16
  2. S.Bargoti, James Underwood, "Deep fruit detection in orchards," 2017 IEEE International Conference on Robotics and Automation(ICRA), Singapore, Singapore, 2017.
  3. K.Simonyan and A.Zisserman, "Very deep convolutional networks for large-scale image recognition," In ICLR, 2015.
  4. S. Ren, K. He, R. Girshick, and J. Sun, "Faster RCNN:Towards real-time object detection with region proposal networks," arXiv preprint, arXiv:1506.01497, 2015.
  5. O. Ronneberger, P. Fischer, T. Brox, "U-Net: Convolutional networks for biomedical image segmentation," Proc. MICCAI , pp. 234-241, 2015.
  6. Hariharan, B., Arbelaez, P., Girshick, R., Malik, "Hypercolumns for object segmentation and fine-grained localization," Proceeding CVPR, pp. 447-456, 2015.
  7. J. Long, E. Shelhamer, T. Darrell, "Fully convolutional networks for semantic segmentation," Proceeding CVPR, pp. 3431-3440, Apr. 2015.
  8. Jia, Y., Shelhamer, E., Donahue, J., Karayev, S., Long, J., Girshick, R., Guadarrama, S., Darrell, "Convolutional architecture for fast feature embedding," Proc. of ACMMM, pp. 675-678, 2014.
  9. K. He, X. Zhang, S. Ren, J. Sun, "Deep residual learning for image recognition," Proc. of CVPR, pp. 770-778, Jun. 2016.
  10. Milletari, F., Ahmadi, S., Kroll, C., Plate, A., Rozanski, V.E., Maiostre, J., Levin, J., Dietrich, O., Ertl-Wagner, B., Botzel, K., Navab, "N.: Hough-CNN: deep learning for segmentation of deep brain regions iMRI and ultrasound," CoRR abs/1601.07014, 2016.
  11. Seyedhosseini, M., Sajjadi, M., Tasdizen, "T.: Image segmentation with cascaded hierarchical models and logistic disjunctive normal networks," Proc. of ICCV, pp. 2168-2175 , 2013.
  12. Dong H., Yang G., Liu F., Mo Y., Guo Y. "Automatic Brain Tumor Detection and Segmentation Using U-Net Based Fully Convolutional Networks In: Valdes Hernandez M., Gonzalez-Castro V. (eds) Medical Image Understanding and Analysis," Communications in Computer and Information Science, vol 723. Springer, Cham, 2017.
  13. Drozdzal, M., Vorontsov, E., Chartrand, G., Kadoury, S., Pal, "The importance of skip connections in biomedical image segmentation," LABELS/DLMIA -2016, LNCS, vol. 10008, pp. 179-187, Springer, Cham, 2016.
  14. Simard, P.Y., Steinkraus, D., Platt, J.C.: Best practices for convolutional neural networks applied to visual document analysis. In: Proceedings of Seventh International Conference on Document Analysis and Recognition, pp. 958 -963. IEEE Computer Society (2003).
  15. Kamnitsas, K., Ledig, C., Newcombe, V.F.J., Simpson, J.P., Kane, A.D., Menon, D.K., Rueckert, D., Glocker, "Efficient multi-scale 3D CNN with fully connected CRF for accurate brain lesion segmentation," Med. Image Anal. 36, pp. 61-78, 2017. https://doi.org/10.1016/j.media.2016.10.004
  16. Milletari, F., Navab, N., Ahmadi, "V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation," arXiv, pp. 1-11, 2016.
  17. 서다솜, 오강한, 오일석, 유태웅, "딥러닝 설명을 위한 슈퍼픽셀 제외,포함 다중 스케일 접근법," 스마트미디어저널, 제8권, 제2호, 39-45쪽, 2019년 6월 https://doi.org/10.30693/smj.2019.8.2.39
  18. 박선, 김종원, "오픈 소스 기반의 딥러닝을 이용한 적조생물 이미지 분류," 스마트미디어저널, 제7권, 제2호, 34-39쪽, 2018년 6월 https://doi.org/10.30693/SMJ.2018.7.2.34