Determination of 3D Object Coordinates from Overlapping Omni-directional Images Acquired by a Mobile Mapping System

모바일매핑시스템으로 취득한 중첩 전방위 영상으로부터 3차원 객체좌표의 결정

  • 오태완 (서울시립대학교 대학원 공간정보공학과) ;
  • 이임평 (서울시립대학교 도시과학대학 공간정보공학과)
  • Received : 2010.03.31
  • Accepted : 2010.05.04
  • Published : 2010.06.30

Abstract

This research aims to develop a method to determine the 3D coordinates of an object point from overlapping omni-directional images acquired by a ground mobile mapping system and assess their accuracies. In the proposed method, we first define an individual coordinate system on each sensor and the object space and determine the geometric relationships between the systems. Based on these systems and their relationships, we derive a straight line of the corresponding object point candidates for a point of an omni-directional image, and determine the 3D coordinates of the object point by intersecting a pair of straight lines derived from a pair of matched points. We have compared the object coordinates determined through the proposed method with those measured by GPS and a total station for the accuracy assessment and analysis. According to the experimental results, with the appropriate length of baseline and mutual positions between cameras and objects, we can determine the relative coordinates of the object point with the accuracy of several centimeters. The accuracy of the absolute coordinates is ranged from several centimeters to 1 m due to systematic errors. In the future, we plan to improve the accuracy of absolute coordinates by determining more precisely the relationship between the camera and GPS/INS coordinates and performing the calibration of the omni-directional camera

본 연구는 지상모바일매핑시스템을 이용하여 취득한 중첩 전방위 영상을 이용하여 객체점의 3차원 좌표를 결정하는 방법을 제시하고 정확도를 분석하고자 한다. 제안된 방법은 먼저 개별 센서 및 대상공간에 좌표계를 정의하고 좌표계간의 관계를 설정한다. 이에 기반하여 전방위 영상의 한점에 투영되는 객체점이 위치한 직선을 유도하고, 공액점으로부터 결정되는 한쌍의 직선을 교차하여 객체점의 3차원 좌표를 결정한다. 제안된 방법을 통해 결정된 객체점의 좌표를 GPS와 토탈스테이션으로 측정한 검사점 좌표와 비교하여 정확도를 검증하였다. 본 연구의 결과 기선의 길이 및 카메라/대상객체 사이의 상호 위치를 적절하게 설정한다면 객체점의 상대좌표를 수 cm 내의 정확도로 결정할 수 있었다. 절대좌표의 정확도는 정오차로 인해 수 cm에서 1 m 정도를 보였다. 향후 카메라 좌표계와 GPS/INS 좌표계 사이의 관계를 보다 정확하게 설정하고 전방위 카메라의 보정을 통해 절대 좌표의 정확도를 개선할 계획이다.

Keywords

References

  1. 김진환, 안재균, 김창수 (2008), 전방위 카메라를 이용한 객체 추적 시스템, 하계종합학술대회 논문집, 대한전자공학회, pp. 781-782.
  2. 전재춘 (2008), IMU/GPS와 카메라 좌표계간의 물리적 관계를 위한 수학적 모델링, 한국측량학회지, 한국측량학회, 제 26권, 제 6호, pp. 611-616.
  3. 정재승 (2006), 모바일매핑시스템에서의 이동객체 추적을 위한 연구, 한국GIS학회지, 한국GIS학회, 제14권, 제2호, pp. 235-244.
  4. 최경아, 오소정, 이임평, 신진수 (2007), 모바일 매핑 시스템 개발, 대한토목학회 정기학술대회 논문집, 대한토목학회, pp. 4468-4471.
  5. 황진상 (2009), 차량 모바일맵핑시스템의 현황과 활용분야, 대한측량협회, http://www.cylod.com/board/kboard.php board=full_text&act=view&no=5&page=1&search_mode =&search_word=&cid=
  6. Applanix (2009), POSLV specifications, Applanix Inc., http://applanix.com/products/land/pos-lv.html
  7. Beauchemin, S. S. and Bajcsy, R. (2000), Modeling and removing radial and tangential distortions in spherical lenses, The 10th International Workshop on Theoretical Foundations of Computer Vision: Multi-Image Analysis, Lecture Notes in Computer Science, vol. 2032, pp. 1-21.
  8. Bossler, J. D., and Toth, C. (1995), Feature Positioning accuracy in mobile mapping: Results obtained by the GPSVANTM, International Archives of Photogrammetry and Remote Sensing, Vol. 31, Part B4, pp. 139-142
  9. Choi, K. and Lee, I. Hong, J. Oh, T. and Shin, S. (2009), Developing a UAV-based Rapid Mapping System for Emergency Response, Proc. SPIE, SPIE, Orlando, Vol. 7332 (on CD-ROM).
  10. Eisenbeiss, H. (2004). A mini unmanned aerial vehicle (UAV): system overview and image acquisition, International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. 36, 5/W1, (on CD-ROM).
  11. Fiala, M. and Basu, A. (2002), Robot navigation using panoramic landmark tracking, The 15th International Conference on Vision Interface, Calgary, pp. 117-124.
  12. Jeroen, D. H., Thomas, B. S. and Fredrik, G. (2008), Relative pose calibration of a spherical camera and an IMU, The 7th IEEE/ACM International Symposium on Mixed and Augmented Reality, IEEE Computer Society, pp. 21-24.
  13. Mochizuki, Y. and Imiya, A. (2008), Featureless Visual Navigation using Optical Flow of Omnidirectional Image Sequence, International Conference on Simulation, Modeling and Programming for Autonomous Robots (SIMPAR 2008), Venice, pp. 307-318.
  14. Point Grey Research (2008), Ladybug specifications, Point Grey Research Inc., http://www.ptgrey.com/products/spherical.asp
  15. Point Grey Research (2008), Overview of the Ladybug image stitching process, Point Grey Research Inc., http://www.ptgrey.com/support/downloads/documents/TAN20 08010_Overview_Ladybug_Image_Stitching.pdf
  16. Silpa-Anan. C. and Hartley, R. (2005), Visual localization and loopback detection with a high resolution omnidirectional camera, The 6th Workshop on Omnidirectional Vision (OMNIVIS 2005), Beijing.
  17. Yata, T., Thorpe, C., and Dellaert F. (2002), Static environment recognition using omni-camera from a moving vehicle. Technical report CMU-RI-TR-02-12, Robotics Institute, Carnegie Mellon University, Pittsburgh.
  18. Wikipedia (2009), Omnidirectional camera, The free Encyclopedia, http://en.wikipedia.org/wiki/Omnidirectional_ camera