Mobile QR Code QR CODE : Journal of the Korean Society of Civil Engineers

  1. 한국건설기술연구원 연구전략기획본부 연구위원, 공학박사 (Korea Institute of Civil Engineering and Building Technology․jaemin@kict.re.kr)
  2. 종신회원․교신저자․인하대학교 공간정보공학과 조교수, 공학박사 (Corresponding Author․Inha University․schong@inha.ac.kr)
  3. 종신회원․한국건설기술연구원 미래스마트건설연구본부 선임연구위원, 공학박사 (Korea Institute of Civil Engineering and Building Technology․hyushin@kict.re.kr)



달 탐사, 영구음영지역, 저조도 영상강화 기법, 특징점 추출 및 정합 기법
Lunar exploration, Permanently shadowed region, Low light image enhancement method, Feature extraction and matching method

1. 서 론

달 표면에 막대한 양의 희귀자원이 발견되면서 세계 주요 우주국들은 달기지 건설과 미래자원확보를 위한 중장기 계획을 수립하여 달 탐사 사업을 추진 중이다(Hong and Shin, 2018; Ju, 2018; Kim, 2017). 특히 달 궤도선 관측으로 달 영구음영지역(permanently shadowed region)에는 얼음 형태의 물이 존재하는 것이 밝혀졌다. 물은 유인 탐사에 필요한 식수와 산소, 그리고 로켓 발사를 위한 연료생산 등에 활용될 수 있어, 향후 장기적인 유인 탐사를 가능케 하는 필수 자원으로 간주되고 있다. 따라서 최근 달 탐사 사업은 영구음영지역의 물 존재를 입증하기 위한 달 착륙선과 로버 중심의 현장 탐사를 위해 계획 및 추진되고 있다(ISECG, 2020). 중국은 이미 2019년 달 탐사선을 달 남극 에이트겐 분지(Aitken basin)에 안착시켜 토양과 수분 함량 분석 등의 달 탐사 임무를 수행 중이며(Wu et al., 2020), 미국은 아르테미스 계획(Artemis Program)을 발표하여 2023년 영구음역지역의 로버 탐사, 2024년 유인 탐사에 이어, 2028년 달기지 건설을 목표로 준비 중이다(NASA, 2020).

달의 자전축의 경사는 태양광의 방향에 수직에 가깝다. 달 극 지역에서 관측되는 태양은 낮은 고도를 가지므로, 인근 크레이터(crater) 중심부에는 태양광이 전혀 비치지 않는 영구음영지역이 생성된다. 영구음영지역 내부는 영하 200 °C 수준의 극저온으로 진공상태에서 기화되지 못한 수분이 얼음 형태로 존재하는 것으로 예상하고 있다(Lucey et al., 2021). 또한, 달 표면은 자갈, 바위, 언덕 등의 단순한 지형지물과 어두운 색조의 현무암 재질의 토양으로 구성되어 있어, 지구에 비해 단조로운 색상의 지형을 가진다(Ahn and Lee, 2008). 따라서, 달 영구음역지역 탐사를 위해 개발되는 로버는 저조도 환경에서 제한된 에너지를 이용하여 시추 작업과 토양 표본 채취 등 다양한 임무를 수행해야 하므로, 로버 위치 인식과 주행 지원을 위한 3차원 지형정보 구축이 필요하다(Fong, 2021; Hong et al., 2019; Jamal et al., 2020; Pedersen et al., 2008). 하지만 행성 탐사용 로버는 가용 에너지 범위와 컴퓨팅 성능 등을 고려하여 라이다와 같은 액티브 센서보다 전력 소모가 적은 스테레오 카메라를 주로 탑재한다(Hong et al., 2021; Hong et al., 2022; Jamal et al., 2020). 2023년 발사예정인 미국의 탐사 로버 VIPER (Volatiles Investigating Polar Exploration Rover)도 스테레오 카메라와 조명을 이용하여 영구음영지역 탐사 임무를 수행할 예정이다(Fong, 2021).

달 극지역 크레이터의 내부에 있는 영구음영지역은 태양광이 직접 비치지는 않지만, 크레이터 상단 벽면에서 반사되는 태양광의 영향으로 인해, 낮지만 일정 수준의 저조도 환경을 가지고 있는 것으로 알려져 있다(Mazarico et al., 2011). 일반적으로 낮은 조도 환경에서 촬영된 카메라 영상은 가시성(visibility)과 대비(contrast)가 낮고 잡음(noise)이 많아 지형정보 구축에 한계가 있을 것으로 예상되나, 저조도 영상강화 기법을 적용하면 별도의 조명을 사용하지 않고도 지형정보 구축에 활용할 수 있는 수준의 영상을 얻을 수 있을 것으로 판단된다(Lee et al., 2020). 스테레오 카메라는 로버의 원격조정을 위해 사용되며 특징점 검출 및 정합 기법과 함께 주행 거리 측정, 파노라마 영상 생성, 3차원 지도 구축 등에 사용된다(Hong and Shin, 2020). 현재 미국을 포함한 우주 선진국들은 달 탐사 로버가 영구음영지역에서 안정적인 임무를 수행할 수 있도록. 달 지형 및 조도 환경을 모사한 실험 환경에서 탐사기술을 개발하고 있다(NASA, 2017).

이에 본 연구에서는 달 영구음영지역의 지형과 조도 환경을 모사할 수 있는 실내 실험 환경을 구축하였고, 저조도 영상강화 기법 적용을 통한 시인성 강화 효과와 영상 특징점 추출 및 정합 기법의 성능 향상을 분석하였다. 실험 결과는 향후 달 영구음영지역에서 로버 중심의 탐사기술 개발을 위한 기초 자료로 활용하고자 한다.

2. 연구 방법 및 내용

달 영구음영지역에서 저조도 영상강화 기법에 의한 로버 영상의 시인성 개선과 특징점 추출 및 정합 성능 기법의 개선 효과를 분석하기 위한 연구 흐름은 Fig. 1과 같다. 먼저 달 영구음영지역의 지형과 저조도 환경을 모사할 수 있는 실내 실험실을 구축하였고, 로버 탑재 스테레오 카메라를 이용하여 저조도 지형영상을 확보하였다. 두 번째 단계로, 낮은 조도 환경에서 취득한 지형영상의 밝기값과 색 복원을 위해 저조도 영상강화 기법을 이용하였다. 저조도 강화 효과를 정량적, 정성적으로 분석하기 위해 영상 품질 지수를 산출하고 육안 분석을 수행하였다. 세 번째 단계에서는 특징점 검출 및 정합 기법들을 시인성이 크게 개선된 저조도 강화 영상에 적용하였다. 저조도 영상과 강화 영상의 특징점 추출 및 정합점 개수와 정밀도를 상호 비교 분석하여 영상강화 기법에 의한 성능 향상을 평가하였다.

Fig. 1. Research Flow
../../Resources/KSCE/Ksce.2022.42.5.0741/fig1.png

2.1 달 영구음역지역 모의 환경 구축

달 영구음영지역을 모사하는 실내 실험실은 달 모의 지형과 조명시설로 구성된다. 먼저 달 지형을 모사하기 위해 현무암 재질의 어두운 미세 입자로 이루어진 한국형 인공 월면토(KLS-1)를 이용하여(Ryu et al., 2018), 지반, 크레이터, 둔덕을 조성하였고, 지반 위에는 바위, 자갈 등을 인위적으로 배치하였다. 또한, 조도 조절이 가능한 LED 조명 설비를 천장에 설치하여 달 영구음영지역의 조도환경을 모사하고자 하였다. 더불어, 천장과 바닥에 무광 흑색 페인트를 도포 하였고 외부의 빛을 차단하여 암실 형태로 구축하였다(Fig. 2(a)) 달 모사 지형영상을 취득하기 위해 로버에 탑재된 스테레오 카메라를 이용하였다(Fig. 2(b)). Table 1은 로버 탑재 카메라 사양과 저조도 환경에서 설정된 카메라의 세부 정보를 보여준다. 카메라의 노출시간(exposure time)과 이득값(gain value)은 자동 산출되는 최적값을 사용하였고, 감마값(gamma value)과 블랙라벨(black level)은 각각 0.7과 0으로 설정하였다. Figs. 2(c) and 2(d)는 낮 환경과 저조도 환경에서 촬영한 지형영상을 보여준다. 달 영구음영지역 내부는 미개척 지역으로 정확한 조도 환경은 알 수 없으나, 원격탐사와 시뮬레이션을 통해 평균 3 lux 수준의 조도를 가지는 것으로 예측된다(Mazarico et al., 2011). 본 실험에서는 저조도 영상강화 기법의 적용 효과를 엄밀하게 평가하기 위해 조도 환경을 0.98 lux로 설정하였다.

Fig. 2. Emulated Lunar Terrain and Rover: (a) Adjustable LED Lamp, (b) Stereo-Camera Mounted Rover in the Test Bed (c) Day Light Image, (d) Low Light Image Under 0.98 lux
../../Resources/KSCE/Ksce.2022.42.5.0741/fig2.png
Table 1. Specification and Setting Values of a Camera System Mounted on the Rover

Camera Specification

(Blackfly S)

Sensor Type

Sony IMX429, CMOS

Channel

R/G/B

Pixel Resolution (H⨉V)

1936 × 1464

Pixel Size (H⨉V) (㎛)

4.5 × 4.5

Camera

Setting under Low Light Condition (0.98 lux)

Exposure Time (㎲)

49,991

Gain (dB)

17.9

Black level

0

Gamma

0.7

2.2 저조도 영상강화 기법 및 품질 평가지수

달 영구음영지역의 낮은 조도 환경에서 로버의 카메라 영상은 적은 광자수와 낮은 신호 대 잡음비(signal-to-noise ratio)로 인하여 가시성과 대비가 낮고, 많은 잡음을 포함한다. 실내 실험실에서 취득한 저조도 영상의 시인성 강화를 위해 CLAHE (Contrast Limited Adaptive Histogram Equalization), Dehaze, RetinexNet, GLADNet을 사용하였다. 저조도 영상 개선을 위한 기초적인 기법은 HE (Histogram Equalization)로 관측 영상의 밝기값 분포를 균등하게 재분배하여 영상의 대비를 개선한다. 하지만 영상 전체에 평활화를 적용하면 시인성 개선에 불필요한 밝은 영역까지 처리되는 문제가 발생하므로, 전체 영상을 작은 블록으로 구분하여 HE를 적용하고 대비 제한 기법을 사용하여 경계 부분의 잡음을 감소시키는 CLAHE (Contrast Limited Adaptive Histogram Equalization) 기법이 제안되었다(Pizer et al., 1990). Dehaze는 저조도 영상을 안개 영상으로 간주한다. 저조도 영상을 반전시키면 안개가 포함된 영상의 히스토그램과 유사하므로, 안개 제거 기법을 적용한 후 다시 반전시킴으로써 개선된 영상을 생성한다(Park et al., 2014). 최근에는 딥러닝(deep learning) 기반의 저조도 영상강화 기법이 영상복원에 뛰어난 성능을 보여주고 있다. 이중 RetinexNet은 저조도 영상을 조명(illumination)과 반사(reflectance) 성분으로 구분하는 Retinex 이론에 근거한 딥러닝 기법이다(Wei et al., 2018). 입력 영상의 저조도 조명성분으로부터 일반 조명성분을 생성하고 반사 성분의 잡음을 제거한 후, 일반 조명성분과 잡음이 제거된 반사 성분을 다시 결합함으로써 저조도 영상을 개선한다. GLADNet은 전체 영상의 조도 추정단계와 영상 상세 재구성단계로 구성된 신경망이다(Wang et al., 2018). RetinexNet과 유사하게 저조도 영상으로부터 일반적이고 전역적인 조도 성분을 추정하나, 추정과정으로부터 손실된 영상의 상세 정보를 다시 보완함으로써 저조도 영상을 개선한다.

본 연구에서는 시인성이 개선된 저조도 영상을 정량적으로 평가하기 위해 PSNR (Peak Signal-to-Noise Ratio), SSIM (Structural Similarity Index Map), Delta-E 지수들을 사용하였다. 가장 보편적인 영상 품질 평가지수는 MSE (Mean Squared Error)로 기준 영상과 평가 영상 간 화소값 차이를 평균한 제곱근 오차를 산출한다. PSNR은 MSE의 수치적인 오차를 이용하여 기준 영상 대비 화질에 대한 손실 정보를 평가한다. PSNR은 손실이 적은 양질의 영상일수록 높은 수치를 가진다. 무손실 영상은 MSE가 0이므로 정의되지 않는다. SSIM은 영상의 왜곡에 대한 인간의 시각적 화질 차이와 유사도를 측정하기 위해 고안된 지표로, 기준 및 평가 영상 간 차이를 휘도(Luminance), 대비(Contrast), 구조(Structure)인 측면에서 평가한다(Wang et al., 2003). SSIM은 1에 가까울수록 두 영상 간 유사성이 높고, 0에 가까울수록 유사성이 낮은 것으로 해석한다. Delta-E는 평가 영상의 색상을 평가하지는 지수이다(Zang et al., 1997). 평가 영상의 RGB 색상을 국제 규격의 표준화된 색상으로 변환하고 기준 영상과의 차이를 이용하여 영상의 품질을 평가한다. Delta-E 값은 클수록 두 색상 간 차이가 큰 것을 의미하며, 1 이하 값은 구별이 어려운 동일 색상, 3과 5 사이의 값은 유사한 색상, 6 이상의 값은 명백히 다른 색상으로 간주한다.

2.3 영상 정합 기법 및 평가

저조도 영상강화 기법이 적용된 지형영상은 시인성이 개선되어 특징점 추출 및 정합 기법의 성능이 향상될 것으로 예상된다. 본 연구에서는 SIFT (Scale-Invariant Feature Transform), SURF (Speed Up Robust Features), ORB (Oriented FAST and Rotated BRIEF), AKAZE (Accelerated KAZE) 기법들을 이용하였다. SIFT는 입력된 영상을 단계적으로 축소하여 크기와 선명도가 다른 영상을 생성하고, 가우시안 연산자 차이(Difference of Gaussian)를 이용하여 영상 스케일에 불변하는 특징점을 검출한다(Lowe, 2004). SURF는 연산 비용을 감소시키기 위해 크기 조절이 가능한 필터와 적분영상을 이용하여 특징점과 기술자를 생성하는 기법이다(Bay et al., 2008). 다양한 영상 스케일과 고정된 필터를 사용하는 SIFT와는 달리, SURF는 고정된 영상 스케일의 크기 조절이 가능한 필터를 사용한다는 특징이 있다. 연산량이 높은 SIFT와 SURF의 단점을 개선하기 위해 개발된 ORB는 FAST 코너 검출 기법을 통해 추출된 특징점들의 방향 성분을 계산하고 BRIEF (Binary Robust Independent Elementary Features) 이진 기술자를 이용한다(Rublee et al., 2011). AKAZE는 FED (Fast Explicit Diffusion)를 사용하여 비선형 스케일 공간을 생성하고 특징점을 추출한다(Alcantarilla et al., 2013). 로버 탑재 스테레오 카메라 영상으로부터 추출된 특징점들의 정합점을 검출하기 위해 FLANN (Fast Library for Approximate Nearest Neighbors)을 이용하였다. FLANN은 ANN (Approximate Nearest Neighbor)을 이용하여 정합점 들을 찾아주는 기법으로, 근사화된 거리를 이용하여 정합점들을 빠르게 찾을 수 있다(Muja and Lowe, 2009).

특징점 추출 및 정합 기법들의 성능평가를 위해 특징점 개수, 정상 정합점 개수, 정합 정밀도를 산출하여 비교 분석하였다. 달 영구음영지역의 어둡고 단조로운 지형영상으로부터 정합된 특징점들은 다수의 오정합점들을 포함할 수 있다. 따라서 호모그래피(Homography) 모델과 RANSAC (RANdom SAmple Consensus) 기법을 이용하여 접합점들로부터 오정합점들을 제거하였다. 정합 정밀도는 두 영상으로부터 검출된 정합점 중 오정합점과 정상 정합점의 비율을 계산함으로써 산출하였다.

3. 실험 결과 및 분석

본 연구에서는 영구음영지역을 모사한 실내 실험실에서 취득한 지형영상을 대상으로 저조도 영상강화 기법(CLAHE, Dehaze, RetinexNet, GLADNet)에 의한 시인성 개선 효과와 특징점 검출 및 정합 기법(SIFT, SURF, ORB, AKAZE)의 성능 향상을 분석하였다. 저조도 영상강화 기법 중, 전통적인 기법인 Dehaze의 박스 필터 크기는 8x8로, 영상 정규화 변수는 0.0001로 설정하였다. CLAHE 경우 영상을 나누는 블록 크기를 8x8로, 노이즈 최소화를 위한 대비 한계를 20으로 설정하였다. 딥러닝 기법인 RetinexNet과 GLADNet의 학습을 위해서는 달 탐사 지역의 일반조도 영상과 저조도 영상으로 구성된 훈련 자료가 필요하다. 하지만 달 영구음영지역은 아직 미개척 지역으로 달착륙선과 탐사 로버로부터 취득된 현장 영상은 존재하지 않는다. 따라서 기학습된 모델을 적용하여 저조도 영상강화 효과를 분석하였다. 특징점 추출 및 정합 기법들의 성능평가를 위해 특징점 개수, 정상 정합점 개수, 정합 정밀도를 산출하였다. 두 영상 간 오정합점들을 제거하기 위한 RANSAC 경계값과 반복 횟수는 각각 1.0과 10,000으로 설정하였다. 특징점 추출 기법 중 ORB는 특징점 추출 개수를 조절할 수 있다. 조도가 낮은 어두운 영상에서도 충분한 개수의 특징점을 추출할 수 있도록 초기 설정값인 500개를 100,000개로 변경하였다.

3.1 저조도 영상강화 기법 적용 및 영상 품질 지수 분석

Fig. 3Table 2는 저조도 영상 강화기법의 적용 결과와 영상 품질 지수를 보여준다. 저조도 영상 강화기법은 0.98 lux에서 촬영된 지형영상(Fig. 2(d))을 대상으로 적용하였고, 일반조도 조건에서 촬영된 영상(Fig. 2(c))을 기준으로 영상 품질 지수를 산출하였다. 먼저 육안 분석을 위해 전체 지형영상과 돌을 확대한 부분 영상을 이용하였다. 낮은 조도 조건에서 촬영된 지형영상은 어둡고 대비가 낮아 영상 내 지표면과 지형 객체(돌, 자갈) 위치는 판별할 수 있지만, 개별 객체의 형태와 색상을 명확히 인식할 수 없었다. 하지만, 저조도 영상강화 기법이 적용된 영상들은 결과는 상이하지만, 밝기값이 증가하여 지형 객체 위치와 형태에 대한 관찰이 상대적으로 용이하였다. 전통적인 영상 강화기법인 CLAHE는 영상의 화소값 범위를 늘려줌으로써 밝기와 영상 대비를 증폭시킨다. 따라서 저조도 영상의 밝기값은 개선되었지만, 지표면과 지형 객체가 가지는 색은 복원하지 못해 자연스럽지 못한 한계가 관찰되었다(Fig. 3(a)). Dehaze가 적용된 영상은 밝기와 색상이 동시에 개선된 것을 확인하였다(Fig. 3(b)). 하지만, 바위와 자갈을 확대한 부분 영상에서 열화현상이 고르게 분포된 것을 확인할 수 있었다. 딥러닝 기법인 RetinexNet은 저조도 영상의 밝기값을 개선하였으나 영상의 색상과 잡음을 증폭시켰다(Fig. 3(c)). 이는 저조도 영상으로부터 반사도 성분과 조명성분이 제대로 분리되지 않았고, 반사도 성분이 과하게 추정된 것에 기인한 것으로 보인다. 따라서 기준 영상 대비 지표면과 바위 및 자갈의 색상이 크게 왜곡되었으며, 빨간색의 잡음이 영상 전반에 걸쳐 발생하여 더욱 부자연스러운 영상이 생성되었다. 마지막으로 GLADNet이 적용된 영상은 다른 강화 영상보다 일반조도 영상과 유사한 밝기와 색을 복원하였다. 부분 영상에서 잡음이 관찰되었으나, 다른 강화 영상보다 열상 효과가 현저히 낮은 것을 확인할 수 있었다(Fig. 3(d)).

Table 2는 저조도 영상과 강화 영상들의 품질 지수를 보여준다. PSNR, SSIM, Delta-E를 포함한 평가지수들은 육안 분석과 마찬가지로 강화 영상의 품질이 공통적으로 향상된 것을 보여주고 있다. 먼저 저조도 영상의 PSNR 지수는 7.46인 반면, GLADNet과 Dehaze 영상은 각각 19.83과 19.09로 나타나 영상 품질이 크게 향상된 것을 알 수 있다. 반면 육안 분석에서 색상 왜곡이 크게 나타난 CLAHE 영상은 14.81로 산출되어 13.87인 RetinextNet 보다 근소하게 높은 것을 확인할 수 있었다. 이는 기준 영상 밝기값의 MSE를 이용하여 계산하는 PSNR 지수가 인간이 인지하는 영상 품질을 제대로 반영해주지 못함을 알 수 있었다. SSIM 지수에서 GLADnet 영상은 0.46으로 타 기법보다 월등히 높은 영상 품질 지수가 산출되었다. Dehaze 영상은 0.36으로 두 번째로 높은 SSIM 지수를 가진다. 반면 RetinexNet 영상은 0.17로 저조도 영상과 비슷한 지수가 산출되어 육안 분석과 큰 차이를 보였다. 수치가 낮을수록 영상 품질이 우수한 영상임을 의미하는 Delta-E에서도 GLADNet 영상이 5.98로 가장 낮게 나타나, 색상과 관련된 영상 품질이 가장 높은 것으로 분석되었다. CLAHE와 Dehaze 영상은 각각 7.40과 8.39로 비슷한 지수가 산출되었고, RetinexNet 영상은 10.91로 가장 낮은 지수가 계산되었다.

실험 결과 저조도 영상강화 기법은 모든 지수에서 저조도 영상의 품질을 개선한 것으로 확인되었으나, 딥러닝 기반의 RetinexNet은 색감 왜곡과 잡음으로 인해 영상 품질 개선 효과가 가장 낮았다. 저조도 영상의 시인성 개선을 통한 특징점 추출 및 정합 기법의 성능 향상 효과를 분석하기 위해 GLADNet과 Dehaze 영상을 선택하였다. GLADNet은 정성적인 육안 분석과 모든 정량적 영상 품질 지수에서 저조도 환경에 가장 강인한 강화기법으로 분석되었다. Dehaze는 PSNR과 SSIM에서 두 번째로 높은 품질 지수가 산출되었다. 비록 색상개선 효과를 나타내는 Delta-E 지수는 CLAHE 보다 낮으나, 육안 분석에서는 GLADNet에 이어 저조도 영상의 밝기값과 색상을 크게 개선한 것으로 판단하였다.

Fig. 3. Low Light Image Enhancement Results
../../Resources/KSCE/Ksce.2022.42.5.0741/fig3.png
Table 2. Quantitative Comparison of Feature Point Detection and Matching Results

LLIE method

PSNR

SSIM

Delta_E

Low Light Image

7.46

0.16

17.18

CLAHE

14.81

0.29

7.40

Dehaze

19.09

0.36

8.39

RetinexNet

13.87

0.17

10.91

GLADNet

19.83

0.46

5.98

3.2 영상 정합기법 적용 결과 및 분석

저조도 영상의 시인성 개선에 의한 특징점 검출 및 정합 기법들의 성능 향상을 평가하기 위해 GLADNet과 Dehaze 영상에서 추출된 특징점 개수와 정상 정합점 개수, 그리고 정합 정밀도를 비교 분석하였다(Table 3). Table 4Table 3에서 RANSAC에의해 검출된 정상 정합점을 지형영상과 같이 보여주고 있으며, 특징점 추출 및 정합 기법들의 성능이 강화 영상에 의해 향상된 것을 보여준다. 저조도 영상에서는 SURF가 유일하게 특징점과 정상 정합점을 검출하였다. 하지만 강화 영상에서는 SIFT, SURF, ORB, AKAZE 모두 비약적으로 증가한 특징점을 검출하였고, 정상 정합점 개수 역시 고르게 증가하였다. 특징점 추출 및 정합 기법의 성능은 GLADNet 영상보다 Dehaze 영상에서 더욱 향상되었다. 두 강화 영상에서 가장 많은 개수의 특징점과 정합점을 검출한 ORB는 GLADNet 영상에서 15개의 정합점을 검출하였지만, Dehaze 영상에서 30개의 정합점을 검출하였다. 두 번째로 많은 개수의 정합점을 검출한 AKAZE도 GLADNet 영상에서 10개의 정합점을 검출하였지만, Dehaze 영상에서는 22개의 정합점을 검출하였다. 반면 정합 정밀도는 Dehaze 영상보다 잡음이 적은 GLADNet 영상에서 높게 산출되었다. 가장 높은 정밀도로 정합점을 검출한 SIFT는 Dehaze 영상에서 0.08이었지만, GLADNet 영상에서 0.11로 향상되었다. AKAZE 역시 Dehaze 영상에서 0.06의 정밀도가 산출된 반면, GLADNet 영상에서는 0.08의 정밀도가 산출되었다. 특징점 추출 및 정합 기법 중 SURF는 저조도 영상에서 유일하게 정합점을 검출하여 어두운 조도 환경에 강인한 특징을 보여주었다. 하지만 강화 영상에서 특징점 검출 개수는 소폭 증가하여 SIFT와 함께 가장 적은 개수의 정합점을 검출하였고, 정합 정밀도는 오히려 감소하였다.

Table 3. Quantitative Comparison of Feature Point Detection and Matching Results

Algorithm

Feature Point (Number)

Features Matched with RANSAC (Number)

Precision

Left Image

Right Image

Low Light Image

SIFT

0

0

0

0.00

SURF

112

157

5

0.31

ORB (100,000)

0

0

0

0.00

AKAZE

0

0

0

0.00

Dehaze

SIFT

36,547

34,967

11

0.08

SURF

26,766

26,266

12

0.07

ORB (100,000)

74,234

74,190

30

0.04

AKAZE

3,086

3,209

22

0.06

GLAD

SIFT

9,962

9,603

9

0.11

SURF

13,461

13,369

8

0.06

ORB (100,000)

39,498

38,135

15

0.05

AKAZE

880

998

12

0.08

Table 4. Quantitative Comparison of Feature Point Detection and Matching Results

Low Light Image

Dehaze

GLAD

SIFT

(Inlier Number, Precision)

../../Resources/KSCE/Ksce.2022.42.5.0741/tb4-1.png

../../Resources/KSCE/Ksce.2022.42.5.0741/tb4-2.png

../../Resources/KSCE/Ksce.2022.42.5.0741/tb4-3.png

(0, 0.00)

(11, 0.08)

(9, 0.11)

SURF

(Inlier Number, Precision)

../../Resources/KSCE/Ksce.2022.42.5.0741/tb4-4.png

../../Resources/KSCE/Ksce.2022.42.5.0741/tb4-5.png

../../Resources/KSCE/Ksce.2022.42.5.0741/tb4-6.png

(5, 0.31)

(12, 0.07)

(8, 0.06)

ORB

(Inlier Number, Precision)

../../Resources/KSCE/Ksce.2022.42.5.0741/tb4-7.png

../../Resources/KSCE/Ksce.2022.42.5.0741/tb4-8.png

../../Resources/KSCE/Ksce.2022.42.5.0741/tb4-9.png

(0, 0.00)

(30, 0.04)

(15, 0.05)

AKAZE

(Inlier Number, Precision)

../../Resources/KSCE/Ksce.2022.42.5.0741/tb4-10.png

../../Resources/KSCE/Ksce.2022.42.5.0741/tb4-11.png

../../Resources/KSCE/Ksce.2022.42.5.0741/tb4-12.png

(0, 0.00)

(22, 0.06)

(12, 0.08)

4. 결 론

본 연구에서는 달 영구음영지역의 지형과 조도 환경을 모사한 실험실에서 취득한 모의 지형 영상을 대상으로 저조도 영상강화 기법(CLAGE, Dehaze, RetinexNet, GLADNet)을 적용하여 지형 영상의 시인성 개선 효과와 특정점 추출 및 정합 기법(SIFT, SURF, ORB, AKAZE)의 성능 향상을 분석하였다. 저조도 영상의 강화 결과는 서로 상이하지만, 공통적으로 밝기값이 개선되어 지형과 지형객체(돌, 자갈)의 형태를 인식할 수 있었다. 또한, 시인성 개선 효과로 인해 특징점 검출 및 정합 기법의 성능이 크게 향상된 것을 확인할 수 있었다. 반면, 영상강화로 인해 색상이 왜곡되고 잡음이 증폭되는 문제도 확인하였다.

낮은 조도 환경(0.98 lux)에서 저조도 영상의 밝기와 색상을 고르게 개선한 기법은 딥러닝 기반의 GLADNet과 전통적인 기법인 Dehaze이다. GLADNet은 기준 영상과 시각적으로 가장 유사한 영상을 복원하였고 영상 품질(PSNR, SSIM, Delta-E) 또한 크게 개선하였다. 두 번째로 영상 품질을 개선한 기법은 Dehaze로 시인성 개선 효과는 GLADNet보다 낮지만, 딥러닝 기법인 RetinexNet보다 오히려 낮은 비율의 잡음으로 색상을 개선한 것을 확인할 수 있었다. 특징점 추출 및 정합 기법은 저조도 영상에 강인한 GLADNet과 Dehaze 영상을 대상으로 수행하였고, 특히 ORB와 AKAZE 순으로 성능이 향상된 것을 확인하였다. 두 기법은 GLADNet보다 Dehaze 영상에서 많은 개수의 특징점과 정합점을 검출하였다. 반면 열화현상이 적은 GLADNet 영상에서의 정합 정밀도가 Dehaze 영상보다 높은 것을 확인하였다. 달 영구음영지역의 극한환경(극저온, 저조도, 미세 먼지, 우주 방사능 등)에서 달 탐사 로버는 연산 성능보다 내구성이 높은 장비를 사용한다. 따라서 탐사 로버는 지구로 전송된 카메라 영상을 이용하여 원격 조정될 것으로 예상된다. 지형영상은 로버의 원격조정 외에도, 3차원 지형 모델 구축, 달 토양 및 암석의 지질학적 분석에 활용된다. 따라서 저조도 환경에서 낮은 비율의 잡음으로 영상의 밝기와 색상을 개선한 GLADNet은 토양 성분과 암석 종류 판별에 유용하고, 특징점 추출과 정합 성능을 향상한 Dehaze는 로버의 주행 주행 거리 측정 및 3차원 지형정보 구축에 적합할 것으로 판단된다.

달 영구음영지역은 미탐사 지역으로 조도환경과 지형환경에 대한 현장 관측 자료가 전무 하다. 따라서 영구음영지역 모의 환경의 정확도는 향후 탐사 결과를 바탕으로 개선되어야 할 것이다. 또한 저조도 영상 강화기법에 의한 로버 영상 특징점 추출 및 정합 기법의 성능을 종합적으로 판단하고 개선하기 위해서는, 보다 다양한 조도환경과 대규모 모의 지형에서의 3차원 지형 매핑 연구가 진행되어야 할 것으로 사료된다.

감사의 글

본 논문은 한국건설기술연구원 주요사업(극한건설 환경구현 인프라 및 TRL6 이상급 극한건설 핵심기술 개발)과 2022년 한국연구재단 기초연구사업(No.2022R1F1A1064577) 및 인하대학교 지원으로 수행된 연구로 이에 감사합니다.

References

1 
Ahn M. S., Lee Y. G. (2008). "Trend of rover development and mission analysis of lunar exploration rovers.", In Proceedings of The Korean Society For Aeronautical And Space Sciences, Korea, pp. 1301-1304 (in Korean)Google Search
2 
Alcantarilla P. F., Nuevo J., Bartoli A. (2013). "Fast explicit diffusion for accelerated features in nonlinear scale spaces.", In Proceedings of British Machine Vision Conference, Bristol, United Kingdom, pp. 13.1-1311URL
3 
Bay H., Tuytelaars T., Gool L. V. (2008). "SURF: Speeded up robust features.", Computer Vision and Image Understanding, Vol. 110, No. 3, pp. 346-359DOI
4 
Fong T. (2021). "Volatiles investigating polar exploration rover.", In Proceedings of Australasian Conference on Robotics and Automation, Brisbane, Australasia.Google Search
5 
Hong S. C., Shin H. S. (2018). "Trend analysis of lunar exploration missions for lunar base construction.", Journal of the Korea Academia-Industrial Cooperation Society, Vol. 19, No. 7, pp. 144-152DOI
6 
Hong S. C., Shin H. S. (2020). "Comparative performance analysis of feature detection and matching methods for lunar terrain images.", Journal of the Korean Society of Civil Engineers, KSCE, Vol. 40, No. 4, pp. 437-444DOI
7 
Hong S. C., Bangunharcana A., Park J. M., Choi M. S., Shin H. S. (2021). "Visual SLAM-based robotic mapping method for planetary construction.", Sensors, Vol. 21, No. 22, pp. 7715DOI
8 
Hong S. C., Chung T. I., Park J. M., Shin H. S. (2019). "Research on development of construction spatial information technology, using rover’s camera system.", Journal of the Korea Academia-Industrial cooperation Society, Vol. 20, No. 7, pp. 630-637DOI
9 
Hong S. C., Shyam P., Bangunharcana A., Shin H. S. (2022). "Robotic mapping approach under illumination-variant environments at planetary construction sites.", Remote Sensing, Vol. 14, No. 4, pp. 1027DOI
10 
International Space Exploration Coordination Group (ISECG) (2020). "Global exploration roadmap supplement - Lunar surface exploration scenario update", Available at: https://www.globalspaceexploration.org/?p=1049 (Accessed: February 21, Vol. 2022)URL
11 
Jamal H., Gupta V., Khera N., Vijayarangan S., Wettergreen D., Red W. L. (2020). "Terrain mapping and pose estimation for polar shadowed regions of the moon.", In International Symposium of Artificial Intelligence, Robotics and Automation in Space, Pasadena, USA, pp. 5030URL
12 
Ju G. H. (2018). "development status of domestic & overseas space exploration & associated technology.", Journal of The Korean Society for Aeronautical and Space Sciences, Vol. 44, No. 8, pp. 741-757DOI
13 
Kim K. J. (2017). "A research trend on lunar resource and lunar base.", The Journal of the Petrological Society of Korea, Vol. 26, No. 4, pp. 373-384DOI
14 
Lee H. S., Park J. M., Hong S. C., Shin H. S. (2020). "Low light image enhancement to construct terrain information from permanently shadowed region on the moon.", Journal of the Korean Society for Geospatial Information Science, Vol. 28, No. 4, pp. 41-48DOI
15 
Lowe D. (2004). "Distinctive image features from scale invariant keypoints.", International Journal of Computer Vision, Vol. 60, No. 2, pp. 91-110DOI
16 
Lucey P. G., Hayne P. O., Costello E. S., Green R., Hibbitts C. A., Goldberg A., Mazarico E., Li S., Honniball C. (2021). "The spectral radiance of indirectly illuminated surfaces in regions of permanent shadow on the moon.", Acta Astronautica, Vol. 180, pp. 25-34DOI
17 
Mazarico E., Neumann G. A., Smith D. E., Zuber M. T., Torrence M. H. (2011). "Illumination conditions of the lunar polar regions using LOLA topography.", Icarus, Vol. 211, No. 2, pp. 1066-1081DOI
18 
Muja M., Lowe D. G. (2009). "Flann fast library for approximate nearest neighbors.", In Proceedings in International Conference on Computer Vision Theory and Applications, Lisboa, Portugal, pp. 331-340Google Search
19 
National Aeronautics and Space Administration (NASA) (2017). "The dark side of crater: How light looks different on the Moon and what NASA is doing about it", Available at: https://www.nasa. gov/ames/feature/the-dark-side-of-the-crater-how-light-looks-different-on-the-moon-and-what-nasa-is-doing (Accessed: June 8, Vol. 2022)URL
20 
National Aeronautics and Space Administration (NASA) (2020). "Artemis plan: NASA’s lunar exploration program overview", Available at: https://www.nasa.gov/sites/default/files/atoms/files/artemis_plan-20200921.pdf (Accessed: February 3, Vol. 2022)URL
21 
Park D. B., Park H. J., Han D. K., Ko H. S. (2014). "Single image dehazing with image entropy and information fidelity.", IEEE International Conference on Image Processing, Paris, France, pp. 4037-4041DOI
22 
Pedersen L., Han C. S., Vitus M. (2008). "Dark navigation: Sensing and rover navigation in permanently shadowed lunar craters.", In International Symposium on Artificial Intelligence, Robotics and Automation in Space (i-SAIRAS), Los Angeles, USA, pp. 1-8URL
23 
Pizer S. M., Johnston R. E., Ericksen J. P., Yankaskas B. C., Muller K. E. (1990). "Contrast-limited adaptive histogram equalization: speed and effectiveness.", Proceedings of the First Conference on Visualization in Biomedical Computing, Atlanta, USA, pp. 337-338URL
24 
Rublee E., Rabaud V., Konolige K., Bradski G. (2011). "ORB: An efficient alternative to SIFT or SURF.", Proceedings of International Conference on Computer Vision, Barcelona, Spain, pp. 2564-2571DOI
25 
Ryu B. H., Wang C. C., Chang I. H. (2018). "Development and geotechnical engineering properties of KLS-1 lunar simulant.", Journal of Aerospace Engineering, Vol. 31, No. 1, pp. 04017083DOI
26 
Wang W., Wei C., Yang W., Liu J. (2018). "Gladnet: Low-light enhancement network with global awareness.", In Proceedings of 13th IEEE International Conference on Automatic Face & Gesture Recognition, Xian, Chian, pp. 751-755DOI
27 
Wang Z., Simoncelli E. P., Bovik A. C. (2003). "Multiscale structural similarity for image quality assessment.", Proceedings of the 37th Asilomar Conference on Signals, Systems & Computers, Pacific Grove, CA, USA, pp. 1398-1402DOI
28 
Wei C., Wang W., Yang W., Liu J. (2018). "Deep retinex decomposition for low-light enhancement.", arXiv preprint, arXiv:1808.04560DOI
29 
Wu B., Li F., Hu H., Zhao Y., Wang Y., Xiao P., Li Y., Liu W. C., Chen L., Ge X., Yang M. (2020). "Topographic and geomorphological mapping and analysis of the Chang’ E-4 landing site on the far side of the Moon.", Photogrammetric Engineering & Remote Sensing, Vol. 86, No. 4, pp. 247-258DOI
30 
Zhang X., Silverstein D. A., Farrell J. E., Wandell B. A. (1997). "Color image quality metric S-CIELAB and its application on halftone texture visibility.", Proceedings of IEEE COMPCON. San Jose, USA, pp. 44-48DOI