Mobile QR Code QR CODE : Journal of the Korean Society of Civil Engineers

  1. 종신회원 ․ 경북대학교 멀티스케일 유·무기 구조물 자율진단기술연구소 연구원 (Kyungpook National University ․ geolee@knu.ac.kr)
  2. 정회원 ․ 경북대학교 공간정보학과 박사수료 (Kyungpook National University ․ seongjh@knu.ac.kr)
  3. 경북대학교 융복합시스템학과 박사수료 (Kyungpook National University ․ renai1226@knu.ac.kr)
  4. 경북대학교 융복합시스템학과 석사과정 (Kyungpook National University ․ gusrlf6695@knu.ac.kr)
  5. 경북대학교 융복합시스템학과 석사과정 (Kyungpook National University ․ dh8006@knu.ac.kr)
  6. 종신회원 ․ 교신저자 ․ 경북대학교 위치정보시스템학과 교수 (Corresponding Author ․ Kyungpook National University ․ wlee33@knu.ac.kr)



무인항공기, 지상기준점, 특징점, 정사영상
Unmanned aerial vehicle, Ground control point, Feature point, Orthophoto

1. 서 론

무인항공기(Unmanned Aerial Vehicle, UAV)를 이용한 사진측량 기술이 발달함에 따라 초고해상도 정사영상 제작이 가능하다. 기존의 항공기 또는 인공위성을 이용한 정사영상 데이터는 넓은 대상지에 대한 정량적, 정성적 데이터를 취득할 수 있었으며, 접근이 힘든 지역에서도 데이터를 취득할 수 있다(Lee et al., 2021). 하지만 항공 및 위성영상의 경우 면적이 넓은 지역에서는 경제적이지만 면적이 좁은 지역에서는 비경제적이며, 항공영상의 경우 운용에 대한 비용이 많이 들기 때문에 짧은 주기로 제작이 어렵다. 또한, 위성영상의 경우 기상 상황에 따라 영상의 품질이 좌우될 수 있으며, 고해상도 영상으로 갈수록 관측 폭이 좁아 동일 영역에 대한 재촬영 주기가 길어질 수 있다는 단점이 있다. 이러한 단점을 해결할 수 있는 플랫폼 중 하나가 무인항공기이다. 무인항공기는 비 또는 풍속이 강한 날씨를 제외하고 시간과 공간의 제약 없이 데이터 획득이 가능하며(Vural et al., 2021), 지형·지물의 장애물만 없으면 저고도에서도 데이터를 획득할 수 있어 정확하고, 높은 해상도의 영상 데이터를 취득할 수 있다. 무인항공기로 취득된 RGB 영상은 cm 단위의 초고해상도 정사영상 제작이 가능하며, RGB 영상뿐만 아니라 TIR(Thermal Infrared), NIR(Near Infrared) 등 다양한 센서로 취득된 영상도 cm 단위의 정사영상 제작이 가능하다(Lee and Lee, 2022a; Zheng et al., 2020).

무인항공기 영상을 이용한 정사영상 제작은 크게 특징점 추출, 고밀도 점 구축, 메쉬(Mesh) 구축, 텍스쳐(Texture) 구축으로 진행되며, 이 과정 중에서 상대좌표를 절대좌표로 변환하고, 기하보정을 위해 지상기준점(Ground Control Point, GCP)과 지상기준점에 대한 평가를 위한 검사점(Check Point, CP) 입력이 필요하다(Park and Lee, 2016). 지상기준점 입력은 무인항공기 영상을 이용한 정사영상 제작에서 가장 시간이 많이 소요되는 과정 중 하나이며, 면적과 중복도에 따라 최소 수십 장에서 수백 장의 영상마다 지상기준점을 입력해야 한다. 또한, 잘못된 지상기준점 입력 시 기하 왜곡이 생겨 정사영상의 품질에 영향을 미치기 때문에 정확한 측량과 입력이 필요하다(Ferrer-González et al., 2020; Liu et al., 2022). 기존의 무인항공기 영상에 대한 특징점 추출 비교는 단일영상에 대해 진행되었으며(Lee and Kim, 2022; Niemiec and Szlachetko, 2019), 정사영상을 제작하고 GCP를 입력한 정사영상 간 기하보정 연구는 진행되었지만 다양한 센서에 대한 특징점 추출 비교 연구는 미비하였다(Seong et al., 2019).

본 연구에서는 이러한 지상기준점에 대한 시간적 단점을 보완하기 위해 지상기준점을 입력된 RGB 기준 정사영상을 제작하고, 지상기준점을 입력하지 않고 제작한 RGB, TIR, NIR 정사영상과의 정확한 특징점과 매칭쌍 추출에 대한 알고리즘 비교를 진행하였다. 정확한 특징점과 매칭쌍을 추출하기 위해 정사영상에 전처리를 수행하였으며, 전처리 후 정사영상에 효과적인 특징점 추출 방법을 비교하기 위해 AKAZE(Accelerated KAZE), SURF(Speeded Up Robust Features), BRISK(Binary Robust Invariant Scalable Keypoints), SIFT(Scale Invariant Feature Transform)를 사용하여 비교, 평가하였다.

2. 연구방법

2.1 연구방법

본 연구에서는 무인항공기용 RGB, TIR, NIR 센서를 이용하여 연구대상지별로 시기의 차이가 있는 영상을 취득하였으며, GNSS 측량을 통해 지상기준점과 검사점을 취득하였다. 하나의 RGB 영상은 지상기준점과 검사점을 입력하여 기준 정사영상을 제작하였으며, 또 다른 RGB와 TIR, NIR은 지상기준점 입력없이 목적 정사영상을 제작하였다. 그 후 기준 정사영상과 목적 정사영상에 특징점 추출이 잘 수행될 수 있도록 전처리를 수행하였으며, 4가지의 특징점 추출 기법을 적용한 후 오매칭쌍 제거를 통해 최종 매칭쌍을 추출하였다. 마지막으로 효과적인 특징점 및 매칭쌍 추출 기법에 대해 비교·평가를 수행하였다.

2.2 연구대상지 및 연구장비

연구대상지는 경상북도 상주시에 위치하는 두 곳을 선택하여 진행하였으며, 연구대상지 A는 주거지역이며, B는 하천 지역이다. 연구대상지 A의 토지피복은 건물, 아스팔트, 콘크리트, 식생 등 다양한 토지피복으로 구성되어 있으며, 연구대상지 B의 경우 하천, 콘크리트, 식생으로 구성되어 있다. 연구대상지 A의 경우 주거지와 같은 환경에서의 특징점 추출을 비교하기 위해 선정하였으며, 연구대상지 B의 경우 자연적인 환경에 대한 특징점 추출 비교를 위해 선정하였다(Fig. 1).

연구에 사용된 무인항공기는 인스파이어 1, 2, 팬텀 4가 사용되었으며, 무인항공기용 센서는 RGB 센서(Zenmuse X4S), TIR 센서(Zenmuse XT), NIR 센서(P4 Multispectral)이 사용되었다. 인스파이어 1은 TIR 센서, 인스파이어 2는 RGB 센서, 팬텀 4는 Multispectral 센서를 탑재하여 촬영을 진행하였다. 각 무인항공기와 센서의 사양은 다음 Table 1과 같다. 무인항공기 촬영 후 RGB 기준 정사영상 제작 시 지상기준점과 검사점은 Trimble R8s를 이용하여 취득하였다.

Fig. 1. Study Site: (a) Uptown, (b) Farmland and River
../../Resources/KSCE/Ksce.2024.44.2.0263/fig1.png
Table 1. Specification of UAVs and Eo Sensors

Spec.

UAV

Spec.

Sensor

Inspire 1

Inspire 2

P4 Multispectral

Zenmuse XT

Zenmuse X4S

Multispectral

Weight

2,935 g

3,440 g

1,391 g

Weight

270 g

253 g

250 g

Flight Altitude (Max)

4,500 m

2,500 m

6,000 m

Resolution

5,472×3,648

640×512

1,600×1,300

Flight Time (Max)

18 min

27 min

27 min

FOV

84°

45×37°

62.7°

Speed (Max)

22 m/s

26 m/s

16 m/s

Focal Length

8.8 mm

13 mm

5.74 mm

Maximum Wind Resistance

10 m/s

10 m/s

10 m/s

F-Stop

F/2.80

F/1.25

F/2.20

2.3 데이터 취득

3대의 무인항공기와 센서를 이용하여 연구대상지별로 RGB 기준 정사영상 1개와 목적 정사영상 3개에 대하여 무인항공기 촬영을 진행하였다. 무인항공기 촬영 시 그림자의 영향을 받지 않기 위해 구름이 없고 맑은 날을 선택하여 태양의 고도가 가장 긴 12시에서 13시 사이에 취득하였다. 무인항공기별 촬영 애플리케이션이 다르므로 본 연구에서 2가지 애플리케이션이 필요하며, 인스파이어 1, 2는 Pix4d capture, 팬텀 4는 DJI GS Pro를 사용하여 자동 촬영을 진행하였다. 촬영 높이는 50 m, 촬영 속도는 2-3 m/s, 종중복도와 횡중복도는 80 %로 설정하였으며, 취득된 데이터의 날짜는 Table 2와 같다.

Table 2. Date Information by Study Area

RGB

(Reference)

RGB

(Target)

TIR

(Target)

NIR

(Target)

Study area

A

2020.04

2020.05

2020.05

2021.11

Study area

B

2020.06

2020.10

2020.05

2021.04

무인항공기 촬영 후 RGB 기준 정사영상을 제작하기 위해서는 지상기준점 입력이 필요하며, RGB 기준 정사영상을 평가를 위한 검사점도 필요하다. 본 연구에서 GNSS 측량은 Network-RTK (Real Time Kinematic) 방법의 하나인 VRS(Virtual Reference Station) 방법을 사용하여 진행하였다. VRS 측량은 GNSS 상시 관측소를 기준국으로 하여 가상기준점을 실시간으로 생성한 뒤 가상기준점과 이동국과의 실시간 측량을 수행하여 정밀한 위치를 결정하는 방법이다(Landau et al., 2002). VRS 측량 시 공공측량 작업의 RTK 측량 규정에 맞게 고정해를 얻은 후 10초 이상 PDOP(Position Dilution of Precision)는 6이하 값으로 3회 측량 후 평균하여 정밀한 좌표데이터를 취득하였으며, 연구대상지 A, B의 지상기준점은 각각 8개, 5개이며, 검사점은 4개이다. 지상기준점 및 검사점의 수량은 무인비행장치 측량 작업 규정에 따라 지상기준점은 1 $km^{2}$당 9점 이상, 검사점의 수량은 지상기준점 수량의 최소 1/3 이상을 원칙으로 하며, 본 연구대상지의 면적은 A와 B는 약 0.04 $km^{2}$, 0.05 $km^{2}$이다.

2.4 정사영상 제작

RGB, TIR, NIR 정사영상 제작에는 Agisoft사의 Metashape Pro를 사용하였으며, 일반적인 RGB 정사영상의 경우 Metashape에서 영상 입력, 영상 정렬, 지상기준점 입력, 카메라 검·보정, 고밀도 점 구축, 메시와 텍스쳐 구축을 통해 정사영상을 제작한다. TIR 영상의 경우 R-JPEG(Radiometric-Joint Photographic Experts Group) 취득 시 방사선 데이터와 메타데이터 정보를 취득하며, EXIF(Exchangeable Image File Format)에는 온도 값으로 변환할 수 있는 정보와 특정 메타데이터 값을 가지고 있기 때문에 이 정보를 이용하여 8비트의 R-JPEG을 16비트 TIFF로 변환이 필요하다(Park et al., 2018). Exiftool을 이용하여 16비트의 TIFF 변환 후 RGB와 같이 정사영상 제작 과정을 거치면 DN 값을 갖는 정사영상이 제작되며, 후처리를 통해 DN 값을 온도 값으로 변환하여 최종 온도 정사영상을 제작한다(Lee and Lee, 2022b). NIR 영상은 태양 센서 정보를 사용하여 반사 측정 영상에 대한 보정 후 정사영상 제작을 수행한다(Guan et al., 2019; Kim et al., 2022). RGB 기준 정사영상은 지상기준점과 검사점 입력을 수행하며, 목적 정사영상(RGB, TIR, NIR)은 지상기준점을 입력하지 않고 정사영상을 제작하였다. RGB 기준 정사영상은 지상기준점 입력 후 검사점을 통해 정확도 평가를 수행하였으며, 정확도 평가는 ‘항공사진측량 작업 규정’의 조정계산 및 오차의 한계로 평가하였다. 디지털 항공사진의 검사점에 대한 평가 요소는 Table 3과 같으며, Table 4는 연구대상지의 RMSE(Root Mean Square Error)와 최대오차를 나타낸다. 그 결과 두 연구대상지의 기준 정사영상 모두 지상표본거리(Ground Sample Distance, GSD) 8 cm 지도의 허용 기준을 만족하여 기준 정사영상으로 사용 가능하다.

Table 3. Tolerance Band of RMSE and Maximum Error

Type

Scale or GSD

RMSE

Maximum error

Digital aerial photography

Within 0.08m

0.08m

0.16m

Within 0.12m

0.12m

0.24m

Within 0.25m

0.25m

0.50m

Within 0.42m

0.42m

0.84m

Within 0.65m

0.65m

1.30m

Within 0.80m

0.80m

1.60m

Table 4. Check Points RMSE and Maximum Error

RMSE/Maximum error

Study area

X error

Y error

Z error

A

0.05m/0.07m

0.02m/0.04m

0.06m/0.08m

B

0.04m/0.06m

0.03m/0.04m

0.05m/0.10m

3. 특징점 추출

3.1 전처리

특징점 추출 전 기준 정사영상과 목적 정사영상 간의 픽셀 값의 차이를 줄여 특징점 추출이 잘 수행될 수 있도록 BBHE(Brightness Preserving Bi-Histogram Equalization)와 Sharpening 방법을 수행하였다. BBHE 방법은 기존의 히스토그램 평활화(Histogram Equalization, HE) 방법을 개선한 방법으로 히스토그램 평활화의 경우 원영상의 평균 밝기 값이 크고, 작음에 상관없이 명암의 중간값으로 변환하기 때문에 원 영상의 평균적인 밝기 값에 비해 변환된 영상의 평균 밝기 값이 과도하게 변환한다는 단점이 있다(Park and Choi, 2009). 하지만 BBHE 방법의 경우 과도한 영상의 밝기 변화를 주지 않기 위하여 원 영상의 평균 밝깃값을 2개의 서브 히스토그램으로 나누고, 각 서브 히스토그램에서 독립적으로 히스토그램 평활화를 수행하는 방법 중 하나이다(Zhou et al., 2021). BBHE 방법을 통해 영상 전체의 밝기값 분포가 고르게 변환된 영상에 경계에 대한 대비 향상을 주기 위해 Sharpening 방법을 적용하였다. Sharpening 방법 중 언샤프 마스킹 방법을 사용하였으며, 언샤프 마스킹은 원 영상의 고주파 성분을 구하여 원 영상에 고주파 성분을 더해 선명도를 강조하는 방법이다(Hwang and Kim, 2018). Table 5는 TIR 영상에 전처리를 수행하여 특징점 추출 방법 한 가지를 적용했을 때의 비교를 나타낸다. 비교 결과 BBHE와 Sharpening을 같이 사용했을 때 가장 많은 특징점 추출이 되는 것을 확인할 수 있으며, 특히 TIR의 경우 전처리를 수행하지 않을 경우 특징점 추출이 어려운 것을 확인할 수 있다. 전처리 후 공간해상도로 인한 스케일 차이를 최소화하기 위해 목적 정사영상을 기준 정사영상에 맞게 리샘플링을 수행하였다.

Table 5. Number of Feature Points of TIR Orthophoto according to Pre-processing

Study area A

Study area B

Original

809

498

Original+HE

50,784

6,932

Original+HE+Sharpening

55,127

8,055

Original+BBHE

72,781

38,276

Original+BBHE+Sharpening

161,396

112,011

3.2 특징점 추출 방법

전처리를 수행한 후 특징점 추출을 적용하였으며, 본 연구에서는 총 4가지(AKAZE, SURF, BRISK, SIFT) 방법을 적용하였다. AKAZE는 KAZE를 개선한 알고리즘으로 기존 KAZE의 경우 비선형 확산 방정식을 풀기 위한 분석 방법이 없어 AOS(Additive Operator Splitting) 방법을 통해 이를 수행했지만 비선형 확산 방정식을 풀기 위해서는 많은 양의 선형 방정식을 수행해야 했기 때문에 연산 속도가 느리다는 단점이 있다. 하지만 AKAZE의 경우 FED(Fast Explicit Diffusion)라는 최신 수학적 구조를 사용하여 연산속도를 높였으며, M-LDB(Modified-Local Difference Binary) 서술자를 사용하여 효율적인 저장 공간 확보와 계산 요구량을 낮췄다(Alcantarilla et al., 2012; Alcantarilla et al., 2013; Sharma and Jain, 2020). 또한, 반복성과 식별성을 높인 다중 스케일 성능을 확인할 수 있다(Alcantarilla et al., 2013). SIFT는 스케일 공간 기반의 특징점 추출 알고리즘으로 크기, 회전, 조명의 변화에 강인한 특징을 추출 할 수 있다. 영사에서 서로 다른 크기의 가우시안 커널을 사용하여 스케일 공간 피라미드를 생성하며, 각 피라미드 레벨에서 픽셀 값을 가우시안으로 smoothing하여 스케일을 정규화한다. 각 스케일 레벨에서 이전 스케일과 현재 스케일을 뺀 차영상을 계산하고 영상의 특징점을 추출한 후 방향 할당과 특징점 서술 단계를 거쳐 특징을 추출한다. 하지만 SIFT의 경우 많은 연산량으로 인해 느리다는 단점을 가지고 있다(Lowe, 2004). SURF는 SIFT의 단점인 많은 연산량으로 인한 느린 속도를 Hessian 행렬 계산과 이미지 피라미드 대신 필터의 크기를 변화시키는 방식으로 속도에 대한 성능을 개선하였다(Bay et al., 2006). 마지막으로 BRISK는 AGAST(Adaptive and Generic Accelerated Segment Test) 또는 FAST(Features from Accelerated Segment Test) 알고리즘을 사용하여 이진 표현을 사용하여 저장 공간을 절약하고, 스케일 공간에서 피라미드 기반으로 특징점을 검출한다. 서술자 계산은 특징점 주변에서 동심원 기반을 통해 이진 서술자를 계산하며, 특징점 추출 속도가 SIFT보다 빠르지만 영상 정합 단계에서 특징점이 증가할수록 연산 시간이 많이 소요되는 단점이 있다(Leutenegger et al., 2011; Makarov et al., 2018).

3.3 오매칭쌍 제거

특징점 추출 방법을 통해 추출된 특징점은 매칭을 하기 위해 오매칭쌍(Outlier) 제거가 필요하다. 오매칭은 격자무늬, 식생과 같은 반복적인 패턴이 있거나 사람과 차량과 같은 동적인 지형지물, 그림자로 인한 영상 오차 등이 주된 원인이며, 특히, 반복적인 패턴은 잘못된 대응점을 찾기 쉬우며, 매끄러운 형태(평평한 지붕, 새로운 도로 등)는 충분한 정보가 없어 매칭이 어렵거나 오매칭이 발생한다. 오매칭쌍 제거에는 일반적으로 가장 많이 사용되는 RANSAC(RANdom SAmple Consensus)을 사용하였으며, RANSAC은 오매칭쌍이 포함된 데이터에서 모델 파라미터를 추정하거나, 오매칭쌍을 식별하고 제거하는데 사용되는 반복적이고, 강인한 알고리즘이다. RANSAC은 랜덤으로 샘플데이터를 추출하여 매칭쌍을 만족하는 모델을 구성하고, 일정 횟수 또는 매칭쌍(Inlier)의 수가 만족할 때까지 반복하여 오매칭쌍을 제거한다(Fischler and Bolles, 1981).

4. 결 과

RGB 기준 정사영상과 목적 정사영상(RGB, TIR, NIR)에 대한 특징점 추출은 Matlab(Mathworks, 2022)을 이용하였다. AKAZE와 SIFT의 경우 OpenCV 코드를 Matlab에 적용하여 특징점 추출을 수행하였으며, SURF와 BRISK는 Matlab에서 제공되는 코드를 사용하여 특징점을 추출하였다. 먼저 4가지 방법 모두 먼저 특징을 감지하고, 특징점의 계산량을 줄이기 위해 스케일이 2 이상인 특징만 검색하도록 했으며, 특징의 영상 위치와 스케일을 저장한 후 특징점 추출을 진행하였다. 기준 정사영상과 목적 정사영상에 4가지 특징점 방법을 적용하여 특징점을 추출한 후 RANSAC을 통해 오매칭쌍을 제거하고, 최종 매칭쌍을 추출하였다. 오매칭쌍을 제거한 후 연구대상지별 특징점의 개수와 매칭쌍의 개수 결과는 Tables 6, 7과 같다.

Table 6. Results of Study Area A

AKAZE

SURF

BRISK

SIFT

RGB target orthophoto

Feature points

361,337

42,314

78,491

159,117

Matching feature points

185

986

100

195

Inlier

102

89

22

37

Ratio of matching feature points to feature points (%)

0.05

2.33

0.13

0.12

Ratio of lnlier to feature points (%)

0.03

0.21

0.03

0.02

Ratio of inlier to matching feature points (%)

55.14

9.03

22.00

18.97

TIR target orthophoto

Feature points

192,253

42,510

84,098

69,112

Matching feature points

548

587

223

493

Inlier

386

298

113

258

Ratio of matching feature points to feature points (%)

0.29

1.38

0.27

0.71

Ratio of lnlier to feature points (%)

0.20

0.70

0.13

0.37

Ratio of inlier to matching feature points (%)

70.44

50.77

50.67

52.33

NIR target orthophoto

Feature points

281,072

46,512

78,491

127,898

Matching feature points

394

215

126

348

Inlier

197

55

54

36

Ratio of matching feature points to feature points (%)

0.14

0.46

0.16

0.27

Ratio of lnlier to feature points (%)

0.07

0.12

0.07

0.03

Ratio of inlier to matching feature points (%)

50.00

25.58

42.86

10.34

Table 7. Results of Study Area B

AKAZE

SURF

BRISK

SIFT

RGB target orthophoto

Feature points

282,668

18,941

9,852

107,528

Matching feature points

623

824

87

156

Inlier

487

196

37

100

Ratio of matching feature points to feature points (%)

0.22

4.35

0.88

0.15

Ratio of lnlier to feature points (%)

0.17

1.03

0.38

0.09

Ratio of inlier to matching feature points (%)

78.17

23.79

42.53

64.10

TIR target orthophoto

Feature points

131,089

6,580

9,920

24,865

Matching feature points

368

448

152

377

Inlier

169

155

96

166

Ratio of matching feature points to feature points (%)

0.28

6.81

1.53

1.52

Ratio of lnlier to feature points (%)

0.13

2.36

0.97

0.67

Ratio of inlier to matching feature points (%)

45.92

34.60

63.16

44.03

NIR target orthophoto

Feature points

108,519

19,019

74,373

48,364

Matching feature points

485

647

235

466

Inlier

206

181

64

68

Ratio of matching feature points to feature points (%)

0.45

3.40

0.32

0.96

Ratio of lnlier to feature points (%)

0.19

0.95

0.09

0.14

Ratio of inlier to matching feature points (%)

42.47

27.98

27.23

14.59

연구대상지 A, B에서 목적영상 구분없이 특징점을 가장 많이 추출한 방법은 AKAZE이며, 가장 적게 추출한 방법은 SURF이다. 매칭쌍의 경우 연구대상지 A에서 NIR 목적영상을 제외했을 때 SURF가 가장 많은 매칭쌍을 추출했으며, BRISK가 가장 적은 매칭쌍을 추출하였다. 최종 오매칭쌍을 제거 후 inlier은 AKAZE가 가장 많은 매칭쌍을 추출한 것을 확인할 수 있었다. 목적영상 별 매칭쌍에서 오매칭쌍을 제거한 최종 inlier의 비율을 단순 평균했을 때 AKAZE 57.02 %, SURF 28.62 %, BRISK 41.41 %, SIFT 34.06 %로 나타났다. SURF의 경우 특징점 대비 매칭쌍과 오매칭쌍을 제거한 최종 매칭쌍에서의 비율이 좋긴 하지만 매칭쌍에서 오매칭쌍을 제거한 최종 inlier의 비율은 가장 낮은 것을 확인할 수 있었다. 가장 많은 매칭쌍을 추출한 AKAZE의 경우 특징점 대비 매칭쌍과 최종 inlier의 비율이 다른 방법보다 낮거나 비슷한 비율이지만 매칭쌍에서 오매칭을 제거한 후 최종 inlier 비율은 가장 좋은 것을 확인할 수 있었다.

5. 결 론

본 연구는 연구대상지 2곳에 대해 RGB 기준 정사영상을 제작하여 목적 정사영상과의 특징점 추출 성능 비교를 수행하였다. 기준 정사영상과 목적 정사영상(RGB, TIR, NIR)에 총 4가지 특징점 알고리즘을 적용하여 정사영상 기하보정에 효과적인 특징점 추출 방법에 관해 연구를 진행하였다. 기존의 특징점 추출 비교 연구는 무인항공기 단일영상에 대해 특징을 추출하여 비교·평가하였지만, 본 연구에서는 정사영상에 대해 특징점 추출 기법 중 효과적인 방법에 대해 비교·평가를 수행하였다. 특징점 추출 알고리즘을 비교하기 위해 연구대상지별로 다양한 센서에 대한 영상을 취득하였으며, 그 결과 연구대상지 A와 B 모두 AKAZE 방법이 모든 목적영상에 많은 특징점을 추출하였다. 오매칭쌍을 제거한 매칭쌍에서도 AKAZE가 가장 많이 추출되었으며, 4가지 방법 중 AKAZE, SURF, SIFT, BRISK 순서대로 특징점 수와 매칭쌍의 개수가 많이 추출되었다. 특징점 수 대비 매칭쌍을 비교했을 때는 SURF 방법이 가장 높은 비율을 나타냈으며, BRISK 방법이 낮은 비율을 나타냈다. 또한, 특징점 대비 오매칭쌍을 제거한 최종 inlier에서도 SURF가 가장 높은 비율을 보였지만 매칭쌍대비 inlier의 비율은 가장 낮은 것을 확인하였다. AKAZE의 경우 비선형 스케일 공에서 특징점을 검출하며, 기존의 가우시안 필터의 단점인 물체 주변의 윤곽이 부자연스러운 문제를 해결할 수 있어 정사영상 특징 추출에 있어 다른 특징점 기법보다 좋은 결과를 나타낸 것으로 사료된다. 다만, 시간과 특징점 대비 inlier의 비율을 고려했을 때는 SURF가 우수하며, 전체적인 비율을 고려했을 경우 정사영상 특징 추출 및 매칭에 있어서 AKAZE 방법이 좋은 것을 확인하였다. 추후 연구에서는 기존의 특징 추출 기법 대신 딥러닝 기반의 특징 추출에 관한 연구가 필요할 것으로 사료된다.

Acknowledgements

This research was supported by Basic Science Research Program through the National Research Foundation of Korea(NRF) funded by the Ministry of Education(RS-2023- 00274068 and NRF-2020R1I1A3061750) and the Korea Institute of Energy Technology Evaluation and Planning (KETEP), the Ministry of Trade, Industry & Energy (MOTIE) of the Republic of Korea (No. 20224000000150).

This paper has been written by modifying and supplementing the KSCE 2023 CONVENTION paper.

References

1 
"Alcantarilla, P. F., Bartoli, A. and Davison, A. J. (2012). “KAZE features.” Proceedings of Computer Vision-ECCV, 12th European Conference on Computer Vision, Springer, Florence, Italy, pp. 214-227. "DOI
2 
"Alcantarilla, P. F., Nuevo, J. and Bartoli, A. (2013).“Fast explicit diffusion for accelerated features in nonlinear scale spaces.” Proceedings of British Machine Vision Conference (BMVC), BMVA, Bristol, UK. "URL
3 
"Bay, H., Tuytelaars, T. and Van Gool, L. (2006). “Surf: Speeded up robust features.” Proceedings of Computer Vision-ECCV 2006: 9th European Conference on Computer Vision, Springer, Graz, Austria, pp. 404-417, https://doi.org/10.1007/11744023_32."DOI
4 
"Ferrer-González, E., Agüera-Vega, F., Carvajal-Ramírez, F. and Martínez-Carricondo, P. (2020). “UAV photogrammetry accuracy assessment for corridor mapping based on the number and distribution of ground control points.” Remote Sensing, MDPI, Vol. 12, No. 15, 2447, https://doi.org/10.3390/rs12152447."DOI
5 
"Fischler, M. A. and Bolles, R. C. (1981). “Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography.” Communications of the ACM, ACM, Vol. 24, No. 6, pp. 381-395, https://doi.org/10.1145/358669.358692."DOI
6 
"Guan, S., Fukami, K., Matsunaka, H., Okami, M., Tanaka, R., Nakano, H., Sakai, T., Nakano, K., Ohdan, H. and Takahashi, K. (2019). “Assessing correlation of high-resolution NDVI with fertilizer application level and yield of rice and wheat crops using small UAVs.” Remote Sensing, MDPI, Vol. 11, No. 2, 112, https://doi.org/10.3390/rs11020112."DOI
7 
"Hwang, T. and Kim, J. (2018). “A weight map based on the local brightness method for adaptive unsharp masking.” Journal of Korea Multimedia Society, Korea Multimedia Society, Vol. 21, No. 8, pp. 821-828, https://doi.org/10.9717/kmms.2018.21.8.821 (in Korean)."DOI
8 
"Kim, M., Jin, C., Lee, S., Kim, K. M., Lim, J. and Choi, C. (2022). “Calibration of BRDF based on the field goniometer system using a UAV multispectral camera.” Sensors, MDPI, Vol. 22, No. 19, 7476, https://doi.org/10.3390/s22197476."DOI
9 
"Landau, H., Vollath, U. and Chen, X. (2002). “Virtual reference station systems.” Journal of Global Positioning Systems, CPGPS, Vol. 1, No. 2, pp. 137-143. "URL
10 
"Lee, C. H. and Kim, E. M. (2022). “Performance comparison and analysis between keypoints extraction algorithms using drone images.” Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, KSGPC, Vol. 40, No. 2, pp. 79-89, https://doi.org/10.7848/ksgpc.2022.40.2.79 (in Korean)."DOI
11 
"Lee, K. and Lee, W. H. (2022a). “Earthwork volume calculation, 3d model generation, and comparative evaluation using vertical and high-oblique images acquired by unmanned aerial vehicles.” Aerospace, MDPI, Vol. 9, No. 10, 606, https://doi.org/10.3390/aerospace9100606."DOI
12 
"Lee, K. and Lee, W. H. (2022b). “Temperature accuracy analysis by land cover according to the angle of the thermal infrared imaging camera for unmanned aerial vehicles.” ISPRS International Journal of Geo-Information, MDPI, Vol. 11, No. 3, 204, https://doi.org/10.3390/ijgi11030204."DOI
13 
"Lee, K., Park, J., Jung, S. and Lee, W. (2021). “Roof color-based warm roof evaluation in cold regions using a UAV mounted thermal infrared imaging camera.” Energies, MDPI, Vol. 14, No. 20, 6488, https://doi.org/10.3390/en14206488."DOI
14 
"Leutenegger, S., Chli, M. and Siegwart, R. Y. (2011). “BRISK: Binary robust invariant scalable keypoints.” Proceedings of 2011 International Conference on Computer Vision, IEEE, Barcelona, Spain, pp. 2548-2555, https://doi.org/10.1109/ICCV.2011.6126542."DOI
15 
"Liu, X., Lian, X., Yang, W., Wang, F., Han, Y. and Zhang, Y. (2022). “Accuracy assessment of a UAV direct georeferencing method and impact of the configuration of ground control points.” Drones, MDPI, Vol. 6, No. 2, 30, https://doi.org/10.3390/drones6020030."DOI
16 
"Lowe, D. G. (2004). “Distinctive image features from scale- invariant keypoints.” International Journal of Computer Vision, Springer, Vol. 60, pp. 91-110, https://doi.org/10.1023/B:VISI.0000029664.99615.94."DOI
17 
"The MathWorks, Inc. (2022). MATLAB Documentation, Available at: https://ch.mathworks.com/help/matlab/(Accessed: October 4, 2023)."URL
18 
"Makarov, A., Bolsunovskaya, M. and Zhigunova, O. (2018). “Comparative analysis of methods for keypoint detection in images with different illumination level.” Proceedings of MATEC Web of Conferences, EDP Sciences, Online, 01028, https://doi.org/10.1051/matecconf/201823901028."DOI
19 
"Niemiec, A. and Szlachetko, B. (2019). “Real-time aerial mapping by image features extraction and matching.” Proceedings of 2019 Signal Processing Symposium, IEEE, Krakow, Poland, pp. 306-310, https://doi.org/10.1109/SPS.2019.8882051."DOI
20 
"Park, D. and Choi, M. (2009). “An adaptive histogram redistribution algorithm based on area ratio of sub-histogram for contrast enhancement.” The KIPS Transactions: Part B, Korea Information Processing Society, Vol. 16B, No. 4, pp. 263-270, https://doi.org/10.3745/KIPSTB.2009.16-B.4.263 (in Korean)."DOI
21 
"Park, J. H. and Lee, W. H. (2016). “Orthophoto and DEM generation in small slope areas using low specification UAV.” Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, KSGPC, Vol. 34, No. 3, pp. 283-290, https://doi.org/10.7848/ksgpc.2016.34.3.283 (in Korean)."DOI
22 
"Park, J. H., Lee, K. R., Lee, W. H. and Han, Y. K. (2018). “Generation of land surface temperature orthophoto and temperature accuracy analysis by land covers based on thermal infrared sensor mounted on unmanned aerial vehicle.” Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, KSGPC, Vol. 36, No. 4, pp. 263-270, https://doi.org/10.7848/ksgpc.2018.36.4.263 (in Korean)."DOI
23 
"Seong, J. H., Lee, K. R., Han, Y. K. and Lee, W. H. (2019). “Geometric correction of none-GCP UAV orthophoto using feature points of reference image.” Journal of the Korean Society for Geospatial Information Science, Korean Society for Geospatial Information Science, KSGPC, Vol. 27, No. 6, pp. 27-34, https://doi.org/10.7319/kogsis.2019.27.6.027 (in Korean)."DOI
24 
"Sharma, S. K. and Jain, K. (2020). “Image stitching using AKAZE features.” Journal of the Indian Society of Remote Sensing, Springer, Vol. 48, pp. 1389-1401, https://doi.org/10.1007/s12524- 020-01163-y."DOI
25 
"Vural, D., Dell, R. F. and Kose, E. (2021). “Locating unmanned aircraft systems for multiple missions under different weather conditions.” Operational Research, Springer, Vol. 21, pp. 725-744, https://doi.org/10.1007/s12351-019-00455-7."DOI
26 
"Zheng, H., Zhou, X., He, J., Yao, X., Cheng, T., Zhu, Y., Cao, W. and Tian, Y. (2020). “Early season detection of rice plants using RGB, NIR-GB and multispectral images from unmanned aerial vehicle (UAV).” Computers and Electronics in Agriculture, Elsevier, Vol. 169, pp. 105223, https://doi.org/10.1016/j.compag.2020.105223."DOI
27 
"Zhou, J., Pang, L. and Zhang, W. (2021). “Underwater image enhancement method based on color correction and three-interval histogram stretching.” Measurement Science and Technology, IOP Publishing, Vol. 32, No. 11, 115405, https://doi.org/10.1088/1361-6501/ac16ef."DOI