Mobile QR Code QR CODE : Journal of the Korean Society of Civil Engineers

  1. 정회원 ․ 건국대학교 대학원 기술융합공학과 박사과정 (Konkuk University ․ jsm302@konkuk.ac.kr)
  2. 건국대학교 사회환경공학부 학사과정 (Konkuk University ․ hjh8560@konkuk.ac.kr)
  3. 정회원 ․ 교신저자 ․ 건국대학교 사회환경공학부 교수 (Corresponding Author ․ Konkuk University ․ eoandrew@konkuk.ac.kr)



영상복원, 고해상도 SAR 영상, 영상변환, CycleGAN, Pix2pix
Image restoration, High-resolution SAR image, Image translation, CycleGAN, Pix2pix

1. 서 론

정해진 궤도에 따라 거동하는 광학 위성은 기상에 상당한 영향을 받으므로 사용자의 요구사항에 충족하지 못하는 제약이 발생할 수 있다. 이것은 시계열 분석이나 환경모니터링과 같은 활용에 어려움을 주게 된다. 이러한 문제점을 해결하는 방안으로 모의영상 제작 연구가 진행 중이며 최근에는 딥러닝 기반 모의영상을 통한 복원연구가 꾸준히 진행되고 있다(Li et al., 2020; Darbaghshahi et al., 2022; Won and Eo, 2022). 특히, Won and Eo(2022)는 영상변환 딥러닝 알고리즘인 CycleGAN(Cycle Generative Adversarial Networks) 기반의 동종 광학 영상 간 학습으로 모의영상을 생성하였으며, 영상의 색상 정보를 유지하고 구름 폐색영역을 복원하였다.

한편, SAR 영상은 구름 및 에어로졸 등 대기 물질을 투과하여 지상 촬영이 가능하므로 구름 폐색영역 복원 시 적합한 자료이며, 해당 영상을 참조한 광학영상을 모의하는 연구가 증가하고 있다(Lee and Chung, 2022; Lee et al., 2021; Ji et al., 2021; Park et al., 2023). Park et al.(2023)은 위성영상 기반 작물 구분도를 통해 초기 성장단계의 작물을 분류하고자 Convolutional Generative Adversarial Networks(CGANs) 알고리즘으로 Sentinel-1 영상을 광학 위성영상과 학습하여 구름 없는 모의영상을 생성하였다. 또한, Ku and Chung(2018)은 CycleGAN 모델에서 판별기 신경망의 구조를 일부 변경하여 영상을 다중 크기로 판별하는 MS(Multi-Scale) CycleGAN 알고리즘을 제안하였으며, 색상 정보가 부재한 SAR 영상을 참조할 때 학습 불안정성을 감소시키기 위하여 사용되었다. 이는, 광학영상을 모의하기 위한 SAR 영상의 참조 시 색상 정보의 충분한 학습이 중요함을 알 수 있다.

SAR 영상은 대기 및 빛의 양 등 광학영상의 촬영 조건에서도 제한적이지 않다. 또한, 구름있는 광학영상과 동일한 시간의 지상 정보를 획득할 수 있으므로 딥러닝 학습을 위한 참조 자료로 적합함을 알 수 있다. 그러나, 앞서 언급한 이전 연구들은 비교적 해상도가 낮은 중해상도의 SAR 영상을 사용하여 고해상도 광학영상 내 구름에 가려진 형상을 구현하기 어려움이 있다. 그러므로, 본 논문에서는 광학영상 내 구름 폐색영역을 복원하기 위하여 1 m급 SAR 영상을 활용한 딥러닝 기반 영상 모의 방법론을 제시하였다. 적용 알고리즘의 종류 및 SAR 영상의 전처리 방법에 따라 두가지 방법을 제안하였으며, 기존 방법을 포함하여 모의영상을 생성하고 히스토그램 비교 및 통계적 지수 산출 등으로 원 영상과의 유사성을 비교 분석하였다.

2. 연구방법 및 적용 알고리즘

2.1 연구방법

광학영상을 모의하기 위하여 고해상도 SAR 영상을 참조한 딥러닝 기반의 영상변환 및 컬러화를 수행하였고, ‘Image-to- Image Translation’ 분야의 CycleGAN 및 Pix2pix 알고리즘을 사용한 방법을 제안하였다.

우선 단일 알고리즘을 사용하는 방법으로, CycleGAN 모델로부터 영상변환 및 컬러화 과정을 수행한다. CycleGAN은 두 도메인이 적대적으로 상대 도메인과 닮은 가짜 데이터를 생성하고, 생성한 가짜 데이터를 진짜 데이터와 판별하는 구조이다. 해당 과정을 반복하여 손실 값이 최소화된 영상을 모의하고자 한다. 한편 다중 알고리즘을 사용하는 방법은 CycleGAN 모델로부터 영상변환 후 Pix2pix 알고리즘 기반의 컬러화 모델로부터 색상을 모의하였다. 이 컬러화 모델은 짝이 있는(Paired) 하나의 도메인으로부터 영상 생성 및 판별 과정을 학습하여 가짜 데이터를 모의한다.

다중 알고리즘을 사용하는 방법은 컬러화 과정에 Pix2pix 알고리즘을 적용하므로 단일 밴드의 흑백영상을 모의해야 한다. CycleGAN 모델로부터 도출할 단일 밴드의 흑백영상은 Gray-scale 영상을 사용하였다. 이 방법에서는 Gray-scale 영상을 활용하고자 광학영상이 보유한 Red, Green, Blue 밴드의 평균 화소 값을 산출하였다. 그리고 광학영상을 SAR 영상의 특성과 유사한 흑백의 단일 밴드 영상으로 변환하기 위하여 입력 형태에 따라 Pix2pix 알고리즘의 일부 구조를 수정하였다. 해당 실험에서는 CycleGAN 및 Pix2pix 알고리즘 기반의 모의영상을 생성하였다. 생성한 모의영상은 원 영상과의 유사성을 비교하고, 시각적인 분석뿐만 아니라 통계적 지수를 산출하여 결과를 분석하였다.

2.2 CycleGAN 기반 위성영상 변환 알고리즘

CycleGAN은 순환과정을 의미하는 ‘Cycle’과 ‘GAN’의 합성어로 Zhu et al.(2017)가 제안하였다. 해당 알고리즘은 두 개의 도메인을 동시에 학습할 수 있도록 각각 두 개의 생성기(Generator) 및 판별기(Discriminator) 신경망을 보유한다. 즉, A, B Image가 Fake B Image와 Fake A Image를 생성하기 위하여 두 개의 GAN 알고리즘이 동시에 작용하는 것으로, 짝이 지어지지 않은(Unpaired) 데이터도 학습할 수 있는 장점을 보유한다.

Fig. 1은 실험을 위한 CycleGAN 학습 흐름도를 나타내었다. 학습 데이터는 광학영상과 SAR 영상이며 각각 Train A, B와 Train D로 구분하였다. 단일 알고리즘 방법의 경우 Train A의 광학영상과 Train D의 SAR 영상을 학습하고자 데이터 입력 시 SAR 영상의 밴드 수를 확장하여 광학영상과 동일하도록 수정하였다. 반면, 다중 알고리즘 방법의 경우 광학영상을 단일 밴드의 흑백영상으로 대체하여 SAR 영상의 추가적인 처리없이 진행하였다.

Fig. 1. CycleGAN-based Simulation Image Production Flow of This Study
../../Resources/KSCE/Ksce.2024.44.1.0125/fig1.png

2.3 Pix2pix 기반 흑백영상 컬러화 알고리즘

본 논문에서는 La*b* 색 공간을 활용한 딥러닝 기반의 Pix2pix 알고리즘을 사용하여 광학영상의 색상을 구현하였다. Pix2pix는 Isola et al.(2016)이 제안한 GAN 기반의 알고리즘으로, 짝이 지어진(Paired) 데이터를 사용하여 지도 학습이 가능하다. 해당 알고리즘은 CycleGAN 모델을 통하여 도출한 Gray-scale 모의영상을 컬러화할 수 있도록 학습하였다. 컬러영상 변환을 위하여 사용된 La*b* 색 공간은 수식으로 계산된 값을 사용하므로 매체마다 표현되는 값이 다른 RGB 색 공간보다 정확한 값을 구현할 수 있다. La*b* 색 공간을 활용한 Pix2pix 기반의 컬러화 모델은 RGB 영상에서 L-band 영상을 생성하여 a*b* 밴드와 닮은 가짜 a*′b*′밴드를 생성한다. 해당 a*′b*′밴드와 모의 기준인 L-band 영상을 합성한 La*′b*′영상은 RGB 색 공간으로 재변환되어 가짜 R′G′B′영상을 생성한다.

Pix2pix 알고리즘은 CycleGAN 알고리즘과 다르게 짝이 지어진 두 데이터 간의 사상(Mapping)을 학습하며 생성기, 판별기 신경망을 한 번씩 지나 결과물을 도출한다는 차이점이 존재한다. 본 알고리즘의 사용 목적은 색상을 학습하는 것이므로 영상을 구성하는 패턴이나 텍스쳐, 색상의 분포 등 전반적인 Context를 고려하는 PixelGAN을 적용하였다. 컬러화 모델은 입력 영상의 RGB(Red, Green, Blue) 밴드로부터 Gray-scale 영상을 생성하고, 해당 영상을 3 밴드로 복제한 GGG(Gray-scale, Gray-scale, Gray-scale) 영상으로부터 La*b* 영상을 생성하였다.

3. 실험 및 학습자료 구축

3.1 실험자료 획득 및 전처리

실험자료는 Fig. 2, Fig. 3와 같이 구름 폐색영역을 포함한 광학영상으로 KOMPSAT-3A 영상을, 학습 시 참조 데이터로 사용한 고해상도 SAR 영상은 COSMO-SkyMed 4 영상을 사용하였다. Fig. 2에 나타낸 광학영상은 2015년 10월 7일에 촬영된 2.2 m의 공간해상도를 보유한 영상이며, 촬영 지역은 인도 뭄바이의 공항 부근이다. 실험자료로는 Red, Green, Blue 밴드를 합성하여 3 밴드의 tiff 형식 14bit 영상을 사용하였다. Fig. 3에 나타낸 SAR 영상은 2012년 4월 1일 촬영되었으며, 1 m의 공간해상도를 보유한 16bit 고해상도 영상이다. 촬영 지역은 광학영상과 동일하지만, 두 Raw Data는 이종 위성영상이므로 딥러닝 알고리즘의 입력 데이터로 사용하기 위하여 전처리 과정이 필요하다.

본 연구에서는 실험자료인 두 위성영상의 서로 다른 방사 해상도 및 기하 정보를 조정하는 전처리 과정을 수행하였다. CycleGAN 기반 학습에 사용될 두 데이터는 동일한 화소 값 범위를 가질 때 상대 도메인의 화소와 유사한 값을 모의할 수 있다. 또한, Pix2pix 기반 학습 과정 중 변환되는 La*b* 색 공간의 영상은 일반적으로 8-bit 영상을 취급하므로 두 실험 영상을 8-bit로 변환하여 실험하였다. 다음으로, 기하보정을 진행하였으며, 공간해상도가 다른 경우 Pixel Size도 함께 변환되는 점을 고려하여 비교적 높은 해상도인 SAR 영상을 기준으로 수행하였다. 본 실험에서는 1차 다항식으로 수동 기하보정을 진행하였으며, 광학영상은 기존 SAR 영상에 정합하여 겹치는 영역을 기준으로 7680×7168 크기의 영상을 추출하여 실험에 사용하였다. SAR 영상의 스펙클 (Speckle)을 제거하기 위하여 ‘Multi-look’ 과정과 ‘Filtering’ 과정을 수행하였다. 본 실험에서는 3개의 Multi-look을 적용하였고, Filtering 과정에서는 3×3 커널의 ‘Gamma Filter’를 사용하였는데, 이는 영상 내 객체들의 Edge를 유지하기 위한 가장 효율적인 방법으로 사용되었다(Seo et al., 2018).

Fig. 2. KOMPSAT-3A Image Used in the Experiment
../../Resources/KSCE/Ksce.2024.44.1.0125/fig2.png
Fig. 3. COSMO-SkyMed SAR Image Used in the Experiment
../../Resources/KSCE/Ksce.2024.44.1.0125/fig3.png

3.2 입력 데이터 생성

본 연구는 광학영상 내 구름 폐색영역을 복원하고자 두가지 방법에 대하여 실험하였다. 이때, 각 방법에 따라 광학영상으로부터 서로 다른 형태의 입력 영상을 생성해야 한다. 단일 알고리즘 방법은 CycleGAN 알고리즘으로 영상변환 및 컬러화 과정을 동시에 수행하므로 기존의 3 밴드 광학영상을 사용하였다. 반면, 다중 알고리즘 방법에서는 CycleGAN 알고리즘 기반의 영상변환 과정 후 Pix2pix 알고리즘 기반의 컬러화를 진행하므로, 단일 알고리즘 방법과 달리 컬러화 모델에 입력할 흑백의 광학영상을 도출해야 한다. 다중 알고리즘 방법에서는 광학영상의 평균 화소 값을 계산하여 Gray-scale 영상을 생성하였다.

3.3 딥러닝 학습을 위한 데이터세트 구축

실험영상은 학습 전 패치 영상으로 분할하여 Train Data와 Test Data로 구분하였다. CycleGAN 모델에서의 Train Data는 구름을 포함하지 않는 패치 영상들로 구성해야 하며, Test Data는 구름이 포함된 패치 영상들로서 변환이 필요하다. Pix2pix 모델에서의 Train Data는 색상을 학습해야 하므로 Red, Green, Blue 밴드를 보유한 광학영상의 패치 영상들로 구성하였다. 이때, 구름 폐색영역을 포함한 패치 영상들은 모델 학습에 악영향을 미치므로 CycleGAN 모델의 Test Data를 동일하게 학습 데이터에서 제거하였다. 데이터세트의 패치 영상들은 제한된 실험환경으로 인하여 512×512 크기로 설정하였다.

CycleGAN 모델의 데이터세트는 Fig. 4와 같이 한 영상에서 획득할 수 있는 216장의 패치 영상들로 구성하였다. 총 216장의 패치 영상 중 62장의 영상들을 Test Data로, 그 외 구름이 포함되지 않은 154장의 영상들은 Train Data로 사용하였다. 이때, Test Data는 Fig. 4 내 파란색으로 나타내었으며 모의 성능 분석을 위하여 구름이 없는 패치 영상 8장을 포함하고 있다. 다중 알고리즘 방법의 Pix2pix 모델에 필요한 Test Data는 CycleGAN 모델로부터 변환된 모의영상으로 구성되며 Train Data는 3 밴드의 광학영상을 사용하였다. 해당 Train Data는 한 도메인으로 학습되므로 SAR 영상과 겹치지 않는 영역을 포함할 수 있다. 이러한 이유로 154장의 Train Data에 226장을 추가하여 총 380장의 Train Data를 구성하였다. 이때, Test Data에 포함된 패치 영상은 제외하였다.

해당 실험은 Python 3.7.9 버전에서 수행하였으며, 머신러닝 라이브러리인 Pytorch 기반의 오픈소스를 사용하였다. 원활한 실험을 위하여 가상환경을 생성할 수 있는 Anaconda 기반으로 실험하였다.

Fig. 4. Train Data and Test Data for CycleGAN Experiments
../../Resources/KSCE/Ksce.2024.44.1.0125/fig4.png

4. 실험 결과 및 분석

CycleGAN 모델 학습 시 하이퍼파라미터(Hyper-parameter)는 경험적으로 설정하였으며, 결과 및 분석을 위하여 도출한 실험 결과는 동일하게 Epoch 350, Learning Rate 0.0005, Batch Size 1을 사용하였다. 또한, Network 상의 Convolution Layer와 Pooling Layer를 통과하여 Feature Map을 도출하는 과정에서 필요한 Pool Size는 20으로 설정하였다. Fig. 5는 광학영상의 데이터셋 중 구름 폐색영역을 포함한 5, 6, 7번 패치 영상들로 실험 결과 비교를 위하여 삽입하였다. 실험결과, 단일 알고리즘 모의영상은 CycleGAN 모델로부터 영상변환 및 컬러화 과정을 수행하여 Fig. 6와 같은 결과를 도출하였다. 해당 영상은 구름으로 가려진 영역을 복원하기는 했으나 건물의 형상이 모호하게 표현되었으며, 전체적으로 어두운 색상을 보유하고 있어 지형지물의 구분이 어렵다. 또한, 특정 색상만 도출되어 시각적으로 부자연스러움을 확인할 수 있다. 다중 알고리즘 모의영상은 Gray-scale 영상과 SAR 영상의 CycleGAN 모델로부터 영상변환 후 Pix2pix 모델 기반의 컬러화를 진행하였으며 Fig. 7에 나타내었다. 해당 모의영상은 단일 알고리즘 모의영상보다 비교적 건물의 형상이 구현되었으며 도로 및 지형을 유사하게 모의하였다.

Fig. 8은 다중 알고리즘 방법론을 통하여 모의영상 생성과정을 나타내었으며, 원격탐사 분야에서 대표적으로 사용되는 히스토그램 매칭 영상을 생성하여 CycleGAN 실험 결과를 비교 분석하였다. 히스토그램 매칭 영상은 고해상도 SAR 영상에 광학영상으로부터 생성한 Gray-scale 영상의 화소 값을 매칭시킨 것으로 Fig. 8(b), (f) 영상과 같다. 해당 영상의 경우 원 영상과 매우 유사한 히스토그램 분포를 나타낼 수 있지만 구름 폐색영역에 대한 복원은 불가능하며 그림과 같이 동일한 전처리 과정을 진행했음에도 불구하고 고해상도 SAR 영상의 스펙클에 큰 영향을 받는다.

시각적 분석뿐만 아니라 정량적인 분석을 진행하고자 두 방법론을 통하여 도출한 모의영상과 원 영상 간의 R², RMSE 및 PSNR을 산출하였다. 이때, 원 영상에서 구름이 존재하지 않는 패치 영상 기준으로 분석하고자 Fig. 4의 41, 42, 43, 45, 46, 57, 59, 62번 패치 영상을 사용하였으며 Table 1에 나타내었다.

8장의 패치 영상에 대한 두 평가지표의 평균값을 비교하였을 때, R² 값은 다중 알고리즘 방법이 약 0.61로 우수하고 RMSE도 약 6.9872으로 좋은 결과를 도출하였다. 반면, 단일 알고리즘 방법의 경우 약 0.3232의 R² 값과 약 10.7354의 RMSE를 나타내 두 지표에서 상대적으로 낮은 값이 도출되었다. PSNR은 영상 유사도 지표로서 원 영상 화소 값의 손실량을 확인하고자 산출하였으며, 손실이 적을수록 큰 값으로 표현된다. 그 결과, 다중 알고리즘 방법론에서 평균 약 31.3960을 도출하여 상대적으로 원 영상과의 손실량이 적음을 알 수 있다.

실험결과, Fig. 9(a) 영상 내 구름 폐색영역에 대한 복원은 다중 알고리즘 적용 결과에서 높은 모의 유사성을 보였으며 Fig. 9(b)에서 결과 영상을 확인할 수 있다. 광학영상의 Gray-scale 영상은 고해상도 SAR 영상이 보유한 정보량과 유사하여 충분한 학습이 가능하다.

Fig. 5. Patch Images of KOMPSAT-3A: (a) Patch 5, (b) Patch 6, (c) Patch 7
../../Resources/KSCE/Ksce.2024.44.1.0125/fig5.png
Fig. 6. Simulation Results of Single Algorithmic Method for Patches Images: (a) Patch 5, (b) Patch 6, (c) Patch 7
../../Resources/KSCE/Ksce.2024.44.1.0125/fig6.png
Fig. 7. Simulation Results of Multiple Algorithmic Method for Patches Images: (a) Patch 5, (b) Patch 6, (c) Patch 7
../../Resources/KSCE/Ksce.2024.44.1.0125/fig7.png
Fig. 8. Examples of Experimental Results of Multiple Algorithmic Method
../../Resources/KSCE/Ksce.2024.44.1.0125/fig8.png
Fig. 9. Simulated Images Generated by Applying Multiple Algorithmic Methods: (a) Original Image, (b) Simulated Image
../../Resources/KSCE/Ksce.2024.44.1.0125/fig9.png
Table 1. R², RMSE and PSNR of Single and Multiple Algorithmic Methods

ROI

Single Algorithm

Multiple Algorithms

RMSE

PSNR

RMSE

PSNR

41

0.2091

9.7043

28.3915

0.4013

6.7383

31.5598

42

0.2214

9.1883

28.8661

0.5031

6.1104

32.4094

43

0.3318

11.0416

27.2701

0.7254

6.6709

31.6471

45

0.3172

9.1412

28.9107

0.6227

7.4419

30.6972

46

0.3783

13.6835

25.4069

0.7405

7.5658

30.5537

57

0.3999

10.2315

27.9320

0.6683

6.5570

31.7967

59

0.4068

11.7526

26.7281

0.6031

7.2850

31.8656

62

0.3207

11.1405

27.1927

0.6147

7.4924

30.6384

Average

0.3232

10.7354

27.5873

0.6099

6.9827

31.3960

5. 결 론

본 논문은 고해상도 SAR 영상과 광학 위성영상 간의 CycleGAN 및 Pix2pix 알고리즘을 통하여 구름 폐색영역에 대한 지형정보를 획득하고자 영상을 모의하였다. 또한, 적용 알고리즘의 종류 및 입력 데이터 형태에 따라 구분, 모의영상을 도출하여 비교 분석하였다. 기존 CycleGAN 모델에 기반한 영상변환 및 컬러화 과정을 동시에 진행하는 방법은 일반적인 광학영상과 달리 색상 정보가 부족한 SAR 영상으로 인하여 모의 성능이 좋지 않았다. 이러한 문제점을 극복하고자 SAR 영상과 유사한 정보량을 가진 흑백영상으로 CycleGAN 모델 기반 영상변환 후 Pix2pix 모델 기반 컬러화 과정을 진행한 방법을 제안하였다.

일반적인 Gray-scale 영상으로 두 데이터가 보유한 화소 값의 정보량이 유사하도록 진행하였으며, 실험 결과, 영상변환 및 컬러화 과정을 분할하여 진행할 때 원 영상의 정보 손실률을 감소시킬 수 있음은 물론 지형지물의 형상을 비교적 뚜렷하게 복원할 수 있음을 시각적으로 확인하였다. 또한, 통계적 지수를 사용한 정량적 분석 결과, 모델 성능 평가 지표인 R² 값은 약 0.6099, RMSE는 약 6.9827의 평균값을 나타내었고 영상 유사성 지표인 PSNR 값은 31.3960으로 나타났다. 이는 고해상도 SAR 영상과 동일한 화소 범위를 가진 Gray-scale 영상을 활용하여 원 영상과 가장 유사한 형상을 학습할 수 있었고, 지도 학습이 가능한 Pix2pix 모델을 통하여 충분한 학습이 가능하였기 때문으로 판단하였다. 고해상도 광학영상의 경우 모의하고자 하는 SAR 영상과의 촬영기하의 불일치 정도가 모의정확도에 크게 영향을 줄 수 밖에 없으므로 이에 대한 추가적인 연구가 필요하다. SAR 관측위성 수의 급속한 증가와 지속적인 운영계획이 수립되고 있어서 본 연구와 같이 학습자료 부족으로 인한 한계는 해결될 것으로 기대한다.

Acknowledgements

This work was supported by the National Research Foundation of Korea (NRF) grant funded by the Korea government (MSIT) (No. 2019R1A2C1085618).

References

1 
"Darbaghshahi, F. N., Mohammadi, M. R. and Soryani, M. (2022). “Cloud removal in remote sensing images using generative adversarial networks and SAR-to-optical image translation.” IEEE Transactions on Geoscience and Remote Sensing, IEEE, Vol. 60, pp. 1-9, https://doi.org/10.1109/TGRS.2021.3131035."DOI
2 
"Isola, P., Zhu, J. Y., Zhou, T. and Efros, A. A. (2016). “Image-to-image translation with conditional adversarial networks.” arXiv: 1611.07004, https://doi.org/10.48550/arXiv.1611.07004."DOI
3 
"Ji, G., Wang, Z., Zhou, L., Xia, Y., Zhong, S. and Gong, S. (2021). “SAR image colorization using multidomain cycle-consistency generative adversarial network.” IEEE Geoscience and Remote Sensing Letters, IEEE, Vol. 18, No. 2, pp. 296-300, https://doi.org/10.1109/LGRS.2020.2969891."DOI
4 
"Ku, W. and Chung, D. (2018). “The method for colorizing SAR images of Kompsat-5 using cycle GAN with multi-scale discriminators.” Korean Journal of Remote Sensing, KSRS, Vol. 34, No. 6, pp. 1415-1425, https://doi.org/10.7780/kjrs.2018.34.6.3.8 (in Korean)."DOI
5 
"Lee, S. Y. and Chung, D. W. (2022). “Labeling dataset based colorization of SAR images using cycle GAN.” The Journal of Korean Institute of Electromagnetic Engineering and Science, KIEES, Vol. 33, No. 10, pp. 776-783, https://doi.org/10.5515/KJKIEES.2022.33.10.776 (in Korean)."DOI
6 
"Lee, J. H., Kim, K. and Kim, J. H. (2021). “Design of CycleGAN model for SAR image colorization.” Proceedings of 2021 IEEE VTS 17th Asia Pacific Wireless Communications Symposium (APWCS), IEEE, Osaka, Japan, pp. 1-5, https://doi.org/10.1109/APWCS50173.2021.9548749."DOI
7 
"Li, J., Wu, Z., Hu, Z., Zhang, J., Li, M., Mo, L. and Molinier, M. (2020). “Thin cloud removal in optical remote sensing images based on generative adversarial networks and physical model of cloud distortion.” ISPRS Journal of Photogrammetry and Remote Sensing, Elsevier, Vol. 166, pp. 373-389, https://doi.org/10.1016/j.isprsjprs.2020.06.021."DOI
8 
"Park, N. W., Park, M. G., Kwak, G. H. and Hong, S. (2023). “Deep learning-based virtual optical image generation and its application to early crop mapping.” Applied Sciences, MDPI, Vol. 13, No. 3, 1766, https://doi.org/10.3390/app13031766."DOI
9 
"Seo, D. K., Kim, Y. H., Eo, Y. D., Lee, M. H. and Park, W. Y. (2018). “Fusion of SAR and multispectral images using random forest regression for change detection.” International Journal of Geo-Information, MDPI, Vol. 7, No. 10, 401, https://doi.org/10.3390/ijgi7100401."DOI
10 
"Won, T. and Eo, Y. D. (2022). “An experiment on image restoration applying the cycle generative adversarial network to partial occlusion Kompsat-3A image.” Korean Journal of Remote Sensing, KSRS, Vol. 38, No. 1, pp. 33-43, https://doi.org/10.7780/kjrs.2022.38.1.3."DOI
11 
"Zhu, J. Y., Park, T., Isola, P. and Efros, A. A. (2017). “Unpaired image- to-image translation using cycle-consistent adversarial networks.” arXiv: 1703.10593, https://doi.org/10.48550/arXiv.1703.10593."DOI