Mobile QR Code QR CODE : Journal of the Korean Society of Civil Engineers

  1. 종신회원 · 교신저자 · 부천대학교 토목공학과 교수 (Corresponding Author ․ Bucheon University ․ pyh@bc.ac.kr)



싱크홀, 지표투과레이더, B-스캔 회색조 이미지, 매개변수, 최적 컨볼루션 신경망, 아키텍처 효율 지수
Shinkhole, Ground-penetrating radar, B-scan grayscale images, Parameters, Optimal convolution neural network, Architecture efficient index

1. 서 론

싱크홀은 내부 지반 침하 및 붕괴 등으로 발생하는 것으로 평가되고 있다. 지하수 추출 및 지하 배수 흐름의 변화와 수도관 파손 등도 싱크홀을 발생시키는 원인으로 고려되며, 싱크홀의 조기 감지가 매우 중요해지고 있다. 싱크홀 감지를 위해 적용되고 있는 물리 탐사 방법은 전기비저항 토모그래피(ERT: Electrical Resistivity Tomography), 지표투과레이더(GPR: Ground Penetrating Radar) 탐사이다.

전기비저항 토모그래피 방법은 전기 저항을 측정하여 지하 구조를 이미지화하는데 널리 사용되고 있으며, 토양 수분 함량, 지하수면, 지하 토양층 조사와 같은 다양한 응용 분야에 적용되고 있다 (Kang et al., 2019). 지표투과레이더 방법은 비접촉 비파괴 기법으로 광범위하게 사용되며, 비접촉 특성과 빠른 스캔 속도 및 3차원 이미징 기능으로 지하 건전성 모니터링에 광범위하게 적용되고 있다(Kang et al., 2019).

지하 매개체들의 상대적 유전율 차이로 전자기파 변화가 발생할 경우 수신 신호의 분석을 통해 이상 현상을 식별할 수 있으나 도로 포장과 같은 상단층으로부터 반사되는 반사파에 의해 지표투과레이더 원시 신호를 해석하기가 어려운 경우가 빈번하고 지하 형상, 지하 습도 변화, 예상치 못한 지하 오염물 등과 같은 까다로운 조건은 데이터 해석을 복잡하게 한다.

획득된 지표투과레이더 데이터의 물리적 해석은 전문가 경험에 의존하게 되며 전문가 의존적 데이터 해석은 시간이 많이 걸리고 신뢰도가 높지 않은 실정이다. 이러한 기술적 어려움을 극복하기 위해 획득된 지표투과레이더 데이터의 특성을 변화시키는 다양한 방법으로 지하 상황을 보다 더 명확하게 분석하기 위한 노력을 해오고 있으나 신호 교란 현상 등에 의해 용이하지 않은 실정이다 (Benedetto et al., 2017; Annan, 1999).

이에 자동화된 지하 물체 감지를 위해 많은 연구자들이 커브렛 변환(curvelet transform), 웨이브렛 변환(wavelet transform) 및 서포트 벡터 머신(support vector machine)과 같은 다양한 신호 처리 기법을 시도하고자 노력하고 있다(Tzanis et al., 2013; Qin et al., 2016; Bailia et al., 2009). 신경망 분류기도 지하 상황을 파악하는 데 널리 사용되고 있으며 Al-Nuaimy et al.(2000)은 지표투과레이더 이미지에서 매립된 시설 등을 감지하는 신경망 분류기를 개발하였으며, Gamba et al.(2000) 또한 지표투과레이더 이미지에서 파이프를 감지하기 위한 신경망을 사용하였다.

Zhang et al.(2016)은 지표투과레이더 B 스캔 이미지에서 진폭 및 시간 지연 특성을 추출하여 기계 학습 기술을 적용하고자 노력하였다. 최근에는 획득된 이미지 데이터 재구성 없이 학습 및 검증할 수 있는 장점을 가지는 컨볼루션 신경망이 싱크홀 감지에 적용되고 있다(Kang et al., 2019). 컨볼루션 신경망은 크게 바닐라 컨볼루션 신경망(vanilla convolutional neural network)과 사전 훈련된 컨볼루션 신경망(pre-trained convolutional neural network)으로 나뉘어진다.

한정된 이미지 데이터에서 최적 특성 추출을 할 수 있는 바닐라 컨볼루션 신경망을 개발하기 위해서는 학습 반복수, 학습 속도, 배치 크기 등의 매개변수나 네트워크 층 수, 각 층의 유닛 크기, 드롭아웃 효과, 이미지 데이터 증식 효과, 옵티마이저 효과, 활성함수 효과 등의 매개변수 튜닝에 많은 노력이 필요하다.

사전 훈련된 컨볼루션 신경망을 활용하여 이미지 특성을 추출할 경우에도 최적 네트워크 선정, 빠른 특성 추출 또는 데이터 증식 까지 적용 가능한 특성 추출 적용 여부, 미세 조정 적용 여부, 분류기 유닛 크기 및 활성함수 종류, 드롭아웃 적용 여부 등을 이미지 데이터 특성에 적합하게 결정하여야 한다.

컨볼루션 신경망은 객체 검출 모델인 SSD(Single Shot Multibox Detector), R-CNN(Region-based Convolutional Neural Network) 등과 객체 분할 모델인 U-Net, FCN(Fully Convolutional Network), DeepLab 등의 백본으로 활용되어 전체 모델 성능에 직접적인 영향을 주고 있다.

본 연구는 GPR B-scan 회색조 이미지의 싱크홀 특성 추출에 최적인 컨볼루션 신경망을 도출하고자 실시되었다. 바닐라 컨볼루션 신경망과 사전 훈련된 컨볼루션 신경망의 최적 매개변수를 분석하고 컨볼루션 신경망 정확도와 연산시간을 고려한 신경망 효율성을 평가하여 GPR B-scan 회색조 이미지에서 싱크홀을 최적으로 감지할 수 있는 컨볼루션 신경망 백본을 도출하였다.

2. 학습 및 검증 이미지 데이터

3차원 지표투과레이더는 다중 송신기 및 수신기 안테나와 데이터 수집 시스템으로 구성된다. 송신기는 고주파 전자파를 방출하고 수신기는 반환된 전자파를 수신한다. 전자파의 일반적인 주파수 범위는 MHz에서 GHz로 대상의 크기와 깊이에 따라 적절한 범위가 선택된다.

기본적으로 고주파는 얕고 작은 표적에 사용되며, 저주파는 더 깊고 큰 표적에 사용된다. 지하에 있는 이상 개체로 인한 전자파 특성의 변화가 있는 경우 유전율 변화나 전자파 특성의 변화가 수신기 안테나로 반사된다. 이러한 반사된 전자파는 데이터 수집 시스템에 의해 수집되고 지하 개체 감지 해석에 활용된다.

3차원 지표투과레이더가 특정 부분을 스캔할 때 일반적으로 Fig. 1과 같이 세 가지 다른 데이터 유형인 A, B, C 스캔을 얻게 된다. A 스캔은 특정 지점의 시간에 따른 시간 영역 정보를 제공한다. x-z 영역의 B 스캔은 스캐닝 경로의 다중 A 스캔에 기반하여 구성된다(Kang et al., 2019).

특정 영역에서 지하 개체로 인해 유전율의 급격한 변화가 있는 경우, Fig. 1(b)와 같이 각 스캐닝 공간 지점에서 지하 개체에서 반사된 전자파의 전파가 다르기 때문에 일반적으로 포물선 모양이 나타난다. 이 포물선은 종종 지하 물체를 감지하는 데 사용된다. 그런 다음 다중 안테나를 사용하여 얻은 B 스캔 이미지를 결합하여 x-y 영역에서 z 축을 따라 깊이를 제시하는 여러 C 스캔 이미지를 얻을 수 있다.

Fig. 1. A, B, C Scan of Ground Penetrating Radar: (a) GPR, (b) A-scan, (c) B-scan, (d) C-scan
../../Resources/KSCE/Ksce.2024.44.3.0385/fig1.png
Fig. 2. GPR B-scan Grayscale Images: (a) Image Segmentation, (b) Shinkhole Image, (c) No Shinkhole Image
../../Resources/KSCE/Ksce.2024.44.3.0385/fig2.png

본 연구에서는 2018년 서울특별시에서 실시한 노면하부 공동탐사 최종보고서의 GPR B-scan 회색조 이미지를 컨볼루션 신경망의 학습 및 검증 데이터로 활용하였다. 확보된 GPR B-scan 회색조 이미지가 충분하지 않은 상황에서, Fig. 2와 같이 지표투과 실시 후 천공으로 실제 싱크홀 존재를 확인한 부분의 GPR B-scan 회색조 이미지를 싱크홀 존재 학습 데이터로 활용하고 동일 이미지에서 싱크홀이 존재하지 않은 부분의 이미지를 싱크홀 미존재 학습 데이터로 활용하였다.

확보된 학습 및 검증 데이터는 274개로, 단순 홀드 아웃 검증(hold-out validation) 방법을 적용하여 학습 데이터 60 %, 검증 데이터 40 %를 사용하였다.

3. 시뮬레이션

본 연구에서는 Fig. 3과 같이 GPR B-scan 회색조 이미지를 학습 및 검증 이미지로 분할하고, 바닐라 컨볼루션 신경망과 사전 학습된 컨볼루션 신경망에 투입하여 싱크홀 감지에 최적인 컨볼루션 신경망과 조건을 분석하였다.

Fig. 3. Derivation of Optimal CNN Backbone for Sinkhole Extraction from GPR B-scan Grayscale Images
../../Resources/KSCE/Ksce.2024.44.3.0385/fig3.png

컨볼루션 신경망의 성능에 영향을 미치는 매개변수는 다양하다. 그 중에서도 손실 최소화에 매우 중요한 옵티마이저로 RMSprop와 Adam을 본 연구에서 적용하였다. 한정된 학습 이미지에서 신경망 과대접합을 최소화하기 위해서는 드롭아웃, 이미지 증식, 신경망 크기 축소, 가중치 규제 추가 등도 활용된다. 본 연구에서는 드롭아웃(Srivastava et al., 2014)과 이미지 증식을 적용하였다. 드롭아웃 비율은 50 %로 설정하였으며, Table 1과 같은 이미지 증식을 고려하였다.

Table 1. Image Generation

Range

Horizontal flip

Rotation (o)

Width shift (%)

Height shift (%)

Shear range (%)

Zoom (%)

0∼20

-0.1∼0.1

-0.1∼0.1

-0.1∼0.1

0.9∼1.1

True

3.1 바닐라 컨볼루션 신경망

GPR B-scan 회색조 이미지에서 싱크홀 특성을 추출하기 위해 본 연구에서 적용한 바닐라 컨볼루션 신경망 구조와 매개변수는 Table 2~3과 같다.

Table 2의 바닐라 컨볼루션 신경망은 4개의 층으로 구성되었으며, 최대값 폴링을 적용하여 특성 맵의 크기를 축소하고 특징을 추출하였다. 각 층에 ReLU 활성화 함수를 적용하고, 이중 분류를 위해 마지막 층에는 활성화 함수로 Sigmoid를 사용하였으며, RMSprop와 Adam 옵티마이저를 적용하였다.

옵티마이저인 RMSprop는 경사하강 알고리즘의 확장으로, 각 매개변수에 대한 단계 크기를 조정할 때 부분 경사의 감쇠 평균을 사용한다. 이를 통해 알고리즘이 초기 경사를 잊어버리고 검색 진행 중에 가장 최근의 경사에만 집중하는 adaptive gradient 알고리즘의 한계를 극복할 수 있다(Kurbiel et al., 2017).

옵티마이저인 Adam은 확률적 경사하강법의 확장으로, 자연어 및 컴퓨터 비전 문제의 희소 경사에 대한 성능을 향상시키기 위해 매개변수별 학습률을 유지하는 adaptive gradient 알고리즘과 가중치에 대한 경사의 크기의 평균을 기반으로 조정된 매개변수별 학습률을 유지하는 옵티마이저 RMSprop 알고리즘의 장점을 가지고 있다(Kingma et al., 2014).

Table 2~3의 바닐라 컨볼루션 신경망 모델에서는 옵티마이저인 RMSprop와 Adam, 그리고 드롭아웃 및 이미지 증식의 적용 여부에 따라 8가지 경우를 시뮬레이션하였으며, 이에 따른 도출된 top-1 검증 정확도와 연산 시간을 Table 5에 정리하였다.

Table 4의 8가지 경우에서 이미지 증식 적용 영향 분석을 위한 결과를 Fig. 4에 정리하였다.

Table 2. Vanilla Convolutional Neural Network

Layer type

Output Shape

Number of Parameters

(Total number of weights)

Conv2D_1

59, 59, 32

416

MaxPooling2D_1

29, 29, 32

0

Conv2D_2

28, 28, 64

8,256

MaxPooling2D_2

14, 14, 64

0

Conv2D_3

13, 13, 128

32,896

MaxPooling2D_3

6, 6, 128

0

Conv2D_4

5, 5, 256

131,328

MaxPooling2D_4

2, 2, 256

0

Flatten

1,024

0

Dense

256

262,400

Dense (sigmoid)

1

257

Table 3. Parameters

Parameters

Name/Value

Activation function

ReLU, Sigmoid

Rate of learning

1 × 10-5

Epochs

500

Batch size

20

Loss function

Binary cross entropy

Optimizer

RMSprop / Adam

Table 4. Considered Analysis Cases of Vanilla Convolution Neural Network

Remark

Case ID

1

2

3

4

5

6

7

8

Optimizer

RMSprop

Adam

Dropout

Image generation

Fig. 4(a)Fig. 4(c)의 이미지 증식 적용으로 인해 학습 정확도와 검증 정확도가 거의 동일하여, 이미지 증식이 적용되지 않은 Fig. 4(b)Fig. 4(d)에서는 과대접합이 발생하지 않고 있다. Fig. 4(c)Fig. 4(d)에서의 옵티마이저 Adam 적용 시, 이미지 증식으로 인한 과대접합 감소 정도가 Fig. 4(a)Fig. 4(b)에서의 옵티마이저 RMSprop 적용 시의 것보다 더 높은 것으로 나타났다. 과대접합을 감소시키는 방법 중 하나인 드롭아웃 적용에 따른 시뮬레이션 결과는 Fig. 5에 정리하였다.

Table 5. Compute Time and Top-1 Validation Accuracy of Vanilla Convolution Neural Network

Remark

Case ID

1

2

3

4

5

6

7

8

Compute time per epoch (sec)

0.83

0.59

0.85

0.61

0.83

0.57

0.83

0.59

Top-1 Validation accuracy (%)

71.8

76.3

70.9

74.5

77.2

77.2

78.2

78.2

Fig. 4. Effect of Applying Image Generation at the Vanilla Convolution Neural Network: (a) Image Generation (RMSprop), (b) No Image Generation (RMSprop), (c) Image Generation (Adam), (d) No Image Generation (Adam)
../../Resources/KSCE/Ksce.2024.44.3.0385/fig4.png
Fig. 5. Effect of Applying Dropout (50 %) at the Vanilla Convolutional Neural Network: (a) Dropout (RMSprop), (b) No Dropout (RMSprop),
../../Resources/KSCE/Ksce.2024.44.3.0385/fig5.png

에포크 150회에 한정하여 분석할 경우, 드롭아웃 미적용 시 약 60회 에포크 이후에 과대접합이 발생하지만(Fig. 5(b)), 드롭아웃 적용 시에는 에포크 100회 정도까지 과대접합이 발생하지 않는 것으로 나타나고 있어, 과대접합을 지연시키는 드롭아웃의 효과를 확인할 수 있다.

GPR B-scan 회색조 이미지에서 싱크홀 특성 추출에 이미지 증식을 적용할 경우(case 1, 3, 5, 7), 필요 연산 시간이 약 40 % 정도 증가하였으나, top-1 검증 정확도 상승이 발생하지 않는 것으로 Table 5에 나타나고 있다. 비용 개념을 고려한 연산 시간과 top-1 검증 정확도를 기반으로 아키텍처 효율 지수(architecture efficient index)를 Eq. (1)과 같이 도출하여, top-1 검증 정확도와 함께 Fig. 6에 나타내었다.

(1)

$Architecture \;efficient \;index=$

$\dfrac{Top-1 \;Validation \;Accuracy}{Compute\;time(second/epoch)}$

Table 2에서 바닐라 컨볼루션 신경망에 옵티마이저 Adam을 적용한 경우, 이미지 증식과 드롭아웃의 적용 여부와 관계없이 거의 동일한 top-1 검증 정확도(77.2~78.2 %)가 case 5~8에서 분석된다. 반면 옵티마이저 RMSprop을 적용한 경우(case 1~4)에는 top-1 검증 정확도(70.9~76.3 %)의 변동폭이 상대적으로 높다. 이는 Fig. 6(a)에서 확인할 수 있다.

Fig. 6(b)의 아키텍처 효율 지수를 살펴보면, 이미지 증식에 따른 연산 시간 증가로 이미지 증식이 고려된 case 1, 3, 5, 7의 아키텍처 효율 지수가 0.83~0.94로, 이미지 증식이 고려되지 않은 case 2, 4, 6, 8의 아키텍처 효율 지수인 1.22~1.35와 비교하여 약 30.3~31.9 % 낮은 것으로 나타났다. Case 1과 3, case 2와 4, case 5와 7, case 6과 8을 각각 비교할 경우, 드롭아웃의 적용으로 인해 연산 시간과 top-1 검증 정확도의 변화가 거의 없어 아키텍처 효율 지수가 거의 동일한 것으로 나타났다.

Fig. 6. Top-1 Validation Accuracy and Architecture Efficient Index: (a) Top-1 Validation Accuracy, (b) Architecture Efficient Index
../../Resources/KSCE/Ksce.2024.44.3.0385/fig6.png

3.2 사전 훈련된 컨볼루션 신경망

사전 훈련된 컨볼루션 신경망은 대량의 데이터 세트에서 미리 훈련된 네트워크이다. 충분히 큰 이미지 데이터 세트로 훈련된 네트워크는 훈련된 이미지와는 완전히 다른 클래스에도 매우 유용하게 활용된다. 특성 추출은 새로운 이미지 데이터 세트에서 특성을 뽑아내는 것으로, 이러한 특성을 바탕으로 맞춤 분류기를 훈련시킨다. 특성 추출은 빠른 특성 추출(fast feature extraction)과 특성 추출(feature extraction)로 나누어진다.

빠른 특성 추출은 많은 연산이 수반되는 합성곱 연산을 한 번만 실행하기 때문에 빠르고 비용이 적게 들지만, 과대접합을 최소화할 수 있는 데이터 증식을 적용할 수 없다. 특성 추출은 사전 훈련된 컨볼루션 신경망 위에 층을 쌓아 확장한 후 새로운 이미지 데이터 세트로 전체 네트워크를 실행한다. 모든 입력 이미지가 매번 합성곱 기반 층을 통과하기 때문에 이미지 증식을 사용할 수 있다.

사전 훈련된 가중치와 함께 사용할 수 있는 딥러닝 모델로는 케라스 홈페이지에서 38개(2023년 12월 30일 기준)의 사전 훈련된 딥러닝 모델을 제시하고 있으며, 최근 컴퓨터 비전 분야에서 널리 사용되는 사전 훈련된 딥러닝 모델은 Resnet50, EfficientNet, Inceptionv3이다.

ResNet50 모델은 마이크로소프트에서 개발되었으며, 기울기 소실 문제를 해결하여 최대 100개의 레이어로 구성된다. EfficientNet은 구글에서 개발한 STOA(state-of-the-art) 모델이며, InceptionV3 모델 또한 구글에서 개발한 모델로서 생성하는 매개변수의 수와 발생하는 계산 비용 측면에서 효율적으로 평가되고 있다. 이러한 3개의 모델 외에 케라스 홈페이지에서 제시하는 VGG, DesNet, MobileNetV2 모델의 성능을 Table 6에 정리하였다.

Table 6에서 EfficientNetB7의 top-1 검증 정확도(84.3 %)가 가장 높지만, GPU 기반 연산 시간(61.6ms)이 가장 높아 정확도와 연산 시간을 종합적으로 고려할 때 신경망 효율이 가장 낮게 된다. 반면에 MobileNetV2는 상대적으로 낮은 top-1 검증 정확도(71.3 %)를 보여주지만, 짧은 연산 시간(3.8 ms)으로 가장 높은 효율을 보여준다.

Table 6. Model Performance

Model

Size

(MB)

Top-1

Accuracy

Top-5

Accuracy

Parameters

Depth

Time(ms) per inference step (GPU)

ResNet50

98

74.9 %

92.1 %

25.6 M

107

4.6

ResNet152

232

76.6 %

93.1 %

60.4 M

311

6.5

EfficientNetB7

256

84.3 %

97.0 %

66.7 M

438

61.6

InceptionV3

92

77.9 %

93.6 %

23.9 M

189

6.9

VGG16

528

71.3 %

90.1 %

138.4 M

16

4.2

VGG19

549

71.3 %

90.0 %

143.7 M

19

4.4

DesNet121

33

75.0 %

92.3 %

8.1 M

242

5.4

DesNet201

80

77.3 %

93.6 %

20.2 M

402

6.7

MobileNetV2

14

71.3 %

90.1 %

3.5 M

105

3.8

*Source : KERAS hompage_KERAS Applications_Available models
Table 7. MobileNets Performance

Model

Top-1 Accuracy

MAdds

Parameters

Latency (ms)

MobileNetV2

72.0 %

300

3.4 M

64

MobileNetV3-Large

75.2 %

219

5.4 M

51

MobileNetV3-Small

67.4 %

56

2.5 M

15.8

Table 8. Simulation Case of Pretrained Convolution Neural Network

Case

Optimizer

Dropout

Image generation

Extraction Type

1

RMSprop

Yes

Yes

feature extraction

2

No

fast feature extraction

3

No

Yes

feature extraction

4

No

fast feature extraction

5

Adam

Yes

Yes

feature extraction

6

No

fast feature extraction

7

No

Yes

feature extraction

8

No

fast feature extraction

MobileNetV2는 모바일 체계에 필요한 낮은 계산 복잡도와 저전력으로도 충분한 정확도를 확보할 수 있는 가벼운 신경망이다 (Howard et al., 2017). 관련하여 MobileNetV3-Large 및 MobileNetV3-Small을 개발하는 등 계속적인 연구가 진행되고 있다(Howard et al., 2019). MobileNets의 성능은 Table 7에 정리하였다.

Table 7에서는 MobileNetV3-Large이 가장 높은 top-1 검증 정확도를 보여주고 있으며, MobileNetV3-Small의 연산 시간이 가장 짧다. 옵티마이저(RMSProp, ADAM) 종류와 드롭 아웃 및 이미지 증식의 적용 여부에 따른 빠른 특성 추출과 특성 추출의 성능을 평가하기 위해 Table 6~7의 모델을 사용하여 Table 8에 8가지 경우의 GPR B-scan 회색조 이미지의 싱크홀 특성 추출 시뮬레이션을 수행하였다. 가장 높은 top-1 검증 정확도가 분석된 VGG19 시뮬레이션 결과를 Fig. 7에 정리하였다.

VGG19 기반 특성 추출에 옵티마이저 RMSprop을 적용할 경우, 드롭아웃이나 이미지 증식의 적용 여부에 관계없이, 에포크 30 이상에서 명확한 과대접합이 발생하는 것을 Fig. 7(a), (c)에서 확인할 수 있다.

반면에, Fig. 7(b), (d)에서는 드롭아웃을 적용한 빠른 특성 추출에 과대접합 정도가 감소하고 오히려 과소접합이 발생하는 양상을 보여준다. 옵티마이저 Adam을 적용할 경우에는 과소 및 과대 접합이 발생하지 않지만 낮은 top-1 검증 정확도를 Fig. 7(e), (f)에서 보여주고 있으며, 빠른 특성 추출을 적용할 경우에는 일정 이상의 에포크부터 명확한 과대접합이 Fig. 7(f), (h)에서 나타난다.

이러한 결과로부터, 동일한 모델에 대해서도 특성 추출 방법과 적용된 옵티마이저 등이 시뮬레이션 결과에 명확한 영향을 미치는 것으로 판단된다. Table 6~7의 사전 훈련된 컨볼루션 신경망의 GPR B-scan 회색조 이미지 싱크홀 특성 추출 top-1 검증 정확도를 Table 9에 정리하였다.

옵티마이저 종류, 이미지 증식 및 드롭아웃 적용 여부, 특성추출 방법에 따라 동일한 신경망에서도 top-1 검증 정확도의 변화가 발생하는 것으로 Table 9에서 분석되고 있다. Table 6의 KERAS 시뮬레이션 결과에서 EfficientNetB7와 MobileNetV2의 top-1 검증 정확도가 각각 84.3 %, 71.3 %로, 이 두 모델의 top-1 검증 정확도의 13 % 차이가 발생하는 것으로 평가되고 있지만, 본 연구에서 도출된 Table 9의 두 신경망 top-1 검증 정확도는 각각 80.9 %, 78.2 %로 거의 차이가 발생하지 않는 것으로 나타났다.

Fig. 7. Simulation Results of VGG19: (a) RMSprop, Dropout, Image Generation, (b) RMSprop, Dropout, Fast Feature Extraction, (c) RMSprop, Image Generation, (d) RMSprop, Fast Feature Extraction, (e) Adam, Dropout, Image Generation, (f) Adam, Dropout, Fast Feature Extraction, (g) Adam, Image Generation, (h) Adam, Fast Feature Extraction
../../Resources/KSCE/Ksce.2024.44.3.0385/fig7.png

이는 KERAS 시뮬레이션 대상 이미지 특성과 시뮬레이션 조건이 본 연구의 GPR B-scan 회색조 이미지의 싱크홀 특성 추출에 사용된 이미지 특성 및 시뮬레이션 조건과 상이하기 때문이다.

모바일 체계에 합당한 MobileNetV2는 Table 9의 5번 시뮬레이션 조건(Adam, Dropout, Image generation, feature extraction)으로 EfficientNetB7와 상응하는 높은 top-1 검증 정확도를 보장할 수 있을 뿐만 아니라 상대적으로 짧은 연산 시간으로 신경망 효율을 강화할 수 있다.

EfficientNetB7, InceptionV3, VGG19, MobileNetV3-Large는 시뮬레이션 조건에 따라 각각 29.8 %, 26.4 %, 31.8 %, 24.6 %의 높은 top-1 검증 정확도 변화가 발생하고 있으므로 해당 신경망을 객체 검출 및 분할 백본으로 적용할 경우에는 매개변수 등의 적용에 신중해야 한다. 본 연구에 활용된 GPU 탑재 컴퓨터의 1 에포크 연산 시간을 Table 10에 정리하였다.

Table 9. Top-1 Validation Accuracy of Pretrained Convolution Neural Network ( %)

Case

ResNet50

ResNet152

EfficientNetB7

InceptionV3

VGG16

VGG19

1

76.4(a)

73.6

80.9(a)

78.2

81.8(a)

84.5(a)

2

70.0(b)

64.5(b)

75.4

64.5

75.4

82.7

3

72.7

71.8

80.0

74.5

80.9

80.9

4

71.8

65.4

74.5

61.8

74.5(b)

80.0

5

74.5

74.5(a)

80.0

76.4

78.2

52.7(b)

6

73.6

70.0

53.6

52.7(b)

77.3

80.9

7

71.8

71.0

76.3

79.1(a)

79.1

67.2

8

71.8

69.1

51.8(b)

61.8

77.2

79.1

(a)-(b) (%)

6.4

10.0

29.8

26.4

7.3

31.8

Case

DesNet121

DesNet201

MobileNetV2 256

MobileNetV2 1024

MobileNetV3 Large

MobileNetV3 Small

1

83.6(a)

75.4

66.3(b)

63.6(b)

55.4(b)

64.5(b)

2

66.4(b)

71.0(b)

70.0

68.2

77.2

68.2

3

80.0

75.4

66.4

67.2

53.6

73.6(a)

4

67.3

71.8

68.2

69.1

78.2

71.8

5

76.3

78.2

80.9(a)

78.2(a)

58.2

71.0

6

71.0

73.6

70.0

72.7

77.3

71.8

7

80.0

79.1(a)

78.2

76.3

57.3

65.4

8

68.2

71.8

70.9

69.1

80.0(a)

72.7

(a)-(b) (%)

17.2

8.1

14.6

14.6

24.6

9.1

Table 10. Compute Time of Pretrained Convolution Neural Network (Second for 1 Epoch)

Case

ResNet50

ResNet152

EfficientNetB7

InceptionV3

VGG16

VGG19

1

0.28(a)

0.51(a)

0.47(a)

0.28(a)

0.28

0.29(a)

2

0.21

0.23(a)

0.27

0.20

0.17

0.18

3

0.28(a)

0.51

0.40

0.28(a)

0.30(a)

0.26

4

0.20(b)

0.23

0.26

0.19

0.16(b)

0.18

5

0.28(a)

0.38

0.37

0.28(a)

0.27

0.15

6

0.21

0.22(b)

0.25

0.19

0.16(b)

0.16

7

0.28(a)

0.37

0.38

0.27

0.27

0.26

8

0.20(b)

0.22(b)

0.24(b)

0.18(b)

0.19

0.14(b)

((a)-(b))/(b) (%)

40.0

131.8

95.8

55.5

87.5

107.1

Case

DesNet121

DesNet201

MobileNetV2 256

MobileNetV2 1024

MobileNetV3 Large

MobileNetV3 Small

1

0.74(a)

0.48(a)

0.31(a)

0.27

0.29(a)

0.28(a)

2

0.18(b)

0.23

0.20

0.29(a)

0.25

0.20

3

0.30

0.48(a)

0.28

0.28

0.29(a)

0.29

4

0.21

0.23

0.18(b)

0.30

0.22

0.20

5

0.29

0.34

0.28

0.27

0.29(a)

0.28(a)

6

0.18(b)

0.21(b)

0.18(b)

0.20

0.17

0.18

7

0.29

0.35

0.28

0.29(a)

0.29(a)

0.28(a)

8

0.18(b)

0.21(b)

0.19

0.18(b)

0.15(b)

0.17(b)

((a)-(b))/(b) (%)

311.1

128.5

72.2

61.1

93.3

64.7

Table 10에서 시뮬레이션 조건에 따라 동일한 신경망에서도 연산 시간 변화가 나타나고 있다. DesNet121은 적용된 시뮬레이션 조건에 따라 연산 시간이 최대 311.1 % 변화하는 것으로 분석되었다. Eq. (1)에 따른 아키텍처 효율 지수를 Table 11에 정리하였다.

각 신경망의 최대 아키텍처 효율 지수는 2.81에서 5.45 사이로, 모델 간에 최대 1.94배의 차이가 발생함을 Table 11에서 분석하고 있다. 시뮬레이션 조건에 따라 연산 시간과 top-1 검증 정확도가 변화하면서 아키텍처 효율 지수가 변화하며, 이 변화가 낮을수록 모델이 강건한 것으로 판단된다.

Table 11의 결과를 통해 각 모델의 시뮬레이션 조건 변화에 따른 아키텍처 효율 지수 변동 정도를 살펴보면, DesNet121 및 MobileNetV3-Large에서 각각 246.0 %, 177.4 %의 높은 변동이 있어 이 모델들을 GPR B-scan 회색조 이미지의 싱크홀 객체 검출 및 분할 백본으로 사용할 때는 시뮬레이션 조건 적용에 특히 주의해야 할 것으로 분석된다.

InceptionV3의 아키텍처 효율 지수 변화는 22.6 %로 가장 낮아 가장 강건한 모델로 평가된다. Table 9에서 분석된 top-1 검증 정확도와 Table 11의 아키텍처 효율 지수를 정리한 결과는 Table 12와 같다.

Table 12를 종합적으로 고려할 때, 상위 25 %의 top-1 검증 정확도(81.1 % 이상)와 상위 25 %의 아키텍처 효율 지수(4.32)를 동시에 충족하는 VGG19 및 VGG16이 GPR B-scan 회색조 이미지의 싱크홀 특성 추출 백본으로 상대적으로 높은 효율성을 갖는 것으로 나타나고 있다. 또한, GPR 내재 기반 실시간 B-scan 회색조 이미지의 싱크홀 특성 추출을 위해서는 MobileNet 중 MobileNetV3-Large가 가장 적합하다고 평가된다.

Table 11. Architecture Efficient Index

Case

ResNet50

ResNet152

EfficientNet B7

InceptionV3

VGG16

VGG19

Vanilla CNN

1

2.72

1.42

1.72(b)

2.78

2.89

2.90

0.87

2

3.22

2.72

2.71

3.22

4.35

4.46

1.29

3

2.55

1.38(b)

2.0

2.65(b)

2.70(b)

3.03

0.83(b)

4

3.50

2.74

2.81(a)

3.12

4.57

4.37

1.22

5

2.57

1.95

2.16

2.71

2.81

3.52

0.93

6

3.49

3.13(a)

2.09

2.73

4.69(a)

4.82

1.35(a)

7

2.49(b)

1.89

2.0

2.83

2.86

2.54(b)

0.94

8

3.58(a)

3.05

2.15

3.25(a)

4.01

5.45(a)

1.33

((a)-(b))/(b) (%)

43.7

126.8

63.3

22.6

73.7

114.5

62.6

Case

DesNet121

DesNet201

MobileNetV2 256

MobileNet

V2 1024

MobileNet

V3 Large

MobileNet

V3 Small

Vanilla

CNN

1

1.13(b)

1.55

2.14(b)

2.28

1.91

2.25(b)

0.87

2

3.64

2.98

3.49

2.33

3.00

3.42

1.29

3

2.60

1.54(b)

2.30

2.41

1.82(b)

2.55

0.83(b)

4

3.16

3.06

3.66

2.27(b)

3.56

3.45

1.22

5

2.64

2.24

2.82

2.82

1.99

2.48

0.93

6

3.91(a)

3.47(a)

3.75(a)

3.48

4.39

3.93

1.35(a)

7

2.72

2.27

2.72

2.63

1.97

2.28

0.94

8

3.74

3.41

3.60

3.77(a)

5.05(a)

4.20(a)

1.33

((a)-(b))/(b) (%)

246.0

125.3

75.2

66.0

177.4

86.6

62.6

Table 12. Architecture Efficient Index and Maximum Top-1 Validation Accuracy

Model

Architecture Efficient Index

Top-1 Validation Accuracy (%)

Vanilla CNN

1.35

78.2

ResNet50

3.58

76.4

ResNet152

3.13

74.5

EfficientNetB7

2.81

80.9

InceptionV3

3.25

79.1

VGG16

4.69

81.8

VGG19

5.45

84.5

DesNet121

3.91

83.6

DesNet201

3.47

79.1

MobileNetV2

3.75

80.9

MobileNetV3-Large

5.05

80.0

MobileNetV3-Small

4.20

73.6

4. 결 론

본 연구에서는 GPR B-scan 회색조 이미지의 싱크홀 특성 추출에 최적의 컨볼루션 신경망 백본을 결정하기 위해 바닐라 컨볼루션 신경망과 사전 훈련된 컨볼루션 신경망을 시뮬레이션하였다.

바닐라 컨볼루션 신경망에서는 이미지 증식의 적용에 따른 과대접합 감소 정도가 옵티마이저 종류에 따라 상이하며, 드롭아웃의 적용으로 과대접합을 지연시키는 효과를 확인하였다. 이미지 증식의 적용으로 인한 연산 시간 증가 등으로 인해 top-1 검증 정확도와 연산 시간을 동시에 고려한 아키텍처 효율 지수가 감소하며, 이미지 증식을 적용하지 않고 드롭아웃만 적용되는 경우에는 옵티마이저 RMSprop과 Adam에서 아키텍처 효율 지수가 최대인 것으로 평가 되었다.

GPR B-scan 회색조 이미지의 싱크홀 특성 추출 백본에 바닐라 컨볼루션 신경망을 적용할 경우, 옵티마이저 Adam과 이미지 증식 미적용이 가장 효율적인 것으로 나타났다.

사전 훈련된 컨볼루션 신경망은 바닐라 컨볼루션 신경망보다 2배 이상의 효용성을 갖는 것으로 평가되었으며, 사전 훈련된 컨볼루션 신경망의 top-1 검증 정확도와 연산 시간을 종합적으로 평가한 결과, 특성 추출보다는 빠른 특성 추출에서 낮은 과대접합이 발생하는 것으로 나타났다. 또한, 신경망 종류와 시뮬레이션 조건에 따라 top-1 검증 정확도와 연산 시간이 상이하며, 본 연구에서 분석한 사전 훈련된 컨볼루션 신경망 중 InceptionV3가 GPR B-scan 회색조 이미지 감지에 가장 강건한 신경망으로 평가되었다.

Top-1 검증 정확도와 아키텍처 효율 지수를 동시에 고려할 경우, VGG19와 VGG16가 GPR B-scan 회색조 이미지의 싱크홀 특성 추출 백본으로 상대적으로 높은 효율성을 갖는 것으로 나타났으며, GPR 내재 기반 실시간 B-scan 회색조 이미지의 싱크홀 특성 추출에는 MobileNetV3-Large 백본이 적합한 것으로 분석되지만, MobileNetV3-Large 백본 적용 시 시뮬레이션 조건에 따라 top-1 검증 정확도와 연산 시간의 변동폭이 크게 발생하는 부분이 고려되어야 한다.

References

1 
"Al-Nuaimy, W., Huang, Y., Nakhkash, M., Fang, M. T. C., Nguyen, V. T. and Eriksen, A. (2000). “Automatic detection of buried utilities and solid objects with GPR using neural networks and pattern recognition.” Journal of Applied Geophysics, Vol. 43, pp. 157-165, https://doi.org/10.1016/S0926-9851(99)00055-5."DOI
2 
"Annan, A. (1999). “Practical processing of GPR data.” Mississauga, ON, Canada, Sensors & Software."URL
3 
"Bailia, J., Lahouara, S., Herglia, M., Al-Qadi, I. L. and Besbes, K. (2009). “GPR signal denoising by discrete wavelet transform.” NDT & E International, Vol. 42, No. 8, pp. 696-703."DOI
4 
"Benedetto, A., Tosti, F., Ciampoli, L. and D’Amico, F. (2017). “An overview of ground-penetrating radar signal processing techniques for road inspections.” Signal Process, pp. 201-209."DOI
5 
"Gamba, P. (2000). “Neural detection of pipe signatures in ground penetrating radar images.” IEEE Trans Geosci Remote Sens, pp. 790-797."DOI
6 
"Howard, A. G., Zhu, M., Chen, B., Kalenichenko, D., Wang W., Weyand, T., Andreetto, M. and Adam, H. (2017). “MobileNets : Efficient convolutional neural networks for mobile vision applications.” arXiv preprint, https://arXiv.org/abs/1704.04861v1."URL
7 
"Howard, A., Sandler, M., Chu, G., Chen, L.-C., Chen, B., Tan, M., Wang, W., Zhu, Y., Pang, R., Vasudevan, V., Le, Q. V. and Adam, H. (2019). “Searching for MobileNetV3.” arXiv preprint, https://arXiv.org/abs/1905.02244v5."URL
8 
"Kang, M. S., Kim, N., Lee, J. J. and An, Y. K. (2019). “Deep learning-based automated underground cavity detection using three-dimensional ground penetrating radar.” Structural Health Monitoring, Vol. 19, No. 1, pp. 173-185, https://doi.org/10.1177/1475921719838081."DOI
9 
"Kingma, D. P. and Ba, J. (2014). “ADAM: A method for stochastic optimization.” Proceedings of 3rd International Conference for Learning Representations, San Diego, USA, 2015, arXiv preprint, https://arxiv.org/abs/1412.6980."URL
10 
"Kurbiel, T. and Khaleghian, S. (2017).“Training of deep neural networks based on distance measures using RMSProp.” arXiv preprint, https://arxiv.org/abs/1708.01911."URL
11 
"Qin, Y. and Huang, C. (2016). “Identifying underground voids using a GPR circular-end bow-tie antenna system based on a support vector machine.” International Journal of Remote Sensing, pp. 876-888, https://doi.org/10.1080/01431161.2015.1137990."DOI
12 
"Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I. and Salakhutdinov, R. (2014). “Dropout : A simple way to prevent neural networks from overfitting.” Journal of Machine Learning Research, Vol. 15, pp. 1929-1958."URL
13 
"Tzanis, A. (2013). “Detection and extraction of orientation-and- scale-dependent information from two-dimensional GPR data with tuneable directional wavelet filters.” Journal Applied Geophysics, Vol. 89, pp. 48-67, https://doi.org/10.1016/j.jappgeo.2012.11.007."DOI
14 
"Zhang, Y., Huston, D. and Xia, T. (2016). “Underground object characterization based on neural networks for ground penetrating radar data.” Proceedings of the International Society for Optics and Photonics, pp. 1-9."DOI