Mobile QR Code QR CODE : Journal of the Korean Society of Civil Engineers

  1. 정회원․부산대학교 사회환경시스템공학과 박사과정, 국토안전관리원 기업성장응답센터 과장, 공학석사 (KALIS․ws87@kalis.or.kr)
  2. 종신회원․교신저자․국토안전관리원 디지털혁신추진단 빅데이터전략팀 팀장, 공학박사 (Corresponding Author․KALIS․hyunjun.jung@kalis.or.kr)
  3. 국토안전관리원 안전성능연구소 정책연구실 차장, 공학박사 (KALIS․pkh2989@kalis.or.kr)
  4. 정회원․국토안전관리원 안전성능연구소 기술개발실 직원, 공학석사 (KALIS․kcm0555@kalis.or.kr)
  5. 종신회원․국토안전관리원 경영본부 경영관리실 실장, 공학박사 (KALIS․gskim@kalis.or.kr)



딥러닝, 의미론적 분할 모델, Mask-RCNN, 손상탐지, 평가 프로토타입 프로그램
Deep learning, Semantic segmentation model, Mask-RCNN, Damage detection, Evaluation prototype program

1. 서 론

최근 시설물의 안전점검(진단) 시 인력 접근이 어려운 부재를 평가하기 위해 영상 분석을 통한 시설물을 점검하는 기술 연구가 활발히 진행 중이다. 특히, 드론과 같은 무인기(Unmanned Aerial Vehicle, UAV)를 활용한 촬영과 고해상도 영상을 분석하여 점검하는 기술은 점검자의 안전성과 조사결과의 신뢰성을 확보할 수 있다.

영상정보를 활용하여 교량의 외관조사를 수행하는 기존 연구는 대부분 콘크리트 표면의 균열을 검출하는 것으로 국한되어 왔다. 그 이유로는 노후 교량의 손상 유형 대부분이 균열로부터 파생되기에 이를 조기에 탐지하고 유지관리 하는 것이 매우 중요하기 때문이다. 또한, 대부분 Canny, Crack-Forest, FFA-Net (Feature Fusion Attention Network), 그래프 합성곱 신경망(Gragh Convolutional Network, GCN)과 같은 경계선 검출 기반 알고리즘과 머신러닝 기술로, 각종 손상유형을 명확히 분류하는데 한계가 있다. 그리고 머신비전을 이용하는 경우 균열과 박락, 열화, 부식 등 교량 손상의 종류를 판단하는 각각의 분류기를 학습한 후 다수의 분류기를 클러스터링 하는 기술이 적용될 수 있다. 그러나 각각의 분류기를 학습하기 위한 다양한 학습데이터를 구축하는 과정이 어렵고, 학습된 교량영상의 표면 재질과 형태가 조금만 달라도 성능저하가 커 이를 바로 실무에 적용하기는 어려운 수준이다. 이러한 문제의 해결을 위해 최근 딥러닝(Deep-Learning) 기술을 이용한 시설물 평가 기법연구가 활발히 진행되고 있다. 기존 점검자의 육안점검으로부터 적용된 상태평가 기준에 영상정보를 활용한 딥러닝 기반 교량 상태평가 기술을 적용하기 위해서는 딥러닝을 위한 학습데이터 구축과 손상정보 데이터 구축, 손상위치 탐지, 손상유형 판단, 손상 정량화 등의 기술이 요구된다.

따라서, 본 논문은 영상정보를 활용한 딥러닝 기반 손상탐지 개발로 균열과 박리·박락 등 콘크리트 교량에 대한 손상을 정량화할 수 있는 프로토타입 프로그램 개발하였다.

2. 연구동향 및 분석

Fig. 1과 같이 딥러닝 프레임워크는 Caffe, CNTK, TensorFlow, Theano, Torch, MXnet, Chainer, Keras 등이 있으며, 분석과 예측할 대상에 따라 대상에 맞는 프레임워크를 선택하면 좋은 결과를 얻을 수 있다. 영상정보를 활용한 분류, 특정 객체를 검출하는 부분에서 합성곱 신경망(Convolutional Neuron Networks, CNN)이 우수한 성능을 보이며, 이를 지원하는 프레임워크를 사용하면 좋은 결과를 얻을 수 있다.

Fig. 1. Deep-Learning Framework Trends
../../Resources/KSCE/Ksce.2022.42.1.0107/fig1.png

Table 1과 같이 교량 손상 영역을 검출하기 위한 딥러닝 알고리즘은 크게 객체 분류 모델, 객체 검출 모델, 분할 모델을 적용방법으로 나눌 수 있다.

윈도우 슬라이딩 기법을 이용한 객체 분류모델 적용방법은 교량 영상을 작은 크기의 윈도우로 분할한 뒤 각각 CNN에 입력하여 손상의 종류를 판별한다. 국내에서는 시설물의 다양한 손상에 대한 탐지 기법 연구가 수행 중인데, 대표적으로 Lee et al.(2018)은 딥러닝을 이용하여 콘크리트 구조물 박락을 탐지하였다. 웹스크레이핑(Web Scraping) 기법으로 인공신경망 학습에 필요한 다양한 콘크리트 무손상 ‧ 손상 이미지들을 수집하고 학습 데이터를 구축하였다. 딥러닝 학습을 위해서는 방대한 양의 학습데이터가 필요하므로, 네트워크 학습을 위해 기존에 개발된 딥러닝 기반 이미지 분류기인 AlexNet을 초기 모델로 하여, 학습된 데이터를 활용하여 미세조정을 수행하는 전이학습을 통해 이미지 내에서 자동으로 박락 탐지를 수행할 수 있는 CNN을 개발하였다.

Hoskere et al.(2017)은 DCNN (Deep Convolutional Neural Networks)을 이용하여, 시설물의 콘크리트 균열, 콘크리트 박리, 보강재 노출, 강재 부식, 강재 균열 및 아스팔트 균열 총 6가지 손상 유형을 검출하고 픽셀단위 분할을 수행하는 연구를 하였다.

입력 이미지 스케일이 변경되는 것을 방지하기 위해 입력 이미지인 RGB 가우시안 피라미드를 3개 레이어로 구성하였으며, 분할을 위해 학습 시 단순정보만 입력하는 것이 아닌 True Label 데이터를 입력하였다. 네트워크 구조는 다음 Fig. 2와 같이 손상분류에는 변형된 VGG19를 사용하였으며, 분할는 Resnet23을 사용하였다.

Yang et al.(2017a)Fig. 3과 같이, CCNY LAB에서 UAV를 이용하여 교량 영상 촬영을 자동화하고, 교량의 균열과 박락을 검출하는 연구에 적용된 딥러닝 모델을 나타내었다. 이는 해상도 변화에도 우수한 특징을 가지고 있는 FVGG 네트워크 모델을 사용하였으며, 학습을 위해 447개의 균열 및 박락 영상과 위치 라벨로 구성된 CSSC Database를 구축하였다. Table 2는 두 논문에서 다룬 이미지에 대한 손상 종류 및 방법 등을 분류·비교 및 본 연구에 참조한 사항이다.

Table 1. Comparing Characteristics by Deep-Learning

Classification

Classification Network

Detect Network

Segmentation Network

Alex

Net

Google

Net

Res

Net

R-CNN

SSD

YOLO V3

Mask R-CNN

Year

2012

2015

2015

2015

2015

2017

2017

Layer No.

5

22

23, 45

160

11

106

50, 101

Classification Network

AlexNet

GoogleNet

ResNet23,

ResNet45

AlexNet,

ResNet

Reduced VGG-16

DarkNet53

ResNet50,

ResNet101

Processing Speed (mm)

250

125

22

470

Algorithm

Inception module

Residual

block

Region proposal

Multi-scale feature maps

Global box reasoning

FPN

Top-5 Error (%)

16.4

7.3

6.7

Precision (mAP)

31

22

29

42

Study Data

Volume

Small amount of study data

Middle

amount of study data

Large

amount of study data

Middle

amount of study data

Large

amount of study data

Large

amount of study data

Small

amount of study data

Table 2. Comparison Results of Papers on Damage Type and Analysis Method

Classification

Hoskere et al.(2017)

Yang et al.(2017a)

Type of damage

Concrete crack, exfoliation, rebar exposure, steel corrosion, steel crack, asphalt crack

Concrete crack, exfoliation

Deep learning model

ResNet-23 (classification) + VGG19 (detection)

FVGG (2 of VGG16)

Note

Complex Damage Detection

Facility evaluation system structure

Fig. 2. Application Results of Damage for Structure Using DCNN (Hoskere et al., 2017)
../../Resources/KSCE/Ksce.2022.42.1.0107/fig2.png
Fig. 3. Automation System Configuration and Deep-Learning Model of FVGG (Yang et al., 2017a)
../../Resources/KSCE/Ksce.2022.42.1.0107/fig3.png

3. 딥러닝 기법을 통한 콘크리트 손상탐지 개발 방법

3.1 빅데이터 구축

딥러닝 학습을 위해서는 학습 데이터양과 질이 매우 중요하다. 학습데이터는 학습, 검증, 테스트 3가지 세트로 구성되며, 일반적으로는 학습데이터와 검증데이터 비율을 약 8:2 비율로 구축한다. 학습데이터 구축 시 재질과 조명, 각도 등의 다양한 조건에서 촬영된 교량 영상을 포함하여 학습데이터에만 지나치게 학습하는 과적합 문제가 발생하지 않도록 해야 한다.

학습데이터의 수를 증가시키기 위해 이미지 분할(Image Segmentation)과 이미지 변형(Image Transformation) 기술을 적용해야 한다. 즉, 전체 이미지를 작은 이미지로 분할하거나, 3방향 회전(90°, 180°, 270°)과 상·하, 좌·우 반전, 밝기 조절, 블러링 등을 이용하여 데이터 수를 증가시킨 경우 거짓 긍정(False Positive) 빈도는 높아질 수 있지만 거짓 부정(False Negative)은 줄어드는 효과가 있다. 교량 상태평가 경우 손상을 놓치는 경우 상태평가에 문제가 발생할 수 있으므로 재현율을 높이는데 초점을 맞추어 학습데이터를 구축해야 한다. 따라서, 딥러닝을 활용한 손상탐지 모델에 대한 학습데이터 구축을 위해 Table 3과 같이 영상정보의 데이터 분류체계를 작성하였다.

Table 3. Classification of Image Data for Visual Safety Inspection

Classification

purpose

Importance

Example

Damage Type

Study-DB

Essential

one-way crack

Damage member

Study-DB

Essential

Concrete

Damage Position

Study-DB

Essential

pier lower part

Marked status

Study-DB

Essential

Marked chalk of damaged position

Bridge name

Analysis

Ordinary

OO bridge

Structure type

Analysis

Ordinary

reinforced concrete slab

Filming temperature

Analysis

Low

36 ℃

GPS Information

Building Big-Data

Low

37.510985, 126.998466

Distance information

quantification

High

60 cm

Angle of shooting

quantification

High

180° (front)

3.2 전이학습

전이학습(Transfer Learning)은 특정 환경에서 기존에 학습된 인공신경망을 다른 목적의 비슷한 응용분야에 적용하기 위해 일부 조정하여 사용하는 것을 말한다. 전이학습은 학습 데이터가 부족한 경우 적용될 수 있으며, 이미지 분류를 위한 인공지능 모델개발과 학습시간을 단축시킬 수 있고, 검증된 정확도의 모델을 활용할 수 있다는 장점이 있다. 즉, 방대한 데이터로부터 학습된 모델은 이미지의 전체적인 특징과 세부적인 특징들을 추출할 수 있게 된다.

3.3 손상검출방법

교량의 손상 영역을 검출하기 위한 방법은 크게 윈도우 슬라이딩 기법을 이용한 객체 분류 모델과, 객체 검출 모델, 분할 모델로 나눌 수 있다.

윈도우 슬라이딩 기법을 이용한 객체 분류모델은 교량 영상을 작은 크기의 윈도우로 분할한 뒤 각각 CNN에 입력하여 손상의 종류를 판별한다. 각각의 윈도우에 CNN을 적용한 결과로 확률 맵(Probability Map)을 생성할 수 있다. 이때 손상이 윈도우 경계에 위치하는 경우에 탐지가 불가능한 문제를 해결하기 위해 가로·세로 50 % 만큼 중첩이 되도록 윈도우를 생성한다.

교량 손상을 검출하기 위한 4 K (3,840×2,160) 이상의 고해상도 영상을 이용하는 경우에 224×224 크기의 중첩 윈도우 적용 시 600개 이상의 윈도우에 대해 CNN을 적용해야하므로 실시간 처리의 한계가 있다. 따라서 윈도우 슬라이딩 단계 이후, 정량화를 위한 픽셀단위로 손상을 검출하기 위해서는 이미지 프로세싱 기법을 이용한다. Fig. 4는 윈도우 슬라이드 기법의 교량 손상 검출 시나리오를 나타내었다.

객체 검출 모델 적용 시 한 장의 이미지에 대해 한 번의 처리로 객체를 검출할 수 있으므로 실시간 처리가 가능한 장점이 있다. 그러나 검출 결과가 객체의 모든 경계를 포함하는 최소 크기의 경계 박스이므로 균열의 검출에는 적합하지 않다. 즉, 균열의 경우 이미지 내에서 불규칙하게 이어져 있으므로 경계 박스 형태로 검출 시 이미지 전체 영역이 검출되는 문제가 있다. 또한, 원본 이미지를 작은 사이즈로 축소 후 처리하므로 크기가 작은 손상은 검출이 불가능한 문제가 발생할 수 있다.

Fig. 4. Scenario of Bridge Damage Detection Using Window Sliding Method
../../Resources/KSCE/Ksce.2022.42.1.0107/fig4.png

앞서 설명한 모델은 객체 탐지 이후에 픽셀 단위 손상 검출을 위해 이미지 프로세싱 기법을 적용해야한다. 이 또한 촬영조건과, 손상의 종류에 따라 매우 복잡한 문제가 될 수 있다. 반면, 분할 모델은 경계박스 형태가 아닌 픽셀단위로 객체탐지가 가능한 모델이며, 대표적으로 의미론적 분할 모델(Mask Regions with Convolutional Neuron Networks, Mask R-CNN)와 Unet이 있다. Mask R-CNN은 기존 객체 검출 모델 중 하나인 Faster R-CNN은 예측 단계를 추가한 모델이고, Unet은 메디컬 분야에서 널리 사용되는 분할 모델이다.

Mask R-CNN과 Unet 모두 객체의 검출(Detecting)-분류(Classification)-분할(Segmentation)이 실시간으로 가능한 것이 장점이다. Mask R-CNN의 경우 Unet에 비해 입력 및 출력 이미지의 크기가 약 2배정도 크다는 장점이 있고, Unet의 경우 검출 속도가 더 빠르다는 장점이 있다.

3.4 손상 정량화

교량 상태평가에서 정량화는 검출된 손상 영역의 실제 크기를 계측하는 기술을 의미한다. 이를 위해서는 영상 내에서 손상영역을 픽셀단위로 검출하는 단계가 선행되어야 하며, 검출된 픽셀을 실제 거리 단위로 변환하는 과정이 필요하다. 주어진 영상에서 픽셀을 실 거리 단위로 변환하기 위한 방법은 크게 세 가지로 나눌 수 있다.

첫째로, 영상 촬영 시 기준거리가 되는 체커보드를 교량 외각에 부착 후 촬영하는 방법이다. 촬영 된 영상 내의 체커보드를 통해 픽셀 당 실제 거리를 유추해 낼 수 있으며, 체커보드의 모양을 이용하여 왜곡 보정이 가능하다.

둘째로, 교량 구조물의 실제 거리정보의 입력을 통한 거리 계산 방법이다. 예를 들어 교각의 경우, 교각의 실제 너비 값을 이용해 손상의 크기를 계산할 수 있다.

셋째, 영상 촬영 시 깊이 맵을 획득 가능한 스테레오 카메라 혹은 ToF 카메라를 사용하는 방법이다. 픽셀간의 거리를 정확하게 계산할 수 있으므로 가장 정확한 정량화가 가능하다는 장점이 있고 카메라의 깊이 맵 획득 범위 이내에서 촬영해야 한다는 제한성이 있다.

세 가지 방법을 비교해 보면, 첫 번째 방법은 영상 촬영 시 마다 체커보드를 부착해야 하며, 정확도를 높이기 위해서는 체커보드의 크기 또한 커져야 하므로 현실적인 적용이 불가능하다. 세 번째 방법은 정확도는 가장 높지만 특수한 카메라를 사용해야 하는 점에서 범용적으로 적용하기에는 한계가 있다. 따라서 정량화를 위해서 두 번째 방법이 가장 적합하다고 판단되며, 본 논문에서의 실구조물의 거리정보를 입력 할 수 있도록 프로토타입을 개발하였다.

3.5 소결

본 논문에서는 손상(균열, 망상균열, 박리/박락, 철근노출)의 학습데이터를 구축하였으며, 손상탐지에서의 네거티브 샘플인 시공이음부, 줄눈, 교각 등 미관을 위한 형상들은 학습데이터로 활용하지 않았다. 학습데이터는 손상검출 및 정량화에 문제가 발생하지 않도록 최대 1024×1024 픽셀로 학습하였고, 고화질의 데이터의 경우 윈도우 슬라이딩 기법을 활용하여 이를 극복하였다. 또한, 손상 정량화를 픽셀 값으로 도출하기 위해 정밀한 레이블링이 필요하며 이를 위해 각 학습영상데이터의 손상에 대한 픽셀 레이블링을 진행하였다.

4. 딥러닝 기반 교량 손상탐지 프로토타입 프로그램 개발

4.1 딥러닝 모델 선정

본 논문에서는 교량 상태평가를 위해 픽셀단위의 정확한 손상 검출 및 정량화가 가능한 분할 모델이 가장 적합하다고 판단하였으며, Semantic Segmentation 모델 중 가장 보편적이고 성능이 우수하다고 알려진 Unet과 Mask R-CNN을 검토하였다. Mask R-CNN의 경우, 기본 입력 사이즈가 1000×800 픽셀로 U-net에 비해 상대적으로 크고 적은 양의 학습데이터로도 전이학습이 가능하다. 또한, 손상검출-분류-픽셀단위 검출을 동시에 수행, 이미지 전체에 대해 한 번에 검출가능(4 K 기준 0.5초) 등의 장점(Table 4)이 있어, 본 논문에서는 Mask R-CNN을 선정하여 교량 상태평가 프로토타입을 개발하였다.

Table 4. Reasons for Applied Deep-Learning

Item

Contents

Method of deep learning

Mask R-CNN

Reason of selection

Small amount of study data, fast detection rate, quantifiable

4.2 학습데이터 구축 및 레이블링

학습데이터의 손상은 콘크리트의 균열, 망상균열, 박리/박락, 철근노출이며, 정밀안전진단 세부지침에 따라 기준을 선정하였다. 균열의 경우 폭 0.1 mm이상~1.0 mm미만 범위, 망상균열은 0.1 mm이상~0.3 mm미만에 손상에 대하여 기준을 선정하였다. 망상균열의 경우 손상이 0.3 mm 이상일 때 콘크리트 박리가 발생하여 이 이상 검출에 대해서는 고려하지 않았다. 박리/박락, 철근노출의 경우는 조사단위면적에 따라 손상발생 면적을 계산하여 표면손상 면적율로 기준을 선정하였다. 교량 손상탐지 프로토타입 프로그램에 사용한 학습데이터 수는 총 5,140장을 적용하였다. 수집한 외관조사 영상 중에 손상유형이 뚜렷하지 않거나 손상과 백묵이 겹쳐져 있는 경우, 손상유형을 판단 할 수 없는 영상데이터는 제외하였으며, 기존 연구에서 활용한 오픈데이터(Table 5)와 자체취득 영상 중 적합한 데이터를 선별하여 학습에 활용하였다.

양질의 학습데이터 활용 및 확보를 위해 Fig. 5와 같이 데이터 정제 작업을 수행하였다. 최대 1024×1024 픽셀 단위로 손상이 명확하게 구분되도록 하였고, 복합 손상 영상데이터에서는 정제작업을 통해 고화질의 단일 손상 학습데이터를 확보하였다. 학습에 활용한 데이터 수는 Table 6과 같으며, 손상별로 균열은 3,400장, 망상균열 240장, 박리·박락 및 철근노출 1,500장을 활용하였다.

향후 손상탐지의 정확도와 정밀도를 높이기 위해서는 정제된 학습데이터가 손상 당 최소 약 3~5천장이 필요하며, 이미지에 대한 픽셀별 손상이 정교하게 레이블링 된다면 결과에 대한 신뢰성을 충분히 확보할 것으로 판단된다.

Mask R-CNN, 이미지 분할 딥러닝 기술을 위한 학습데이터 생성 시에는 Oxford 대학 연구실에서 제공하는 Web 기반 레이블링 툴인 VIA (VGG Image Annotator)를 이용하였다. 또한, 균열, 박리/박락, 철근노출, 케이블 도장/박리 등의 학습을 위한 데이터 레이블링을 수행하였다. Fig. 6과 같이, 손상 범위에 대해 레이블링을 하면 결과 혹은 손상 범위에 대해 검출하여 오차가 발생된다. 따라서 최대한 균열 등의 손상을 정확하게 검출하기 위해 손상 윤곽 내부를 더욱 정밀하게 픽셀단위로 레이블링(Fig. 7)하였다.

Table 5. Open Database

Open Database

Damage species

Picture number

Remarks

CCNY CSSC DataSet

(Yang et al., 2017a; Yang et al., 2017b)

Bridge crack, stripping

RGB: 447

Label: 447

Various cracks, stripping images provided

SDNET2018 (UtahStateUniversity)

(Dorafshan et al., 2016; Dorafshan et al., 2018a; Dorafshan et al., 2018b)

bridges, concrete walls, 0.06 mm to 25 mm Crack a hole, fragment, obstacle, etc.

T: 47,608

F: 8,484

Crack Detection Data Set for Deep Learning CNN

Concrete Crack Images for Classification

(Zhang et al., 2016)

concrete wall crack

T: 20,000

F: 20,000

crack classification

Machine Learning Data

CrackForest-dataset

(Cui et al., 2015; Shi et al., 2016)

road crack

T: 329

non-normalized image

Amhaz, R et al. (AigleRN, ESAR, LCMS, LRIS, TEMPEST2)

(Amhaz et al., 2016)

crack close-up imaging

T: 271

crack close-up imaging

Bridge-MINDER Project Dataset

(Li et al., 2017)

road crack

T: 179

Provides performance comparison results of crack detection algorithm

Table 6. Deep-Learning Labeling and Study Data Volume for Deep-Learning

Classification

Crack

Reticulum Crack

stripping and exfoliating

Data number

3,400 EA

240 EA

1,500 EA

Fig. 5. Data Refinement Methods and Results
../../Resources/KSCE/Ksce.2022.42.1.0107/fig5.png
Fig. 6. Setting of Wrong Labeling
../../Resources/KSCE/Ksce.2022.42.1.0107/fig6.png
Fig. 7. Setting of Proper Labeling
../../Resources/KSCE/Ksce.2022.42.1.0107/fig7.png

4.3 프로토타입 프로그램 개발 시나리오 작성

본 논문에서 개발한 프로토타입은 Fig. 8과 같이 총 4단계로 영상 로드, 기준거리 입력, 정량화, 보고서로 분류하였다.

영상입력 단계에서는 분석하고자 하는 영상과 부재 및 면적에 대해 입력한다. 그리고 기준거리 입력은 손상 정량화에 대한 평가를 위해 대상 구조물의 실측값을 기준값으로 활용하여 픽셀 1개에 대해 실제 수치로 환산하는 단계로 손상 정량화가 가능하도록 기입하였다. 마지막, 보고서 단계에서는 정량화된 수치에 따라 영상에 표현된 시설물 범위와 손상 기반의 시설물 등급과 손상 수치, 위치 등이 표현되도록 작성하였다.

Fig. 8. Scenario of Development of Bridge Damage Detection Prototype Program based on Deep-Learning
../../Resources/KSCE/Ksce.2022.42.1.0107/fig8.png

4.4 교량 상태평가 프로토타입 프로그램 결과

4.4.1 교량 상태평가 프로토타입 프로그램 성능 검토

본 논문에서 개발한 프로토타입에 대한 성능 검토를 위해 콘크리트 균열, 박리/박락, 철근노출을 검증 대상으로 선정하였으며, 영상기반 딥러닝 알고리즘 성능 검증지표인 정밀도(precision)와 재현율(recall)을 통하여 알고리즘 성능 검증을 실시하였다. 또한, Tables 7 and 8과 같이 정밀도와 재현율을 확인하기 위해서 True Positive (TP), False Positive (FP), False Negative (FN), True Negative (TN)로 분류하고 성능 값을 산정하였다. 콘크리트 균열, 박리/박락, 철근노출 영상 학습데이터 5,140장과 510장의 테스트 데이터로 구성하여 검증한 결과, 정밀도는 95.2 %, 재현율은 93.8 % 나타났다. 콘크리트의 균열, 박리/박락, 철근노출 등 이미지를 통해 손상 검출한 결과는 Table 9, Fig. 9와 같다. 본 논문에서는 기존 다수의 연구 및 논문의 성능 검토를 위한 정밀도, 재현율 검증과 더불어 실제 균열과의 크기 비교 및 부재 단위의 손상률 등으로 2차 검증을 실시하였다.

실제 원본 이미지와의 비교를 위해 2,000만 화소(4 k) 카메라, 0.6 m 거리로 촬영한 결과와 점검자가 육안으로 조사했을 시 크기 0.8 mm 균열에 대한 이미지를 분석하였다. 그 결과(Fig. 10), 최대크기 0.88 mm 최소크기 0.12 mm로 검출되었다. 즉, 근접촬영의 경우 지속적으로 정제된 손상 데이터와 정밀하게 레이블링된 데이터를 가지고 딥러닝 시 검출성능은 더욱 향상 될 수 있을 것으로 판단된다.

Table 7. Performance Measures according to True and Predicted Conditions

Classification

True Answer

True

False

Predicted

Condition

Positive

True Positive (TP)

False Positive (FP)

Negative

False Negative (FN)

True Negative (TN)

Table 8. Indicators for Checking Deep-Learning Performance

Performance Index

definition

Formula

Precision

Percentage of deep-learning model recognized as true that is true

$\dfrac{TP}{TP+FP}$

Recall

Percentage of actual truth recognized by deep-learning model as true

$\dfrac{TP}{TP+FN}$
Table 9. Result Performance of Crack & Reticular Crack, Stripping & Exfoliation and Rebar Exposure

Evaluation Scale

Precision

Recall

Performance

0.952

0.938

실제 교각을 대상으로 원거리 촬영 영상의 프로그램 성능 검토를 위해 망원렌즈(600 mm) 촬영한 후 왜곡 보정 및 정밀도 향상을 위해 정합 위치별 표적지를 설치하여 영상분석을 실시하였다(Fig. 11).

교각(H: 9.8 m, W: 12 m)의 외관(육안)조사망도 및 손상물량표를 검토하여 손상률과 프로토타입 프로그램의 손상률의 성능검토를 실시하였다. 외관(육안)조사망도의 손상률은 Eq. (1)에 따라 16.48 %로 산정하였고, 영상 분석 결과는 19.74 % (Fig. 12)로 3 %로 이상 오차가 발생하였다. 이는 고화질 영상의 경우 확대 시 콘크리트 표면의 불균질함이 손상으로 인식되어 오차가 발생하는 것이라 판단된다. 프로토타입 프로그램은 영상을 활용한 초기점검용으로 활용하는 것이 적절하다고 판단된다.

(1)
손상률(%) = $\dfrac{결함 및 손상 면적(m^{2})}{조사단위(부재)면적(m^{2})}\times 100$
Fig. 9. Results of Damage Detection Using Prototype Program (Concrete Crack, Stripping & Exfoliation And Rebar Exposure)
../../Resources/KSCE/Ksce.2022.42.1.0107/fig9.png
Fig. 10. Comparison of Detection Result with Crack in Original Image
../../Resources/KSCE/Ksce.2022.42.1.0107/fig10.png
Fig. 11. Long-Distance Photograph of Pier Taken Using Telephoto Lens Camera
../../Resources/KSCE/Ksce.2022.42.1.0107/fig11.png
Fig. 12. Result of Image Using Telephoto Lens Camera
../../Resources/KSCE/Ksce.2022.42.1.0107/fig12.png

4.4.2 딥러닝 기반 교량 상태평가 프로토타입 GUI

딥러닝 기반 교량 상태평가 프로토타입은 ver.4.3 시나리오 기반으로 GUI를 표현하였다. 즉, 사용자가 손상검출 분석할 이미지 로그와 실구조물의 수치입력을 통해 기준 픽셀수치를 정하여 최종적으로 검출하고자하는 손상에 픽셀단위로 정량화하여, 최종적으로 상태평가 등급이 표현 가능하도록 GUI (Fig. 13)를 개발하였다.

Fig. 13. GUI of Prototype Program for Damage Detection
../../Resources/KSCE/Ksce.2022.42.1.0107/fig13.png

5. 결 론

본 논문에서는 영상정보를 활용한 딥러닝 기반 교량 상태평가 기술 개발을 위해 구체적인 방법(시나리오)에 대해 기술하였고, 분할 기법인 Mask R-CNN을 활용하여 프로토타입 프로그램을 개발을 통해 검출한 픽셀에 대한 실수치 환산으로 정량화를 진행하였다.

본 논문에서 개발한 프로토타입 프로그램은 취득된 영상에 대해 정량화된 손상검출 및 손상율을 도출 할 수 있다. 본 논문의 한계점은 정량화를 위해서 손상검출 시 0.1 mm 균열 이하까지 검출해야 하지만 화소가 떨어지는 영상의 경우 균열 영상 주변의 흐릿한 부분(blur)으로 인해 1 m 이내로 영상 취득(2,000만 화소)을 해야만 검출이 가능할 것으로 분석된다. 0.1 mm 균열 검출을 위해서는 근접 촬영 및 고해상도 영상이 필요하지만 교량의 지형적 위치 등을 고려한 촬영장비의 발전이 필요하다. 또한, 교량의 주탑, 거더 등 부재의 부분 촬영에 따른 영상 접합 기술로 인한 오차 발생과 콘크리트의 불균질함의 손상 인식으로 오차가 발생 한다는 것을 알 수 있었다. 이러한 문제를 개선하기 위해 정밀하게 레이블링한 정제 데이터를 지속적으로 학습하고 복합 손상검출에 대한 오류에 따라 손상별 특화네트워크 설정, 정밀한 정합을 위한 구간별 표적지 설치 등으로 이러한 문제들을 극복할 수 있을 것이다.

본 논문에서는 데이터를 활용한 1차 성능검토에서 정밀도는 95.2 %, 재현율은 93.8 %의 결과가 나왔고, 실제 균열 및 콘크리트 부재(교각) 손상률과 비교를 통해 2차 성능검토를 실시하였다. 콘크리트 표면이 균질하고 근접(0.6 m)하여 취득한 영상의 경우는 육안으로 측정한 값과 가능하다고 판단된다. 또한 실 콘크리트 부재(교각)의 육안조사 손상률과 망원렌즈로 취득한 원거리 취득영상을 프로토타입 프로그램 분석 결과를 비교했을 시 3 % 이상 오차가 발생하였으며 이는 콘크리트 표면의 불균질함이 영상에서는 손상으로 인식하여 발생한 결과라고 판단된다.

기존 점검과 진단의 영상자료는 그 정보의 한계가 존재하여 손상의 종류를 구별하는 것은 큰 문제가 되지는 않으나 상태평가까지의 손상 정량화는 정보의 한계성과 현장접근의 어려움 등으로 정확하고 정밀한 손상에 대한 분류와 수치화가 쉽지 않다. 특히, 복합적인 손상 정량화에 대한 정확도와 정밀도를 보완해야 한다. 향후에 이에 대한 문제를 극복할 수 있는 양질의 영상 정보데이터 및 정밀한 레이블링 등 추가 확보를 위한 현장 영상정보 업데이트도 지속적으로 실시하고, 분석의 대상(콘크리트 부재 등) 영상을 근접 및 품질을 확보하여 취득한다면 한계점을 보완할 수 있을 것으로 판단된다.

Acknowledgements

이 연구는 국토교통과학기술진흥원(과제번호: 21CTAP-C152144-03) 의 지원으로 수행되었습니다.

References

1 
Amhaz R., Chambon S., Idier J., Baltazart V. (2016). "Automatic crack detection on 2D pavement images: An algorithm based on minimal path selection.", IEEE Transaction on Intelligent Transportation System, Vol. 17, No. 10, pp. 2718-2729DOI
2 
Cui L., Qi Z., Chen Z., Meng F., Shi Y. (2015). "Pavement distress detection using random decision forests.", International Conference on Data Science, Springer, Cham, Vol. , No. , pp. 95-102DOI
3 
Dorafshan S., Maguire M., Qi X. (2016). "Automatic surface crack detection in concrete structures using OTSU thresholding and morphological operations", UTC Report 01-2016, Utah State University, Logan, Utah, USA.DOI
4 
Dorafshan S., Thomas J. R., Maguire M. (2018a). "Comparison of deep learning convolutional neural networks and edge detectors for image-based crack detection in concrete.", Construction and Building Materials, Vol. 186, No. , pp. 1031-1045DOI
5 
Dorafshan S., Thomas R. J., Coopmans C., Maguire M. (2018b). "Deep learning neural networks for sUAS-assisted structural inspections, feasibility and application.", 2018 International Conference on Unmanned Aircraft Systems, ICUAS, Dallas, TX.DOI
6 
Hoskere V., Narazaki Y., Hoang T. A., Spencer Jr B. F. (2017). "Vision-based structural inspection using multiscale deep convolutional neural networks", 3rd Huixian International Forum on Earthquake Engineering for Young Researchers, August 11-12, 2017, University of Illinois, Urbana-Champaign, United States.URL
7 
Lee Y. I., Kim B. H., Cho S. J. (2018). "Image-based spalling detection of concrete structures using deep learning.", Journal of the Korea Concrete Institute, Vol. 30, No. 1, pp. 91-99Google Search
8 
Li H., Song D., Liu Y., Li B. (2017). "Automatic pavement crack detection by multi-scale image fusion", TR 2017-11-1, Department of Computer Science and Engineering, Texas A&M University.Google Search
9 
Shi Y., Cui L., Qi Z., Meng F., Chen Z. (2016). "Automatic road crack detection using random structured forests.", IEEE Transactions on Intelligent Transportation Systems, Vol. 17, No. 12, pp. 3434-3445DOI
10 
Yang L., Li B., Li W., Zhaoming L., Yang G., Xiao J. (2017a). "Deep concrete inspection using unmanned aerial vehicle towards CSSC database.", 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems, IROS.Google Search
11 
Yang L., Li B., Li W., Liu Z., Yang G., Xiao J. (2017b). "A robotic system towards concrete structure spalling and crack database.", 2017 IEEE International Conference on Robotics and Biomimetics, ROBIO.DOI
12 
Zhang L., Yang F., Zhang Y. D., Zhu Y. J. (2016). "Road crack detection using deep convolutional neural network.", 2016 IEEE International Conference on Image Processing, ICIPDOI