์ด์ฌ์
(Jae Young Lee)
1
๊น์๋ฏผ
(Soo Min Kim)
2
ํ์ฑ์ฒ
(Sung Chul Hong)
3โ
-
์ ํ์ ยท ์ธํ๋ํ๊ต ์ค๋งํธ์ํฐ๊ณตํ์ ๊ณต ์์ฌ๊ณผ์
(Inha University ยท toyoro1@inha.edu)
-
์ธํ๋ํ๊ต ๊ณต๊ฐ์ ๋ณด๊ณตํ๊ณผ ์์ฌ๊ณผ์
(Inha University ยท smkim@inha.edu)
-
์ข
์ ํ์ ยท ๊ต์ ์ ์ ยท ์ธํ๋ํ๊ต ์ค๋งํธ์ํฐ๊ณตํ์ ๊ณต ยท ๊ณต๊ฐ์ ๋ณด๊ณตํ๊ณผ ๋ถ๊ต์
(Corresponding Author ยท Inha University ยท schong@inha.ac.kr)
Copyright ยฉ 2021 by the Korean Society of Civil Engineers
ํค์๋
์ค๋ด ์ผ๊ฐ ์์ฐฐ ๋ก๋ด, ์ ์กฐ๋ ์์๊ฐํ, YOLOv8n-seg, ์ฌ๋ ํ์ง
Key words
Indoor night patrol robot, Low-light image enhancement, YOLOv8n-seg, Human detection
1. ์ ๋ก
์ค๋ด ๋ณด์๊ณผ ๋ฐฉ๋ฒ์ ๊ฑด๋ฌผ ๋ด๋ถ์ ์ธ์ ยท๋ฌผ์ ์์์ ๋ณดํธํ๊ณ ์นจ์
, ์ ๋ ๋ฑ์ ๋ฒ์ฃ๋ฅผ ์๋ฐฉํ๋ ํ๋์ผ๋ก, ์ ํต์ ์ผ๋ก ๊ฒฝ๋น ์ธ๋ ฅ๊ณผ CCTV์ ์์กดํ์ฌ
์ด์๋๊ณ ์๋ค. ํ์ง๋ง ๊ฒฝ๋น ์ธ๋ ฅ์ ๊ณ ๋ นํ์ ์ธ๋ ฅ ๋ถ์กฑ์ ๋ํ ๊ฑด๋ฌผ์ ๋๊ณ ๋ณต์กํ ๊ณต๊ฐ์์ ํจ๊ณผ์ ์ธ ์์ฐฐ๊ณผ ์ ์ํ ๋์์ ์ด๋ ต๊ฒ ํ๊ณ ์๋ค(Park and Bae, 2015; Kwak, 2014). ๋ํ, CCTV๋ ๊ณ ์ ๋ ์์น์ ์ ํ๋ ์์ผ๊ฐ์ผ๋ก ์ธํด ๊ฐ์ ์ฌ๊ฐ์ง๋๊ฐ ๋ฐ์ํ๋ ํ๊ณ๊ฐ ์๋ค(Lee et al., 2015). ์ ํต์ ์ธ ๋ฐฉ๋ฒ ๋ฐ ๋ณด์ ์ฒด๊ณ์ ๋จ์ ์ ๋ณด์ํ๊ณ ํจ์จ์ ์ธ ์ด์์ ์ํด ์ต๊ทผ์๋ ์ค๋ด ๋ก๋ด์ด ๋์
๋์ด ์ด์๋๊ณ ์๋ค. ์ค๋ด ๋ก๋ด์ ์ง์์ ์ธ ์ด๋๊ณผ
์ค์๊ฐ ์ฆ๊ฑฐ ์์ง์ด ๊ฐ๋ฅํ๋ฏ๋ก, ๋๊ท๋ชจ ์ค๋ด ๊ณต๊ฐ์์ ๊ฐ์ด๋ ์ญํ ๋ฐ ๋ณด์ ์์ฐฐ(Lopez et al., 2017), ์ธ๋ช
ํผํด๋ฅผ ์ต์ํํ๊ธฐ ์ํ ์ ๋
๊ฐ์ค ํ์ง(Yousif and El-Medany, 2022), ๊ฑด๋ฌผ ์์ค๋ฌผ์ ์ ์ง๊ด๋ฆฌ(Lรณpez et al., 2013) ๋ฑ์ ์์ฐฐ ์
๋ฌด๋ฅผ ์ํด ํ์ฉ๋๊ณ ์๋ค.
์์ฐฐ ๋ก๋ด์ ์ฃผํํ๊ฒฝ๊ณผ ์๋ฌด์ ๋ฐ๋ผ ๊ถค๋ํ ๋ก๋ด, ๋ฐํดํ ๋ก๋ด, 4์กฑ ๋ณดํ ๋ก๋ด ๋ฑ ๋ค์ํ ํํ๋ก ๊ฐ๋ฐ๋๊ณ ์๋ค. ๊ถค๋ํ ๋ก๋ด์ ์ง๋ฉด๊ณผ์ ์ ์ง ๋ฉด์ ์ด
๋์ด ๋ชจ๋์ ์งํ, ํ์คํ ์งํ์์ ์์ ์ ์ธ ์ฃผํ์ด ๊ฐ๋ฅํ๋ฏ๋ก, ๊ฑด์ค ํ์ฅ๊ณผ ์ฌ๋ ์ฌํด ์ง์ญ ๋ฑ์ ์ค์ธ ์์ฐฐ ์๋ฌด๋ฅผ ์ํด ๊ฐ๋ฐ๋๊ณ ์์ผ๋ฉฐ(Hamid et al., 2022), ๋ฐํดํ ๋ก๋ด์ ํํํ ์ง๋ฉด์์ ๋น ๋ฅธ ์ฃผํ์ด ๊ฐ๋ฅํ๋ฏ๋ก, ๋๋ก ์์ค๋ฌผ ๊ด๋ฆฌ์ ๊ณตํญ๊ณผ ์ฃผ์ฐจ์ฅ ๋ฑ๊ณผ ๊ฐ์ ๋์ ์ค๋ด ๊ณต๊ฐ์์ ์์ฐฐ ์๋ฌด์ ํ์ฉ๋๊ณ ์๋ค(Chen, 2022). ๋ฐ๋ฉด, 4์กฑ ๋ณดํ ๋ก๋ด์ ๊ถค๋ํ ๋ฐ ๋ฐํดํ๊ณผ ๋ฌ๋ฆฌ ๋์ ์ฅ์ ๋ฌผ ํํผ์ฑ ๋ฅ๋ ฅ๊ณผ ์งํ ์ ์์ฑ์ ๊ฐ์ง๋ค. ํนํ, ์ค๋ด ๊ณต๊ฐ์์ 4์กฑ ๋ณดํ ๋ก๋ด์ ๊ณ๋จ์
ํตํ ์ธต๊ฐ ์ด๋์ด ๊ฐ๋ฅํ๋ฏ๋ก ๋ํ ์์ค๋ฌผ๊ณผ ๊ณ ์ธต ๊ฑด๋ฌผ์์ ์์ฐฐ๊ณผ ๊ฐ์ ์๋ฌด์ ํจ๊ณผ์ ์ผ๋ก ์ด์๋๊ณ ์๋ค(Kim et al., 2022).
๋ก๋ด ์์ฐฐ์ ์ํด ๊ดํ ์นด๋ฉ๋ผ๋ฟ๋ง ์๋๋ผ ์ ์ธ์ , ์ดํ์, ๊น์ด ์นด๋ฉ๋ผ, LiDAR(Light Detection And Ranging) ๋ฑ์ ์ผ์๊ฐ
์ถ๊ฐ๋ก ํ์ฌ๋๊ณ ์๋ค(Yoo and Shin, 2024; Chang et al., 2022). ํ์ง๋ง, ๋ค์ํ ์ผ์๋ฅผ ํ์ฌํ ๊ฒฝ์ฐ ๋์ ๋น์ฉ๊ณผ ์ ๋ ฅ ์๋ชจ๊ฐ ๋ฐ์ํ๋ฉฐ, ๋์ฉ๋์ ๋ฐ์ดํฐ ์ฒ๋ฆฌ๋ฅผ ์ํ ๊ณ ์ฑ๋ฅ ์ฐ์ฐ์ฅ์น์ ์ผ์ ๊ฐ ๋๊ธฐํ๊ฐ ํ์ํ๋ค.
๋ฐ๋ฉด ๊ดํ ์นด๋ฉ๋ผ๋ ๊ฒฝ์ ์ ์ด๊ณ ํจ์จ์ ์ธ ์ผ์๋ก, ๊ตฌ๋งค ๋น์ฉ๊ณผ ์ ๋ ฅ ์๋ชจ๊ฐ ์๋์ ์ผ๋ก ๋ฎ๋ค. ๋ํ, ์์ฐฐ ๋ก๋ด ์ฃผ๋ณ ํ๊ฒฝ์ ์์๊ณผ ์ง๊ฐ ๋ฑ ํ๋ถํ ์๊ฐ
์ ๋ณด๋ฅผ ์ค์๊ฐ์ผ๋ก ์์งํ ์ ์์ด, ์๊ฒฉ ์กฐ์ข
์์ ๋ก๋ด ์กฐ์์ ๋ฌผ๋ก , ์์ฐฐ ๊ตฌ์ญ์ ํจ์จ์ ์ธ ํ์
๊ณผ ์ ์ํ๊ณ ์ ํํ ์์ฌ ๊ฒฐ์ ์ ์ง์ํ ์ ์๋ค.
์ต๊ทผ์๋ ์์ฐฐ ๋ก๋ด์ด ์ ์กํ๋ ์์์ผ๋ก๋ถํฐ ๊ด์ฌ ๊ฐ์ฒด๋ฅผ ์ ์ํ๊ณ ์ ํํ๊ฒ ์๋ณํ๊ธฐ ์ํด ๋ฅ๋ฌ๋ ๊ธฐ๋ฐ์ ๊ฐ์ฒด ํ์ง ๋ฐ ๋ถํ ๊ธฐ๋ฒ์ด ๊ฐ๋ฐ๋๊ณ ์๋ค. ํนํ,
์์ฐฐ ๋ก๋ด์ ์ฌ๋ ํ์ง๋ ์ค๋ด ๋ฐฉ๋ฒ, ์์ ๋ชจ๋ํฐ๋ง, ๊ธด๊ธ ์ํฉ ๋์ ๋ฑ ๋ค์ํ ๋ถ์ผ์์ ํ์์ ์ธ ๊ธฐ๋ฅ์ด๋ค. ์นจ์
์๋ฅผ ํ์งํ์ฌ ๊ฑด๋ฌผ์ ๋ณด์์ ์ ์งํ๊ณ (Choi et al., 2022; Banerjee et al., 2024), ๊ฑด์ค ํ์ฅ์์ ๊ทผ๋ก์์ ๋ณดํธ์ฅ๋น๋ฅผ ์๋ณํ์ฌ ์์ ์ฑ์ ๊ฐํํ๋ฉฐ(Lee and Chien, 2020), ๋์ ์ฌ๊ณ ๋ฅผ ๊ฐ์งํด ์ ์ํ ๋์์ ๊ฐ๋ฅํ๊ฒ ํ๋ค(Lafuente-Arroyo et al., 2022). ํ์ง๋ง, ์์ฐฐ ๋ก๋ด์ ์ฃผ๋ก ๊ฑด๋ฌผ ์ถ์
์ด ์ ํ๋๋ ์ผ๊ฐ ์๊ฐ๋์ ํ์ฉ๋๊ณ ์๋ค. ์ค๋ด๋ ์กฐ๋ช
์ฌ์ฉ ์ฌ๋ถ์ ์ค์น ์์น์ ๋ฐ๋ผ ์กฐ๋ ํ๊ฒฝ์ด ๋์์์ด
๋ณํ๋ฏ๋ก, ์์ฐฐ ์์์ ์ผ๊ด๋ ๋ฐ๊ธฐ์ ์์์ ์ ์งํ๊ธฐ ์ด๋ ต๋ค. ํนํ, ์กฐ๋ช
์ด ์ฝํ ํ๊ฒฝ์์ ์ดฌ์๋ ์์ฐฐ ์์์ ์ด๋ก๊ณ ๋๋น๊ฐ ๋ฎ์ผ๋ฉฐ ๋ง์ ๋
ธ์ด์ฆ๋ฅผ
ํฌํจํ๋ฏ๋ก, ๊ฐ์ฒด ํ์ง ๋ฐ ๋ถํ ๊ธฐ๋ฒ์ ์ฑ๋ฅ์ ์ ํ์์ผ ์ผ๊ฐ ์์ฐฐ ๋ก๋ด์ ์ฑ๋ฅ์ ๊ฐ์์ํฌ ์ ์๋ค(Chen et al., 2023).
์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ์ ์กฐ๋๊ฐ ๋ฎ์ ํ๊ฒฝ์์ ์ดฌ์๋ ์์์ ๋ฐ๊ธฐ, ๋๋น, ์์์ ๊ฐ์ ํ์ฌ ์๊ฐ์ ํ์ง์ ๋์ด๊ณ , ์์ ๋ถ์ ๋ฐ ์ฒ๋ฆฌ ์ฑ๋ฅ์ ํฅ์ํ๋
๊ธฐ์ ์ด๋ค(Jingchun et al., 2024). ์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ์ ์ฌ์ฉํ๋ฉด ์ด๋์ด ํ๊ฒฝ์์ ์ดฌ์ํ ์ฌ๋ ์์ ๋ฐ์ดํฐ๋ฅผ ๋ณ๋๋ก ํ์ตํ์ง ์์๋, ๊ฐํ๋ ์์์ ํตํด ์์ฐฐ ๋ก๋ด์ ์ฌ๋ ํ์ง
๋ฐ ๋ถํ ์ฑ๋ฅ์ ํฅ์์ํฌ ๊ฒ์ผ๋ก ๊ธฐ๋๋๋ค. ์ด์ ๋ณธ ์ฐ๊ตฌ๋ ์ผ๊ฐ ์์ฐฐ ๋ก๋ด์ ํจ์จ์ ์ธ ์๊ฒฉ ์กฐ์๊ณผ ์ฌ๋ ํ์ง ์ฑ๋ฅ ํฅ์์ ๋ชฉํ๋ก, ์์ฐฐ ์์์ ์์ธ์ฑ์
์ค์๊ฐ์ผ๋ก ๊ฐ์ ํ ์ ์๋ ์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ ํ๊ฐ ๋ฐฉ๋ฒ์ ์ ์ํ๊ณ ์ ํ๋ค. ๋ณธ ๋
ผ๋ฌธ์ ๋ค์๊ณผ ๊ฐ์ด ๊ตฌ์ฑ๋์ด ์๋ค. 2์ฅ์์๋ ์ฐ๊ตฌ ๋ฐฉ๋ฒ์ ์ ์ํ์๋ค.
์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ๊ณผ YOLOv8n-seg ๋ชจ๋ธ์ ์๊ฐํ์๊ณ ์ฑ๋ฅ ๋ถ์์ ์ํ ํ๊ฐ ์งํ๋ฅผ ์ค๋ช
ํ์๋ค. 3์ฅ์์๋ ๊ฑด๋ฌผ ์ค๋ด์์ ์ผ๊ฐ ์์ฐฐ ์์์
์์ธ์ฑ ๊ฐ์ ๊ณผ ์ฌ๋ ํ์ง ๊ฒฐ๊ณผ๋ฅผ ํ์ธํ์์ผ๋ฉฐ, 4์ฅ์์๋ ๊ฒฐ๋ก ๋ฐ ํฅํ ์ฐ๊ตฌ ๋ฐฉํฅ์ ์ ์ํ์๋ค.
2. ์ฐ๊ตฌ ๋ฐฉ๋ฒ ๋ฐ ๋ด์ฉ
2.1 ๊ฐ์
๊ฑด๋ฌผ ๋ด๋ถ์ ์ผ๊ฐ ์กฐ๋ ํ๊ฒฝ์์ ์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ ์ ์ฉ์ ๋ฐ๋ฅธ ์์ฐฐ ์์์ ์์ธ์ฑ ๊ฐ์ ๊ณผ ์ฌ๋ ํ์ง ์ฑ๋ฅ ํฅ์ ํจ๊ณผ๋ฅผ ๋ถ์ํ๊ธฐ ์ํ ์ฐ๊ตฌ ํ๋ฆ์
Fig. 1๊ณผ ๊ฐ๋ค. ๋จผ์ , ์คํ ํ๊ฒฝ ๊ตฌ์ถ ๋จ๊ณ์์๋ ๊ฑด๋ฌผ ๋ด๋ถ์ ์ผ๊ฐ ์กฐ๋ ํ๊ฒฝ์์ ์ค๋ด ์์ฐฐ ์์์ ์ทจ๋ํ์์ผ๋ฉฐ, ์ค์๊ฐ ์ฌ๋ ํ์ง๋ฅผ ์ํด ๊ฒฝ๋ํ๋ ๊ตฌ์กฐ๋ก
๋ก๋ด์ ์ ํ๋ ์ฐ์ฐ ์์์์๋ ๋น ๋ฅธ ์ถ๋ก ์ ์ง์ํ๋ YOLOv8n-seg ๋ชจ๋ธ์ ์ ์ ํ์๋ค. ์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ ํ๊ฐ ๋จ๊ณ์์๋ ์ค๋ด ์ ์กฐ๋ ํ๊ฒฝ์
๊ฐ์ธํ ์์๊ฐํ ๊ธฐ๋ฒ์ ์ ์ ํ์๋ค. ๋ค์ํ ์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ(GLADNet, KinD, TBEFN, LLFormer, EnlightenGAN,
Zero-DCE)์ ์ค๋ด ์์ฐฐ ์์์ ์ ์ฉํ์๊ณ , ์ก์์ ์ํ ์ ์ฑ์ ํ๊ฐ์ ํจ๊ป ์ ๋์ ์ธ ์์ ํ๊ฐ ์งํ๋ฅผ ์ฐ์ถํ์ฌ ์๋ณธ ์์๊ณผ ๋น๊ต ๋ถ์ํ์๋ค.
๋ง์ง๋ง์ผ๋ก, ์ ์กฐ๋ ์์์ ์์ธ์ฑ ๊ฐ์ ์ ๋ฐ๋ฅธ ์ฌ๋ ํ์ง ์ฑ๋ฅ ํฅ์์ ํ๊ฐํ๊ธฐ ์ํด, YOLOv8n-seg ๋ชจ๋ธ์ ํ์ง ์ ํ๋์ ํ์ง ์๋๋ฅผ ๋ถ์ํ์ฌ
์์ฐฐ ๋ก๋ด์ ์ค์๊ฐ ์ฌ๋ ํ์ง ๊ฐ๋ฅ์ฑ์ ๊ฒํ ํ์๋ค.
2.2 ์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ ๋ฐ ํ๊ฐ ์งํ
์ค๋ด ์ผ๊ฐ ์์ฐฐ ๋ก๋ด์ด ์ดฌ์ํ ์์์ ์์ ๋ฐ ๋ฐ๊ธฐ๋ฅผ ๋ณต์ํ๊ณ ๊ฐ์ฒด ํ์ง ์ฑ๋ฅ์ ํฅ์์ํค๊ธฐ ์ํด GLADNet, KinD, TBEFN, LLFormer,
EnlightenGAN, Zero-DCE๋ฅผ ์ฌ์ฉํ์๋ค. GLADNet์ ์ธ์ฝ๋-๋์ฝ๋ ๋คํธ์ํฌ๋ฅผ ํตํด ์์์ ์ ์ญ์ ์ธ ์กฐ๋๋ฅผ ์ถ์ ํ๊ณ , ์์ค๋ ์์์
์ธ๋ถ ์ ๋ณด๋ฅผ ์ฌ๊ตฌ์ฑํจ์ผ๋ก์จ ์ ์กฐ๋ ์์์ ํ์ง์ ๊ฐ์ ํ๋ค(Wang et al., 2018). KinD๋ Retinex ์๋ฆฌ์ ๊ธฐ๋ฐํ ๋ชจ๋ธ๋ก, ์
๋ ฅ ์์์ ๋ฐ์ฌ ์ฑ๋ถ๊ณผ ์กฐ๋ช
์ฑ๋ถ์ผ๋ก ๋ถํดํ ํ, ๊ฐ ์ฑ๋ถ์ ๊ฐํํ๊ณ ๋ค์ ๊ฒฐํฉํ์ฌ ์ ์กฐ๋ ์์์
๊ฐ์ ํ๋ค(Zhang et al., 2019). TBEFN์ ๋ ๊ฐ์ ๋ธ๋์น์์ ๋ค์ํ ์กฐ๋ช
์์ค ๊ฐ์ ๋ณํ ๊ด๊ณ๋ฅผ ๊ฐ๊ฐ ์ถ์ ํ์ฌ ๊ฐํ ์์์ ์์ฑํ๊ณ , ๊ฒฐํฉํจ์ผ๋ก์จ ์ ์กฐ๋ ์์์ ๊ฐ์ ํ๋ค(Lu and Zhang, 2020). LLFormer๋ ๊ณ์ธต์ ์ธ์ฝ๋-๋์ฝ๋ ๊ตฌ์กฐ์ ํธ๋์คํฌ๋จธ๋ฅผ ์ด์ฉํ์ฌ ์ ์กฐ๋ ์์์ ๊ฐ์ ํ๋ค(Wang et al., 2023). EnlightenGAN์ GAN(Generative Adversarial Networks) ๊ธฐ๋ฐ์ ์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ์ผ๋ก ์์ ๊ธฐ๋ฒ๋ค๊ณผ ๋ฌ๋ฆฌ
ํ์ต์ ์ํด ์ ์กฐ๋ ์์๊ณผ ์ผ๋ฐ ์กฐ๋ ์์ ์์ด ํ์ ์๋ค. ์ดํ
์
U-net ์์ฑ์๋ฅผ ํตํด ์ด๋์ด ์์ญ์ ๊ฐ์กฐํ๊ณ , ์ ์ญ-๊ตญ์ ํ๋ณ์๋ฅผ ์ฌ์ฉํ์ฌ
๋ค์ํ ์กฐ๋ช
์กฐ๊ฑด์ ๊ฐ์ง ์
๋ ฅ ์์ ํ์ง์ ํจ๊ณผ์ ์ผ๋ก ๊ฐ์ ํ๋ค(Jiang et al., 2021). Zero-DCE๋ ๋ชจ๋ธ ํ์ต ์ ์ฐธ์กฐ ์์์ ํ์๋ก ํ์ง ์์ผ๋ฉฐ, ์
๋ ฅ ์์์ผ๋ก๋ถํฐ ์ฑ๋๋ณ ํฝ์
๋จ์์ ์ต์ ๊ณก์ ์ ์ถ์ ํ๊ณ ๋ฐ๋ณต์ ์ธ ํฝ์
๋จ์์
์กฐ์ ์ ์ํํ์ฌ ์ ์กฐ๋ ์์์ ๊ฐ์ ํ๋ค(Guo et al., 2020).
์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ์ ํ์ง ๊ฐ์ ํจ๊ณผ๋ฅผ ์ ๋์ ์ผ๋ก ํ๊ฐํ๊ธฐ ์ํด ์์ ํ๊ฐ ์งํ๋ฅผ ์ฌ์ฉํ์๋ค. ์์ ํ์ง ํ๊ฐ ๋ฐฉ๋ฒ์๋ ์ ์ฒด ์ฐธ์กฐ(Full-Reference),
๋ฌด ์ฐธ์กฐ(No-Reference), ๋ถ๋ถ ์ฐธ์กฐ(Reduced-Reference) ๋ฐฉ์์ด ์๋ค(Bosse et al., 2017). ์ ์ฒด ์ฐธ์กฐ ๋ฐฉ์์ ๊ธฐ์ค ์์์ ์ฐธ์กฐํ์ฌ ๋์ ์์์ ํ์ง์ ํ๊ฐํ๋ฉฐ, ๋ฌด ์ฐธ์กฐ ๋ฐฉ์์ ๊ธฐ์ค ์์ ์์ด ๋์ ์์๋ง์ ์ด์ฉํ์ฌ ํ์ง์ ํ๊ฐํ๋ค.
๋ถ๋ถ ์ฐธ์กฐ ๋ฐฉ์์ ์ ์ฒด ์ฐธ์กฐ ๋ฐ ๋ฌด ์ฐธ์กฐ ๋ฐฉ์์ ์ค๊ฐ ๋จ๊ณ๋ก, ๊ธฐ์ค ์์์ ์ผ๋ถ ์ ๋ณด๋ฅผ ์ด์ฉํ์ฌ ๋์ ์์์ ํ์ง์ ํ๊ฐํ๋ค. ์ผ๊ฐ ์์ฐฐ ๋ก๋ด์ ๊ฒฝ์ฐ
๊ธฐ์ค ์์์ ์ทจ๋ํ๊ธฐ ์ด๋ ค์ฐ๋ฏ๋ก, ๋ณธ ์ฐ๊ตฌ์์๋ ๊ธฐ์ค ์์์ด ํ์์๋ ๋ฌด ์ฐธ์กฐ ๋ฐฉ์์ BRISQUE (Blind/Referenceless Image
Spatial Quality Evaluator)์ NIQE(Natural Image Quality Evaluator) ์งํ๋ฅผ ์ด์ฉํ์๋ค. BRISQUE์
NIQE๋ ์๊ณก์ด ์๋ ๊นจ๋ํ ์์์ ํต๊ณ์ ํน์ฑ๊ณผ ๋์ ์์์ ํต๊ณ์ ํน์ฑ์ ๋น๊ตํ์ฌ ์์์ ํ์ง์ ํ๊ฐํ๋ฉฐ, ๊ฐ์ด ์์์๋ก ์์ง์ ์์์์ ์๋ฏธํ๋ค.
BRISQUE๋ ์์์ MSCN(Mean Subtraction and Contrast Normalization) ์ฒ๋ฆฌ๋ฅผ ํตํด ๊ณ์ฐ๋ ํน์ฑ์ ์ฌ์ ํ์ต๋
SVR(Support Vector Regressor)์ ์
๋ ฅํ์ฌ ์์์ ํ์ง์ ์์ธกํ๋ค(Mittal et al., 2012a). NIQE๋ MSCN ์ฒ๋ฆฌ ํ, ์ผ์ ํ ํฌ๊ธฐ์ ํจ์น๋ก๋ถํฐ ํต๊ณ์ ํน์ฑ์ธ ๋ฒกํฐ์ ๊ณต๋ถ์ฐ์ ๊ณ์ฐํ๋ค. ์ดํ ์์ฐ ์์์์ ๋์ถ๋ ๋ฒกํฐ ๋ฐ ๊ณต๋ถ์ฐ๊ณผ์
์ ์ฌ๋๋ฅผ ๊ณ์ฐํ์ฌ ์
๋ ฅ ์์์ ํ์ง์ ์์ธกํ๋ค(Mittal et al., 2012b).
2.3 YOLOv8n-seg ๊ธฐ๋ฐ ๊ฐ์ฒด ํ์ง ๋ฐ ํ๊ฐ ์งํ
YOLO๋ ๋ํ์ ์ธ ๋จ์ผ ๋จ๊ณ ๊ฒ์ถ๊ธฐ(one-stage detector)๋ก, ์์์์ ๊ฐ์ฒด์ ์์น์ ์ข
๋ฅ๋ฅผ ๋์์ ๊ณ์ฐํ์ฌ ์ค์๊ฐ ๊ฐ์ฒด ํ์ง์ ์ ํฉํ๋ค.
YOLO ๋ชจ๋ธ์ ๋คํธ์ํฌ๋ ๋ฐฑ๋ณธ(backbone), ๋ฅ(neck), ํค๋(head)์ ์ธ ๊ฐ์ง ์์๋ก ๊ตฌ์ฑ๋๋ค. ๋ฐฑ๋ณธ์ ํฉ์ฑ๊ณฑ ์ฐ์ฐ์ ํตํด ์
๋ ฅ ์์์์
๋ค์ํ ์ค์ผ์ผ์ ํน์ง์ ์ถ์ถํ๊ณ , ๋ฅ์ ๋ค์ํ ์ค์ผ์ผ์ ๊ฐ์ฒด ํ์ง๋ฅผ ์ํด ํน์ง์ ๋ณํฉํ๋ค. ํค๋๋ ์ต์ข
์ ์ผ๋ก ๊ฐ์ฒด์ ์์น์ ํด๋์ค ํ๋ฅ ์ ์์ธกํ๋ค.
YOLOv8์ YOLOv5์ ์ ์ฌํ ๋ฐฑ๋ณธ์ ํ์ฉํ๋ฉฐ, ๋คํธ์ํฌ ๊ตฌ์กฐ๋ฅผ ๊ฐ์ ํ๊ณ ์ต์ปค ํ๋ฆฌ(anchor-free) ๋ฐฉ์์ ์ฌ์ฉํจ์ผ๋ก์จ ๊ธฐ์กด ๋ชจ๋ธ์ ํ์ง
์๋์ ์ ํ๋๋ฅผ ํฌ๊ฒ ํฅ์์์ผฐ๋ค(Terven et al., 2023). YOLOv8์ ํ์ฉ ๋ชฉ์ ์ ๋ฐ๋ผ YOLOv8, YOLOv8-seg, YOLOv8-pose, YOLOv8-obb, YOLOv8-cls๋ก ๊ตฌ๋ถ๋๋ฉฐ,
๊ฐ ๋ชจ๋ธ์ ํ์ง, ๋ถํ , ํฌ์ฆ, ๋ฐฉํฅ ํ์ง, ๋ถ๋ฅ์ ํนํ๋์ด ์๋ค(Ultralytics, 2023). ๋ณธ ์ฐ๊ตฌ์์๋ ๊ฐ์ฒด์ ์์น, ํํ, ํฌ๊ธฐ๋ฅผ ์ ํํ๊ฒ ํ์
ํ๊ธฐ ์ํด, ๊ฐ์ฒด๋ฅผ ๋ฐ์ด๋ฉ ๋ฐ์ค ํํ๋ก ํ์งํ๊ณ ๋ถ๋ฅํ๋ฉฐ ๋ง์คํฌ๋ฅผ ์์ฑํ ์ ์๋ YOLOv8-seg
๋ชจ๋ธ ์ค, ์์ฐฐ ๋ก๋ด์ ์ ํ๋ ์ฐ์ฐ ์ฑ๋ฅ์ ๊ณ ๋ คํ์ฌ ํ๋ผ๋ฏธํฐ ๊ฐ์์ ์ฐ์ฐ๋์ด ์ ์ YOLOv8n-seg ๋ชจ๋ธ์ ์ฌ์ฉํ์๋ค.
๋ณธ ์ฐ๊ตฌ์์๋ YOLOv8n-seg ๋ชจ๋ธ์ ์ฑ๋ฅ ํ๊ฐ ์งํ๋ก ํ์ง ์ ํ๋ ์ธก๋ฉด์์ F1 score์ AP(Average Precision)๋ฅผ ์ฌ์ฉํ์๊ณ ,
ํ์ง ์๋ ์ธก๋ฉด์์ FPS(Frames Per Second)๋ฅผ ์ฌ์ฉํ์๋ค. F1 score๋ ์ ๋ฐ๋(precision)์ ์ฌํ์จ(recall)์ ์กฐํ
ํ๊ท ์ผ๋ก ์ข
ํฉ์ ์ธ ๋ชจ๋ธ ์ฑ๋ฅ์ ๋ณด์ฌ์ค๋ค(Eq. (1)). ์ ๋ฐ๋๋ ๋ชจ๋ธ์ด ์์ฑ์ผ๋ก ์์ธกํ ๊ฒ ์ค ์ค์ ์์ฑ์ธ ๊ฒ์ ๋น์จ์ด๋ฉฐ, ์ฌํ์จ์ ์ค์ ์์ฑ์ธ ๊ฒ ์ค ๋ชจ๋ธ์ด ์์ฑ์ผ๋ก ์ ํํ๊ฒ ์์ธกํ ๊ฒ์ ๋น์จ์ด๋ค.
F1 score๋ 0์์ 1 ์ฌ์ด์ ๊ฐ์ ๊ฐ์ง๋ฉฐ, 1์ ๊ฐ๊น์ธ์๋ก ํ์ง ์ ํ๋๊ฐ ๋๋ค๋ ๊ฒ์ ์๋ฏธํ๋ค.
where,
$Precision=\dfrac{True \;Positive}{True \;Positive+False \;Positive}$,
$Recall=\dfrac{True \;Positive}{True \;Positive+False\; Negative}$
AP๋ ๊ฐ์ฒด ํ์ง ๋ชจ๋ธ์ ์ฑ๋ฅ์ ํ๊ฐํ๋ ์งํ๋ก IoU(Intersection over Union) ์๊ณ๊ฐ์ ์ค์ ํ์ฌ ์ฐ์ถ๋๋ค. IoU๋ ๋ชจ๋ธ์ด ์์ธกํ
์์ญ(predict)๊ณผ ์ค์ ์์ญ(true) ๊ฐ์ ์ค์ฒฉ๋๋ฅผ ๋ํ๋ด๋ฉฐ, ์์ธก ์์ญ๊ณผ ์ค์ ์์ญ์ ํฉ์งํฉ ์ค ์์ธก ์์ญ๊ณผ ์ค์ ์์ญ์ ๊ต์งํฉ์ ๋น์จ์ด๋ค(Eq.
(2)).
AP50์ IoU ์๊ณ๊ฐ์ด 0.5์ผ ๋ ์ธก์ ํ ๊ฐ์ด๋ฉฐ, AP50-95๋ IoU ์๊ณ๊ฐ์ 0.5์์ 0.95๊น์ง 0.05 ๊ฐ๊ฒฉ์ผ๋ก ์ฆ๊ฐ์ํค๋ฉด์ ๊ณ์ฐํ
AP ๊ฐ์ ํ๊ท ์ด๋ค. AP50๊ณผ AP50-95๋ 0์์ 1 ์ฌ์ด์ ๊ฐ์ ๊ฐ์ง๋ฉฐ, ๊ฐ์ด ํด์๋ก ๋ชจ๋ธ์ ํ์ง ์ ํ๋๊ฐ ๋๋ค๋ ๊ฒ์ ์๋ฏธํ๋ค.
FPS๋ 1์ด๋น ์ฒ๋ฆฌํ ์ ์๋ ์์ ํ๋ ์์ ๊ฐ์๋ฅผ ๋ํ๋ด๋ฉฐ, FPS ๊ฐ์ด ํด์๋ก ํ์ง ์๋๊ฐ ๋น ๋ฅด๋ค๋ ๊ฒ์ ์๋ฏธํ๋ค. FPS๋ ์์ฉ ๋ถ์ผ์ ๋ฐ๋ผ
์๊ตฌ๋๋ ์ฒ๋ฆฌ ์๋๊ฐ ๋ค์ํ๋ฉฐ, ์์ ๊ฐ์ ๋ถ์ผ์์๋ ์ผ๋ฐ์ ์ผ๋ก 10~15 FPS๊ฐ ์ฌ์ฉ๋๋ค(IPVM, 2021).
3. ๊ฒฐ๊ณผ ๋ฐ ๋ถ์
3.1 ์คํ ํ๊ฒฝ ๊ตฌ์ถ
๋ณธ ์คํ์ Intel(R) Core(TM) i9-12900F CPU@ 2.40 GHz, 128GB RAM, NVIDIA GeForce RTX 2060
๊ทธ๋ํฝ ์นด๋, Windows 10(64bit) ํ๊ฒฝ์์ ์ํ๋์๋ค. ๋จผ์ , ๋ฐ์ดํฐ ๋ผ๋ฒจ๋ง ํ๋ซํผ์ธ ๋ก๋ณดํ๋ก์ฐ(Roboflow, 2025)์์ 13,306์ฅ์ ์ธ๋ฌผ ์ฌ์ง์ ์์งํ๊ณ ํ์ต ๋ฐ์ดํฐ๋ฅผ ๊ตฌ์ถํ์๋ค. ์์งํ ๋ฐ์ดํฐ๋ฅผ 7:3 ๋น์จ๋ก ๋๋์ด YOLOv8n-seg ๋ชจ๋ธ์ ํ์ต๊ณผ ๊ฒ์ฆ์
ํ์ฉํ์๋ค. ๋ชจ๋ธ ํ์ต ํ์ดํผ ํ๋ผ๋ฏธํฐ๋ก ์์ ํฌ๊ธฐ๋ 640 ร 640, ๋ฐฐ์น ์ฌ์ด์ฆ๋ 16, ์ํฌํฌ๋ 200ํ๋ฅผ ์ค์ ํ์๋ค. ํ์ต๋ ๋ชจ๋ธ์ ํ๊ฐํ
๊ฒฐ๊ณผ, F1-score๋ 0.82, AP50์ 0.85, AP50-95๋ 0.61๋ก ์ธก์ ๋์๋ค.
๊ฐ ์คํ ๊ณต๊ฐ์์ ๊ดํ ์์์ ์ทจ๋ํ๊ธฐ ์ํด 4์กฑ ๋ณดํ ๋ก๋ด์ ์ฅ์ฐฉ๋ ๊ดํ ์นด๋ฉ๋ผ์ LED ์กฐ๋ช
์ ์ด์ฉํ์๋ค(Fig. 2). Table 1์ ์์ ์ทจ๋์ ์ฌ์ฉ๋ ์นด๋ฉ๋ผ์ ์ฌ์์ ๋ณด์ฌ์ฃผ๋ฉฐ, ์นด๋ฉ๋ผ์ ๋
ธ์ถ์๊ฐ(exposure time), ์ด๋๊ฐ(gain), ํ์ดํธ ๋ฐธ๋ฐ์ค(white balance)๋
๊ฐ ์คํ ๊ณต๊ฐ์ ๋ฐ๋ผ ์๋์ผ๋ก ์ต์ ํ๋ ๊ฐ์ ์ฌ์ฉํ์๋ค. ์ค๋ด ๊ณต๊ฐ์ ์กฐ๋ช
์ ์์น์ ์ฌ์ฉ ์ฌ๋ถ์ ๋ฐ๋ผ ์์ดํ ์กฐ๋ ํ๊ฒฝ์ด ํ์ฑ๋๋ฉฐ, ๋ฐ์ ์กฐ๋ช
ํ๊ฒฝ(bright
light), ํ๋ฆฟํ ์กฐ๋ช
ํ๊ฒฝ(dim light), ๋ถ๋ถ ์กฐ๋ช
ํ๊ฒฝ(partial light), ์กฐ๋ช
์ด ๊ฑฐ์ ์๋ ํ๊ฒฝ(dark)์ผ๋ก ๊ตฌ๋ถํ์๋ค(Fig. 3).
Fig. 3(a)๋ ์ค๋ด ์กฐ๋ช
์ ๋ชจ๋ ์ฌ์ฉํ์ฌ ๊ฐ์ฅ ๋ฐ์ ํ๊ฒฝ์ผ๋ก, ์ฌ๋์ ์ธ์ํ๊ธฐ ์ฉ์ดํ๋ค. Fig. 3(b)์ Fig. 3(a)๋ณด๋ค ์กฐ๋๊ฐ ๋ฎ์ง๋ง, ๋ฒฝ์ ๋ฐ์ฌ๋ LED ์กฐ๋ช
์ผ๋ก ์ธํด ๊ทผ๊ฑฐ๋ฆฌ์ ์๋ ์ฌ๋์ ์ฝ๊ฒ ๊ด์ฐฐํ ์ ์๋ค. Fig. 3(c)๋ ์ด๋ก์ง๋ง, ๋ถ๋ถ์ ์ผ๋ก ๋ฐ์ ๊ณต๊ฐ์ด ์กด์ฌํ๋ฉฐ, ์ฌ๋์ ํํ๋ฅผ ํ์
ํ ์ ์์ผ๋ ๊ฒฝ๊ณ๊ฐ ํ๋ฆฟํ๋ค. Fig. 3(d)๋ ๊ฐ์ฅ ์ด๋์ฐ๋ฉด์ ์ฌ๋์ ํฌ๊ธฐ๊ฐ ์๊ฒ ๋ํ๋, ํํ์ ์์น๋ฅผ ๋ช
ํํ๊ฒ ํ๋ณํ๊ธฐ ์ด๋ ต๋ค.
Fig. 2. A Quadruped Robot Equipped with a Camera
Fig. 3. Test Sites. (a) Bright Light, (b) Dim Light, (c) Partial Light, (d) Dark
Table 1. Specifications of the Camera
Camera Model
|
ZED 2i
|
Sensor Type
|
Dual 1/3" 4MP CMOS
|
Channel
|
R / G / B
|
Pixel Size
|
2ใ ร 2ใ
|
Resolution (W ร H)
|
672 ร 376
|
3.2 ์ ์กฐ๋ ์์์ ์์ธ์ฑ ๊ฐ์ ํ๊ฐ
Table 2๋ ์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ ์ ์ฉ ๊ฒฐ๊ณผ๋ฅผ ๋ณด์ฌ์ค๋ค. ์๋ณธ ์์์ ์กฐ๋๊ฐ ๋ฎ์์ง์ ๋ฐ๋ผ ๋ฐ๊ธฐ์ ๋๋น๊ฐ ๊ฐ์ํ์ฌ ์ฌ๋์ ์๋ณํ๊ธฐ ์ด๋ ค์ ์ผ๋ฉฐ, ์ผ๋ถ ์ด๋์ด
์์ญ์์๋ ๋ฏธ์ธํ ๋ถ์์ ๋
ธ์ด์ฆ๊ฐ ๊ด์ฐฐ๋์๋ค. ์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ์ ์ ์ฉํ ๊ฒฐ๊ณผ, ์ด๋์ด ์์ญ์ ํฝ์
๊ฐ์ด ์ฆํญ๋์ด ๋ค์์ ์์์์ ๋ถ์์ ๋
ธ์ด์ฆ๊ฐ
๋๋๋ฌ์ง๊ฒ ๋ํ๋ฌ์ผ๋, ๋ฐ๊ธฐ์ ๋๋น๊ฐ ๊ฐ์ ๋์ด ๊ฐ์๊ฑฐ๋ฆฌ๊ฐ ์ฆ๊ฐํจ์ ๋ฐ๋ผ ์ฌ๋ ์ธ์์ด ์์ํด์ก๋ค. GLADNet์ ์์์ ์์๊ณผ ๋ฐ๊ธฐ๋ฅผ ๋์์ ๊ฐ์ ํ๋
๋ฐ ํจ๊ณผ์ ์ด์์ผ๋, ์ด๋์ด ์์์ ๋ถ์์ ๋
ธ์ด์ฆ๋ฅผ ์ฆํญ์์ผฐ๋ค. KinD๋ ๋ค๋ฅธ ๊ธฐ๋ฒ๋ณด๋ค ๋
ธ์ด์ฆ๊ฐ ์ ๊ณ , ๋ฐ๊ธฐ์ ์์์ ๊ท ํ ์๊ฒ ๊ฐ์ ํ์๋ค. TBEFN์
์ด๋์ด ์์์ ๋ฐ๊ธฐ์ ๋๋น๋ฅผ ๊ณ ๋ฅด๊ฒ ํฅ์์์ผฐ์ผ๋ฉฐ, ๋ฐ์ ์์์ ํฝ์
๊ฐ ๋ํ ํฌ๊ฒ ์ฆ๊ฐ์์ผฐ๋ค. LLFormer๋ ์์ ๋ณต์ ํจ๊ณผ๊ฐ ๋ฐ์ด๋ฌ์ผ๋, ๋ฐ๊ธฐ
๊ฐ์ ์ ํ๊ณ๊ฐ ์๋ ๊ฒ์ผ๋ก ๊ด์ฐฐ๋์๋ค. EnlightenGAN์ ์ ์กฐ๋ ์์์ ๋ฐ๊ธฐ๋ฅผ ์ฆ๊ฐ์์ผฐ์ผ๋, ์ง๋์น๊ฒ ๊ฐํํ์ฌ ์์์ ์๊ณก์์ผฐ๋ค. Zero-DCE๋
์์ธ์ฑ์ ํฅ์์์ผฐ์ผ๋, ๋ฐ๊ธฐ์ ๋๋น๋ฅผ ๊ณผ๋ํ๊ฒ ์ฆ๊ฐ์์ผ ๋ถ์์ฐ์ค๋ฌ์ด ์์์ ์์ฑํ์๋ค.
Table 3์ ์ ์กฐ๋ ๊ฐํ ์์์ ํ๊ท ์์ ํ๊ฐ ์งํ๋ฅผ ๋ณด์ฌ์ค๋ค. BRISQUE์ NIQE์์ Zero-DCE๋ฅผ ์ ์ธํ ๋ชจ๋ ๊ฐํ ์์์ ํ์ง์ด ๊ฐ์ ๋ ๊ฒ์ผ๋ก
๋ํ๋ฌ๋ค. BRISQUE์์ ์๋ณธ ์์์ 29.04์ธ ๋ฐ๋ฉด, TBEFN ์์์ 20.24๋ก ๊ฐ์ฅ ๋ฎ์ ๊ฐ์ด ์ฐ์ถ๋์ด ์์ ํ์ง์ด ๊ฐ์ฅ ํฌ๊ฒ ๊ฐ์ ๋
๊ฒ์ผ๋ก ๋ํ๋ฌ๋ค. EnlightenGAN๊ณผ KinD ์์์ ๊ฐ๊ฐ 20.73๊ณผ 21.81๋ก TBEFN์ ์ด์ด ์ฐ์ํ ์์ ํ์ง์ ๋ณด์๋ค. ํ์ง๋ง, ์ก์
๋ถ์์์ ๋ถ์์ฐ์ค๋ฌ์ด ์์์ด ๊ด์ฐฐ๋ EnlightenGAN์ด BRISQUE์์ ๋ ๋ฒ์งธ๋ก ์ฐ์ํ ๊ธฐ๋ฒ์ผ๋ก ๋ํ๋ฌ๋ค. ์ด๋ BRISQUE๊ฐ ์ฌ๋์ ์๊ฐ์
ํ์ง ํ๋จ๊ณผ ๋ค์ ์ฐจ์ด๊ฐ ์์์ ๋ณด์ฌ์ค๋ค. ํํธ, NIQE์์๋ KinD ์์์ด 5.27๋ก ๊ฐ์ฅ ๋ฎ์ ๊ฐ์ด ์ฐ์ถ๋์ด ์์ ํ์ง์ด ๊ฐ์ฅ ํจ๊ณผ์ ์ผ๋ก ๊ฐ์ ๋
๊ฒ์ผ๋ก ๋ํ๋ฌ๋ค. LLFormer์ TBEFN ์์์ ๊ฐ๊ฐ 6.10, 6.79๋ก ๊ณ์ฐ๋์ด KinD ์์์ ์ด์ด ์์ ํ์ง์ด ๊ณ ๋ฅด๊ฒ ๊ฐ์ ๋ ๊ฒ์ผ๋ก ๋ถ์๋์๋ค.
์ ์กฐ๋ ์์์ ์์ธ์ฑ ๊ฐ์ ์ ๋ฐ๋ฅธ ์ฌ๋ ํ์ง ์ฑ๋ฅ ํฅ์์ ํ๊ฐํ๊ธฐ ์ํด KinD, TBEFN, LLFormer ์์์ ์ ์ ํ์๋ค. KinD์ TBEFN์
์ก์ ๋ถ์๊ณผ ํ๊ฐ ์งํ์์ ๋ชจ๋ ์ฐ์ํ ๊ฒฐ๊ณผ๋ฅผ ๋ณด์ด๋ฉฐ, ๋ค์ํ ์ ์กฐ๋ ํ๊ฒฝ์์ ๊ฐ์ธํ ์ฑ๋ฅ์ ๋ํ๋๋ค. LLFormer๋ ๋ ๊ธฐ๋ฒ์ ์ด์ด ์ฐ์ํ ์์
ํ์ง ์งํ๊ฐ ์ฐ์ถ๋์์ผ๋ฉฐ, ์ก์ ๋ถ์์์ ์ ์กฐ๋ ์์์ ์์์ ํจ๊ณผ์ ์ผ๋ก ๋ณต์ํ๋ ํน์ง์ ๋ณด์๋ค.
Table 2. Low-Light Image Enhancement Results
Table 3. Image Quality Metrics for the Raw Image and Enhanced Images
Methods
|
BRISQUE
(rank)
|
NIQE
(rank)
|
Raw
|
29.04 (6)
|
9.68 (6)
|
GLADNet
|
27.27 (5)
|
7.42 (4)
|
KinD
|
21.81 (3)
|
5.27 (1)
|
TBEFN
|
20.24 (1)
|
6.79 (3)
|
LLFormer
|
22.73 (4)
|
6.10 (2)
|
EnlightenGAN
|
20.73 (2)
|
7.60 (5)
|
Zero-DCE
|
29.48 (7)
|
10.39 (7)
|
3.3 ์ ์กฐ๋ ๊ฐํ ์์ ๊ธฐ๋ฐ ์ฌ๋ ํ์ง ์ฑ๋ฅ ํ๊ฐ
์ ์กฐ๋ ๊ฐํ ์์์ ์์ธ์ฑ ๊ฐ์ ์ ๋ฐ๋ฅธ ์ฌ๋ ํ์ง ์ฑ๋ฅ ํฅ์์ ํ๊ฐํ๊ธฐ ์ํด KinD, TBEFN, LLFormer ์์์์ F1-score, AP50,
AP50-95๋ฅผ ๋น๊ต ๋ถ์ํ์๋ค. Table 4๋ ์๋ณธ ์์๊ณผ ๊ฐํ ์์์์์ YOLOv8n-seg ๋ชจ๋ธ ์ ์ฉ ๊ฒฐ๊ณผ๋ฅผ ๋ณด์ฌ์ค๋ค. F1 score์์ ์๋ณธ ์์์ 72.7 %์ธ ๋ฐ๋ฉด, KinD์
LLFormer์์๋ ๊ฐ๊ฐ 96.3 %์ 92.3 %๊ฐ ์ฐ์ถ๋์ด ํ์ง ์ ํ๋๊ฐ ํฌ๊ฒ ํฅ์๋์์์ ๋ณด์ฌ์ค๋ค. ํ์ง๋ง, TBEFN์ 72.7 %๋ก, ์๋ณธ
์์๊ณผ ๋์ผํ ์ฑ๋ฅ์ ๋ณด์ฌ์ฃผ์๋ค. AP50์์ KinD๋ 96.4 %๊ฐ ์ฐ์ถ๋์ด ๊ฐ์ฅ ๋์ ์ ํ๋๋ฅผ ๋ณด์๊ณ , LLFormer๋ 92.8 %๊ฐ ์ฐ์ถ๋์ด
๋ ๋ฒ์งธ๋ก ๋์ ์ ํ๋๋ฅผ ๋ณด์๋ค. ๋ฐ๋ฉด, TBEFN์ ํ์ง ์ฑ๋ฅ์ด ์ ์ง๋ ๊ฒ์ผ๋ก ๋ํ๋ฌ๋ค. AP50-95์์ KinD์ LLFormer๋ 69.5
%, 64.3 %๋ก ๋์ ํ์ง ์ ํ๋๊ฐ ์ฐ์ถ๋์์ผ๋, TBEFN์ 60.5 %๋ก ์๋ณธ ์์(61.2 %)๋ณด๋ค ๋ฎ์ ํ์ง ์ ํ๋๊ฐ ์ฐ์ถ๋์๋ค.
Table 5๋ YOLOv8n-seg ๋ชจ๋ธ ์ ์ฉ ๊ฒฐ๊ณผ๋ฅผ ์๊ฐ์ ์ผ๋ก ๋ณด์ฌ์ค๋ค. ์๋ณธ ์์์ ๊ฒฝ์ฐ ๋ฐ์ ํ๊ฒฝ์์๋ ์ฌ๋์ ๋ฐ์ด๋ฉ ๋ฐ์ค์ ๋ง์คํฌ๋ฅผ ์ ํํ ํ์งํ ์
์์์ผ๋, ์กฐ๋๊ฐ ๋ฎ์์ง์๋ก ๊ฐ์ฒด ๊ฐ ๊ฒฝ๊ณ๊ฐ ํ๋ฆฟํ์ฌ ์ฌ๋์ ์ ํํ ํ์งํ์ง ๋ชปํ์๋ค. ๋ฐ๋ฉด, KinD์ LLFormer๋ ์ ์กฐ๋ ์์์ ์์ธ์ฑ์
๊ฐ์ ํจ์ผ๋ก์จ ๋ฎ์ ์กฐ๋ ํ๊ฒฝ์์๋ ๋์ ํ์ง ์ฑ๋ฅ์ ๋ํ๋๊ณ , ์ค์ ์ฌ๋์ ํ์๊ณผ ์ ์ฌํ ๋ง์คํฌ๋ฅผ ์์ฑํ์๋ค. ํนํ, ๊ฐ์ฅ ์ด๋์ด ํ๊ฒฝ์์ ์๋ณธ ์์์
์ฌ๋์ ํ์งํ์ง ๋ชปํ์์ผ๋, KinD์ LLFormer ์์์ ์์์ ์ค์ฒฉ๋ ์ฌ๋์ ์ ์ธํ ๋ชจ๋ ์ฌ๋์ ์ ํํ๊ฒ ํ์งํ์๋ค. ํ์ง๋ง, TBEFN ์์์
๋ฎ์ ํ์ง ์ฑ๋ฅ์ด ๋ํ๋ฌ๋ค. ๋ฐ์ ํ๊ฒฝ์์๋ ๊ณผ๋ํ ๊ฐํ๋ก ์ธํด ์์์ ์ธ๋ถ ์ ๋ณด๊ฐ ์์ค๋์ด ์ฌ๋ ํ ๋ช
์ ํ์งํ์ง ๋ชปํ์๊ณ , ๊ฐ์ฅ ์ด๋์ด ํ๊ฒฝ์์๋
์์ธ์ฑ์ด ๊ฐ์ ๋์์์๋ ์ฌ๋ ํ์ง์ ์คํจํ์๋ค. ์ด๋ ์์์ ์์ธ์ฑ์ ๊ฐ์ ํ๋ ๊ณผ์ ์์ ์์ค๋ ์์์ ์ธ๋ถ ์ ๋ณด๊ฐ YOLOv8n-seg ๋ชจ๋ธ์ ํ์ง
์ฑ๋ฅ์ ๋ถ์ ์ ์ธ ์ํฅ์ ๋ฏธ์น ๊ฒ์ผ๋ก ํ๋จ๋๋ฉฐ, ๊ธฐ๋ฒ์ ๋ฐ๋ผ ํ์ง ์ฑ๋ฅ์ด ํฌ๊ฒ ๋ฌ๋ผ์ง ์ ์์์ ๋ณด์ฌ์ค๋ค.
์คํ ๊ฒฐ๊ณผ KinD๊ฐ ๋ชจ๋ ์งํ(F1 score, AP50, AP50-95)์์ ๊ฐ์ฅ ์ฐ์ํ ์ฑ๋ฅ์ ๋ํ๋๊ณ , LLFormer๊ฐ ๋ ๋ฒ์งธ๋ก ์ฐ์ํ
ํ์ง ์ฑ๋ฅ์ ๋ํ๋๋ค. ๋ ๊ธฐ๋ฒ์ ๊ฑด๋ฌผ ๋ด๋ถ์ ์ผ๊ฐ ์กฐ๋ ํ๊ฒฝ์์ YOLOv8n-seg ๋ชจ๋ธ์ ํ์ง ์ฑ๋ฅ์ ํจ๊ณผ์ ์ผ๋ก ๊ฐ์ ํ ๊ฒ์ผ๋ก ํ์ธ๋์๋ค. ํ์ง๋ง,
TBEFN์ ํ๊ฐ ์งํ์์ ์๋ณธ ์์๊ณผ ๋์ผํ๊ฑฐ๋ ๋ฎ์ ๊ฐ์ ๊ธฐ๋กํ์ฌ YOLOv8n-seg ๋ชจ๋ธ์ ์ฑ๋ฅ์ด ์ ํ๋ ๊ฒ์ผ๋ก ๋ถ์๋์๋ค.
์ผ๊ฐ ์์ฐฐ ์์์์ ์ค์๊ฐ ์ฌ๋ ํ์ง ๊ฐ๋ฅ์ฑ์ ๊ฒํ ํ๊ธฐ ์ํด ์์ธ์ฑ๊ณผ ํ์ง ์ฑ๋ฅ์ด ํฌ๊ฒ ํฅ์๋ KinD์ LLFormer ์์์ ๋์์ผ๋ก ๊ฐ ์์๊ฐํ
๊ธฐ๋ฒ์ ์์ธ์ฑ ๊ฐ์ ๊ณผ YOLOv8n-seg ๋ชจ๋ธ์ ์ฌ๋ ํ์ง ๊ณผ์ ์ ๋ชจ๋ ํฌํจํ ์ ์ฒด ์ฒ๋ฆฌ ์๋๋ฅผ ๋ถ์ํ์๋ค(Table 6). ์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ์ด ์ ์ฉ๋์ง ์์ ๊ฒฝ์ฐ, ์์๋น 0.011์ด๊ฐ ์์๋๋ฉฐ 90.91 FPS์ ํ์ง ์๋๋ฅผ ๋ณด์๋ค. LLFormer ๊ธฐ๋ฒ์ 2.62
FPS์ ์ถ๋ก ์๋๋ฅผ ๋ณด์ด๋ฉฐ, ์์ฐฐ ๋ก๋ด์ ์ค์๊ฐ ํ์ง์ ์ ํฉํ์ง ์์ ๊ฒ์ผ๋ก ๋ถ์๋์๋ค. ๋ฐ๋ฉด, ๊ฐ์ฅ ์ฐ์ํ ํ์ง ์ฑ๋ฅ์ ๋ณด์๋ KinD ๊ธฐ๋ฒ์
13.89 FPS์ ํ์ง ์๋๋ฅผ ๋ณด์ฌ ์์ฐฐ ๋ก๋ด์ ์ค์๊ฐ ํ์ง์ ํ์ฉํ ์ ์์ ๊ฒ์ผ๋ก ํ๋จ๋๋ค.
Table 4. Results of YOLOv8n-seg Using Different Image Enhance- ment Methods
Methods
|
F1 Score
(%)
|
AP50
(%)
|
AP50-95
(%)
|
YOLOv8n-seg
|
72.7
|
78.6
|
61.2
|
KinD + YOLOv8n-seg
|
96.3
|
96.4
|
69.5
|
TBEFN + YOLOv8n-seg
|
72.7
|
78.6
|
60.5
|
LLFormer + YOLOv8n-seg
|
92.3
|
92.8
|
64.3
|
Table 5. Human Detection Results of the YOLOv8n-seg with Image Enhancement Methods
Table 6. Comparison of Speed for Human Detection
Methods
|
Run Time
(s)
|
Frames Per Second (FPS)
|
YOLOv8n-seg
|
0.011
|
90.91
|
KinD + YOLOv8n-seg
|
0.072
|
13.89
|
LLFormer + YOLOv8n-seg
|
0.381
|
2.62
|
4. ๊ฒฐ ๋ก
๋ณธ ์ฐ๊ตฌ์์๋ ๋ค์ํ ์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ(GLADNet, KinD, TBEFN, LLFormer, EnlightenGAN, Zero-DCE)์ ์ผ๊ฐ
์์ฐฐ ์์์ ์ ์ฉํ์ฌ ์์ธ์ฑ ๊ฐ์ ํจ๊ณผ์ YOLOv8n-seg ๋ชจ๋ธ์ ์ฌ๋ ํ์ง ์ฑ๋ฅ ํฅ์์ ๋ถ์ํ์๋ค. ์ ์กฐ๋ ๊ฐํ ์์์ ๋ฐ๊ธฐ์ ๋๋น๊ฐ ์ฆ๊ฐํจ์
๋ฐ๋ผ ์์ธ์ฑ์ด ๊ฐ์ ๋์ด ์ฌ๋์ ์์น์ ํํ๋ฅผ ๋ช
ํํ๊ฒ ํ์
ํ ์ ์์๊ณ , YOLOv8n-seg ๋ชจ๋ธ์ ํ์ง ์ ํ๋๊ฐ ์ฆ๊ฐํ์๋ค.
๊ฑด๋ฌผ ๋ด๋ถ์ ์ผ๊ฐ ์กฐ๋ ํ๊ฒฝ์์ ์์ฐฐ ์์์ ์์๊ณผ ๋ฐ๊ธฐ๋ฅผ ๊ณ ๋ฅด๊ฒ ๊ฐ์ ํ ๊ธฐ๋ฒ์ KinD, TBEFN, LLFormer๋ก ๋ถ์๋์๋ค. KinD๋ ์ก์
๋ถ์๊ณผ ํ๊ฐ ์งํ์์ ์ ์กฐ๋ ์์์ ์์๊ณผ ๋ฐ๊ธฐ๋ฅผ ๊ฐ์ฅ ํจ๊ณผ์ ์ผ๋ก ๋ณต์ํ์๋ค. TBEFN์ KinD์ ์ ์ฌํ๊ฒ ์์ ํ์ง์ ํฌ๊ฒ ๊ฐ์ ํ์๊ณ , LLFormer๋
์๋์ ์ผ๋ก ํ์ง ๊ฐ์ ํจ๊ณผ๊ฐ ๋ฎ์์ผ๋, ์์ ๋ณต์ ํจ๊ณผ๊ฐ ๋ฐ์ด๋ ํน์ง์ด ์์๋ค. KinD, TBEFN, LLFormer ์์์ ๋์์ผ๋ก YOLOv8n-seg
๋ชจ๋ธ์ ์ ์ฉํ์๊ณ , KinD์ LLFormer ์์์์ ํ์ง ์ฑ๋ฅ์ด ํฌ๊ฒ ํฅ์๋ ๊ฒ์ผ๋ก ๋ํ๋ฌ๋ค. ํนํ, KinD๋ ์ ์กฐ๋ ์์์ ์์ธ์ฑ์ ์ค์๊ฐ์ผ๋ก
๊ฐ์ ํ๊ณ , ํ์ง ์ฑ๋ฅ์ ๊ฐ์ฅ ํฌ๊ฒ ๊ฐ์ ํ๋ ๊ฒ์ผ๋ก ๋ถ์๋์๋ค.
์์ฐฐ ๋ก๋ด์ด ์ดฌ์ํ ์์์ ์๊ฒฉ ์กฐ์ข
์์ ๋ก๋ด ์กฐ์, ์์ฐฐ ๊ตฌ์ญ ํ์
, ์์ฌ ๊ฒฐ์ ์ ์ง์ํ๋ฉฐ, ๋ฅ๋ฌ๋ ๊ธฐ๋ฐ ๊ฐ์ฒด ํ์ง ๊ธฐ๋ฒ๊ณผ ๊ฒฐํฉํ์ฌ ์ค๋ด ๋ณด์ ๋ฐ
๋ฐฉ๋ฒ์ ํ์ฉ๋ ์ ์๋ค. ์ค๋ด ์ผ๊ฐ ์กฐ๋ ํ๊ฒฝ์ ๊ฐ์ธํ ๊ฒ์ผ๋ก ๋ถ์๋ KinD๋ ์์ฐฐ ์์์ ์์ธ์ฑ์ ์ค์๊ฐ์ผ๋ก ๊ฐ์ ํ๊ณ ๋ก๋ด์ ํ์ง ์ฑ๋ฅ์ ํฌ๊ฒ
ํฅ์์์ผ ์์ฐฐ ๋ก๋ด์ ์๋ฌด ์ํ ๋ฅ๋ ฅ์ ์ฆ๋์ํฌ ์ ์์ ๊ฒ์ผ๋ก ์์๋๋ค. ์์ฐฐ ๋ก๋ด์ ๊ฑด๋ฌผ ๋ด๋ถ๋ฅผ ์์ ๋กญ๊ฒ ์ด๋ํ๋ฉด์ ์นจ์
์๋ ์ด์ ์ํฉ์ ์ ์ํ๊ฒ
ํ์งํ๊ณ ๋์ํด์ผ ํ๋ฏ๋ก, ์์์ ์์ธ์ฑ ๊ฐ์ ๋ฐ ํ์ง ์ฑ๋ฅ ํฅ์๊ณผ ๋๋ถ์ด ์์จ ์ฃผํ์ ์ํ ์ ํํ ์์น ์ถ์ ๊ณผ ์ง๋ ๊ตฌ์ถ์ด ํ์์ ์ด๋ค. ํฅํ ์ฐ๊ตฌ์์๋
๋ฌด์ธ ์์ฐฐ ๋ก๋ด ์ด์ฉ์ ์ํด ์ ์กฐ๋ ์์๊ฐํ ๊ธฐ๋ฒ ๋ฐ ๊ฐ์ฒด ํ์ง ๊ธฐ๋ฒ๊ณผ Visual SLAM(Simultaneous Localization And
Mapping) ๊ธฐ๋ฒ ๊ฐ๋ฐ์ด ํ์ํ๋ค.
Acknowledgements
This work was supported by the National Research Foundation of Korea(NRF) grant
funded by the Korea government(MSIT) (No. 2022R1F1A1064577).
References
"Banerjee, S., Kumar, A. and Shekhar, A. (2024). โIndoor surveillance robot with person
following and re-identification.โ Proc. of the 2024 International Joint Conference
on Neural Networks (IJCNN), IEEE, Yokohama, Japan, pp. 1-8."

"Bosse, S., Maniry, D., Muller, K. R., Wiegand, T. and Samek, W. (2017). โDeep neural
networks for no-reference and full- reference image quality assessment.โ IEEE Transactions
on Image Processing, IEEE, Vol. 27, No. 1, pp. 206-219, https://doi. org/10.1109/TIP.2017.2760518."

"Chang, J. H., Na, K. I. and Shin, H. C. (2022). โTrend of technology for outdoor
security robots based on multimodal sensors.โ Electronics and Telecommunications Trends,
Electronics and Telecommunications Research Institute, Vol. 37, No. 1, pp. 1-9, http://dx.doi.org/10.22648/ETRI.2022.J.370101
(in Korean)."

"Chen, G. (2022). โRobotics applications at airports: Situation and tendencies.โ Proc.
of the 2022 14th International Conference on Measuring Technology and Mechatronics
Automation (ICMTMA), IEEE, Changsha, China, pp. 536-539."

"Chen, L., Fu, Y., Wei, K., Zheng, D. and Heide, F. (2023). โInstance segmentation
in the dark.โ International Journal of Computer Vision, Springer, Vol. 131, No. 8,
pp. 2198-2218, https://doi.org/ 10.1007/s11263-023-01808-8."

"Choi, J. W., Park, J. T. and Kim, M. S. (2022). โIndoor intruder detection using
YOLO and VMD in indoor security robot.โ Journal of The Korean Institute of Plant Engineering
and Safety, The Korean Institute of Plant Engineering and Safety, Vol. 27, No. 4,
pp. 13-19 (in Korean)."

"Guo, C., Li, C., Guo, J., Loy, C. C., Hou, J., Kwong, S. and Cong, R. (2020). โZero-reference
deep curve estimation for low-light image enhancement.โ Proc. of the 2020 IEEE/CVF
Conference on Computer Vision and Pattern Recognition (CVPR), IEEE, Seattle, WA, USA,
pp. 1780-1789."

"Hamid, W., Faudzi, A. A. M. and Ismail, K. B. (2022). โDesign and analysis of an
articulated tracked robot for search and rescue operations.โ Proc. of the 2022 IEEE
5th International Symposium in Robotics and Manufacturing Automation (ROMA), IEEE,
Malacca, Malaysia, pp. 1-6."

"IPVM (2021). Frame rate guide for video surveillance, Available at: https://ipvm.com/reports/frame-rate-surveillance-guide
(Accessed: February 4, 2025)."

"Jiang, Y., Gong, X., Liu, D., Cheng, Y., Fang, C., Shen, X., Yang, J., Zhou, P. and
Wang, Z. (2021). โEnlightengan: Deep light enhancement without paired supervision.โ
IEEE Transactions on Image Processing, IEEE, Vol. 30, pp. 2340-2349, https://doi.org/10.1109/TIP.2021.3051462."

"Jingchun, Z., Su, G. E. and Sunar, M. S. (2024). โLow-light image enhancement: A
comprehensive review on methods, datasets and evaluation metrics.โ Journal of King
Saud University-Computer and Information Sciences, Elsevier, Vol. 36, No. 10, p. 102234,
https://doi.org/10.1016/j.jksuci.2024.102234."

"Kim, K. H., Lim, S. H., Kim, M. S., Chung, J. S. and Choi, Y. J. (2022). โUnmanned
facility inspection at steelworks using a quadrupedal robot.โ Proc. of the 2022 the
37th ICROS Annual Conference, Institute of Control, Robotics and Systems, pp. 379-
380 (in Korean)."

"Kwak, S. S. (2014). Working conditions and improvement plan for apartment security
workers in Seoul (in Korean)."

"Lafuente-Arroyo, S., Martรญn-Martรญn, P., Iglesias-Iglesias, C., Maldonado-Bascรณn,
S. and Acevedo-Rodrรญguez, F. J. (2022). โRGB camera-based fallen person detection
system embedded on a mobile platform.โ Expert Systems with Applications, Elsevier,
Vol. 197, p. 116715, https://doi.org/10.1016/j.eswa.2022.116715."

"Lee, M. F. R. and Chien, T. W. (2020). โIntelligent robot for worker safety surveillance:
Deep learning perception and visual navigation.โ Proc. of the 2020 International Conference
on Advanced Robotics and Intelligent Systems (ARIS), IEEE, Taipei, Taiwan, pp. 1-6."

"Lee, K. S., Ovinis, M., Nagarajan, T., Seulin, R. and Morel, O. (2015). โAutonomous
patrol and surveillance system using unmanned aerial vehicles.โ Proc. of the 2015
IEEE 15th International Conference on Environment and Electrical Engineering (EEEIC),
IEEE, Rome, Italy, pp. 1291-1297."

"Lopez, A., Paredes, R., Quiroz, D., Trovato, G. and Cuellar, F. (2017). โRobotman:
A security robot for human-robot interaction.โ Proc. of the 2017 18th International
Conference on Advanced Robotics (ICAR), IEEE, Hong Kong, China, pp. 7-12."

"Lรณpez, J., Pรฉrez, D., Paz, E. and Santana, A. (2013). โWatchBot: A building maintenance
and surveillance system based on autonomous robots.โ Robotics and Autonomous Systems,
Elsevier, Vol. 61, No. 12, pp. 1559-1571, https://doi.org/10.1016/j.robot.2013.06.012."

"Lu, K. and Zhang, L. (2020). โTBEFN: A two-branch exposure- fusion network for low-light
image enhancement.โ IEEE Transactions on Multimedia, IEEE, Vol. 23, pp. 4093-4105,
https://doi.org/10.1109/TMM.2020.3037526."

"Mittal, A., Moorthy, A. K. and Bovik, A. C. (2012a). โNo-reference image quality
assessment in the spatial domain.โ IEEE Transactions on Image Processing, IEEE, Vol.
21, No. 12, pp. 4695-4708, https://doi.org/10.1109/TIP.2012.2214050."

"Mittal, A., Soundararajan, R. and Bovik, A. C. (2012b). โMaking a โcompletely blindโ
image quality analyzer.โ IEEE Signal Processing Letters, IEEE, Vol. 20, No. 3, pp.
209-212, https://doi.org/10.1109/LSP.2012.2227726."

"Park, S. H. and Bae, D. Y. (2015). โA change of private security labor market and
countermeasures by population aging.โ Journal of Convergence Security, Korea Convergence
Security Association, Vol. 15, No. 1, pp. 11-18 (in Korean)."

"Roboflow (2025). Roboflow: Computer vision tools for developers and enterprises,
Available at: https://roboflow.com/ (Accessed: January 31, 2025)."

"Terven, J., Cordova-Esparza, D. M. and Romero-Gonzalez, J. A. (2023). โA comprehensive
review of yolo architectures in computer vision: From yolov1 to yolov8 and yolo-nas.โ
Machine Learning and Knowledge Extraction, MDPI, Vol. 5, No. 4, pp. 1680-1716, https://doi.org/10.3390/make5040083."

"Ultralytics (2023). YOLOv8 โ Ultralytics YOLO docs, Available at: https://docs.ultralytics.com/models/yolov8/
(Accessed: January 31, 2025)."

"Wang, W., Wei, C., Yang, W. and Liu, J. (2018). โGladnet: Low-light enhancement network
with global awareness.โ Proc. of the 2018 13th IEEE International Conference on Automatic
Face & Gesture Recognition (FG 2018), IEEE, Xiโan, China, pp. 751-755."

"Wang, T., Zhang, K., Shen, T., Luo, W., Stenger, B. and Lu, T. (2023). โUltra-high-definition
low-light image enhancement: A benchmark and transformer-based method.โ Proc. of the
37th AAAI Conference on Artificial Intelligence, AAAI, Washington, DC, USA, pp. 2654-2662."

"Yoo, B. C. and Shin, S. J. (2024). โProposal for research model of high-function
patrol robot using integrated sensor system.โ The Journal of the Institute of Internet,
Broadcasting and Communication, The Institute of Internet, Broadcasting and Communication,
Vol. 24, No. 3, pp. 77-85, https://doi.org/10.7236/JIIBC.2024.24.3.77 (in Korean)."

"Yousif, T. and El-Medany, W. (2022). โDevelopment and hardware implementation of
IoT-based patrol robot for remote gas leak inspection.โ International Journal of Electrical
and Computer Engineering Systems, J.J. Strossmayer University of Osijek, Faculty of
Electrical Engineering, Computer Science and Information Technology, Vol. 13, No.
4, pp. 279-292, https://doi.org/10.32985/ijeces.13.4.4."

"Zhang, Y., Zhang, J. and Guo, X. (2019). โKindling the darkness: A practical low-light
image enhancer.โ Proc. of the 27th ACM International Conference on Multimedia, Association
for Computing Machinery, Nice, France, pp. 1632-1640."
