논문

[camera][obstacle] Cost-Effective Real-Time Obstacle Detection and Avoidance for AGVs using YOLOv8 and RGB-D Sensors

정지홍 2025. 6. 26. 11:04

Cost-Effective Real-Time Obstacle Detection and Avoidance for AGVs using YOLOv8 and RGB-D Sensors | Engineering, Technology & Applied Science Research

 

Cost-Effective Real-Time Obstacle Detection and Avoidance for AGVs using YOLOv8 and RGB-D Sensors | Engineering, Technolo

 

etasr.com

 

abstract

  • 최근 장애물 감지 및 회피 기술의 발전은 로봇의 내비게이션 능력을 크게 향상시켰습니다.
  • 본 연구에서는 YOLOv8RGB-D 센서를 활용한 실시간 장애물 감지 및 회피 시스템을 제안합니다.
  • 이 시스템은 Microsoft Kinect V1을 통합하여, RGB imagedepth image를 동시에 캡처하며, 효율적인 실시간 물체 감지 및 분류를 위해 YOLOv8을 사용합니다.
    • 깊이 데이터는 물체의 거리위치를 계산하는 데 활용되어, 정확한 내비게이션 의사결정을 가능하게 합니다.
  • Pioneer 3DX 로봇에 구현된 시스템은 높은 효율성, 신뢰성 및 적응성을 보여줍니다.
  • 학습 데이터셋을 통해 모델은 모든 물체 클래스에 대해 92.6%의 정확도와 mAP@0.5 기준에서 95%의 성능을 달성하는 뛰어난 결과를 보였습니다.
    • 다만, 이 시스템은 주로 구조화된 실내 환경에서 시험되었기 때문에 구조화되지 않은 야외 환경으로의 일반화에는 한계가 있을 수 있습니다.
  • 본 솔루션은 cost-effective한 접근을 통해 실제 응용 환경에서 자율 내비게이션 및 장애물 회피 성능을 향상시키는 실용적 방안을 제공합니다.

 


 

I. INTRODUCTION

  •  
  • 최근 몇 년 동안 정보통신 기술의 급속한 발전에 힘입어 자율 주행 로봇에 대한 연구가 학계와 산업계 모두에서 큰 주목을 받아왔습니다[1, 2].
  • 이러한 동향은 빅데이터, 인공지능, 사물인터넷(IoT) 등 이 혁신을 뒷받침하는 핵심 기술에 대한 탐구를 확대시켰습니다.
  • 동시에 이전 산업혁명을 선도했던 산업들에도 다시금 관심이 집중되고 있는데, 특히 스마트 팩토리가 수많은 분야에 걸쳐 변화를 촉발하는 혁신의 물결을 이끌고 있습니다.
  • 연구자들은 이 같은 발전 동향을 면밀히 관찰하고 있는데, 이는 다양한 산업 부문에 걸쳐 상당한 변화를 야기할 것으로 기대됩니다[3–5].
  • 로봇 차량의 자율 주행이란 인간의 직접적인 개입 없이 스스로 이동하고 작동하는 능력을 말합니다.
  • 이러한 능력은 카메라, 라이다(LiDAR), 소나(음파 탐지기) 등 다양한 센서를 통합하여 환경에 대한 상세한 데이터를 수집함으로써 구현됩니다.
  • 수집된 데이터는 내장된 알고리즘에 의해 처리되어 차량의 위치와 자세를 결정하게 됩니다.

 

  • 제조 시설, 창고, 유통 센터와 같은 환경에서는 자율 유도 차량(AGV)이 원자재와 완제품을 운송하는 데 흔히 사용됩니다[6].
  • 그러나 광학 센서만 장착된 AGV는 복잡한 환경을 독립적으로 주행하는 데 어려움을 겪습니다.
  • 카메라는 경로를 따라 특징을 포착할 수 있지만, AGV는 물체의 형태, 크기, 색상에 상관없이 실시간으로 장애물을 식별하고 회피할 수 있어야 합니다.
  • 장애물을 실시간으로 인식하고 이에 적응하는 능력은 정지, 감속 또는 회전과 같은 의사결정을 내리는 데 있어 매우 중요합니다.
  • 따라서 인간과 유사한 방식으로 객체를 인식하고 장애물을 감지·회피할 수 있는 AGV를 개발하여, 인간의 개입 없이 자율적이고 적응적으로 작동할 수 있도록 하는 것이 필수적입니다[7, 8].

 

  • 합성곱 신경망(CNN)은 물체 검출을 포함한 이미지 인식 작업에서 뛰어난 성능을 입증해 왔습니다.
  • You Only Look Once(YOLO) 알고리즘은 컴퓨터 비전 응용 분야에서 널리 사용되는 CNN 기반 프레임워크입니다.
  • YOLOv8은 정확도와 속도 면에서 획기적인 개선을 도입하여 자율 시스템의 실시간 장애물 검출에 이상적인 선택이 되었습니다.
  • 본 연구에서는 YOLOv8을 활용한 자율 주행 차량의 비전 기반 유도 시스템을 제시합니다.
  • 제안된 접근법은 기존의 딥러닝 기반 제어 시스템들과 비교되었으며, 특히 YOLOv8 기반 솔루션의 장점을 강조하였습니다.

 

  • 지난 10년 동안 AGV 항법에는 수많은 기법이 개발되어 적용되었습니다.
  • [9]에서는 이러한 접근법을 로컬 항법(일반 항법이라고도 함)과 휴리스틱 기반 경로 탐색에 의존하는 글로벌 항법의 두 가지 주요 유형으로 분류하였습니다.
  • [10]에서는 바닥에 부착된 자성 테이프를 가이드로 활용하는 자성 테이프 항법 기반 AGV 운동 제어 시스템을 제안하였는데, 구현이 용이하고 비용이 저렴하며 효율이 높다는 점이 특징입니다.
  • 이와 유사하게 [11]에서는 금속선 센서를 트랙 유도로, RFID 태그를 위치 인식용으로 사용하는 AGV 항법 시스템을 제안하였습니다.
  • [12]에서는 이중 자성 못(double magnetic nails)을 이용한 AGV 항법 접근법을 제시하였으며, 퍼지 제어기를 통해 신뢰할 수 있는 경로 추종 및 안정적인 정확도를 달성하였습니다.
  • 또한 [13]에서는 레이저 기반(LiDAR) 장애물 회피 시스템을 갖춘 2륜 AGV를 개발하였습니다.

 

  • 그래프 기반 휴리스틱 알고리즘도 AGV 항법, 특히 경로 탐색 작업에서 두각을 나타내고 있습니다[9, 14].
  • 널리 사용되는 알고리즘으로는 A* (A-star), D* Lite, 그리고 다익스트라 알고리즘이 있습니다[15].
  • 이들 방법은 다양한 환경에서 효과를 입증하며 자율 주행에서의 역할을 더욱 확고히 하였습니다.
  • 최근에는 영상 기반 항법과 물체 검출이 중요한 연구 분야로 부상하고 있습니다[16–18].
  • [19]에서는 Microsoft Kinect 센서를 YOLO 알고리즘과 통합하여 물체 검출 및 분류를 수행하고, 깊이 센서를 이용해 물체 거리를 측정하였습니다.
    • 비록 효과적이었지만, 이 접근법은 물체 거리 추정과 YOLO 기반 검출에 크게 의존한다는 한계를 지녔습니다.
  • [20]에서는 R-CNN 기반 회귀 네트워크를 활용하여 물체 검출과 거리 추정을 결합한 단안(monocular) 방식을 제안하였고, [21]에서는 특정 물체를 식별하여 위험 거리 내에 진입하면 경고를 발생시키는 충돌 경고 시스템을 개발하였습니다.
    • 이 시스템은 단안 카메라와 딥러닝 모델에 의존했으나, 조명 및 날씨와 같은 환경 요인에 매우 민감했고, 방대한 학습 데이터가 필요했으며 거리 추정 정확도는 60%에 머물렀습니다.
  • 이와 대조적으로, 제안된 시스템은 RGB 센서와 깊이 센서를 모두 활용하여 다양한 환경에서 운용될 수 있도록 설계되었습니다.
    • 이를 통해 정확한 거리 측정과 정밀한 물체 위치 파악이 가능해져, 보다 향상된 내비게이션 제어를 제공합니다.

 

 


 
 
 

II. SYSTEM DESIGN AND ARCHITECTURE

  • 이러한 발전을 바탕으로 제안된 시스템은 RGB 센서깊이 센서를 모두 통합하여 실환경 적용 시 성능을 향상시킵니다.
  • 전통적인 방법들이 RGB 영상에만 의존하는 것과 달리, 본 접근법은 깊이 정보를 활용하여 물체의 거리를 정밀하게 측정하고 교통 표지판의 위치를 정확히 파악합니다.
  • 이 듀얼 센서 구성은 검출 정확도를 높일 뿐만 아니라, 저조도 및 시각적으로 열악한 환경에서도 시스템의 운용 능력을 향상시킵니다.
  • 또한 알고리즘은 RGB 기반 검출의 한계를 보완하기 위해 깊이 센서에 크게 의존하며, 조명 불량이나 열악한 환경 조건에서 전통적 방법이 어려움을 겪는 시나리오에서 특히 효과적입니다.
  • RGB와 깊이 데이터를 결합함으로써 제안된 시스템은 실시간 교통 표지판 검출 및 내비게이션에서 다재다능성과 신뢰성을 확보합니다.
  • 이들 모달리티의 융합은 장애물과 도로 관련 요소를 더 잘 구분할 수 있게 해주어, 물체 분류 시 오탐지를 줄여줍니다.
 
 

II - A. Architecture of Perception System

  • 지각(perception) 시스템의 설계는 구체적인 적용 분야와 요구사항에 따라 달라질 수 있습니다.
  • 그림 1에서 보이는 것처럼, 데이터 획득을 위해 주로 사용되는 센서는 RGB와 깊이(depth) 영상을 모두 캡처하는 RGB-D 카메라입니다.
  • 깊이 영상은 거리 변화 분석을 통해 장애물을 식별할 수 있게 해 주므로, 장애물 인식에 특히 유용합니다.
  • 이 정보는 경로 계획(path planning)이나 충돌 회피(collision avoidance)와 같은 작업에 필수적입니다.
  • 또한, 깊이 영상을 이용하면, 바운딩 박스와 같은 정의된 영역 내 물체까지의 거리를 계산할 수 있습니다.
    • 지정된 영역깊이 데이터를 분석함으로써, 시스템은 카메라로부터 물체가 얼마나 떨어져 있는지를 파악하는데, 이는 거리 인식이 중요한 물체 집기(grasping)나 조작(manipulation)과 같은 응용 분야에 필수적인 기능입니다.

 

  • 반면에 카메라가 캡처한 RGB 영상은 YOLO 딥러닝 알고리즘을 통해 처리됩니다.
  • 이 알고리즘은 방대한 데이터셋으로 학습된 후 실시간으로 객체를 인식하고 분류할 수 있습니다.
  • 따라서 지각 시스템은 환경 내 다양한 물체를 식별하고 라벨을 붙이는 방식으로 객체 인식 작업을 수행합니다.

 

  • 또한 RGB 영상은 검출된 물체 주위에 바운딩 박스를 생성하는 데 활용됩니다.
    • 바운딩 박스는 인식된 물체의 크기와 경계를 정의하여, 정확한 위치 파악 및 추적을 가능하게 합니다.
    • 더 나아가 시스템은 바운딩 박스를 기반으로 물체의 크기치수추정할 수 있어, 물체 측정이나 크기 기반 분석이 필요한 응용 분야에도 적합합니다.

 

  • 요약하자면, 본 연구의 지각 시스템은 RGB 데이터깊이 데이터를 통합하여 기능을 향상시킵니다.
  • YOLOv8로 처리된 RGB 이미지는 객체 인식 및 바운딩 박스 생성에 사용되며, 깊이 이미지는 장애물 검출과 거리 추정을 위한 중요한 정보를 제공합니다.
  • 이들 구성요소가 결합되어, 지각 시스템은 데이터 획득 단계에서 효과적으로 정보를 수집하고 해석할 수 있습니다.
  • 구현에 있어서는 Microsoft Kinect V1을 사용하여 RGB 및 깊이 영상을 캡처하였으며, 이를 통해 시스템의 실시간 지각 및 내비게이션 수행 능력이 개선되었습니다.

 

 

B. YOLO for Bounding Box and Identification

  • YOLO는 전통적인 방법에 비해 수많은 장점을 제공하는 최신 객체 식별 프레임워크입니다.
  • 그 핵심 강점 중 하나는 검출 과제를 회귀 문제( regression problem )로 접근한다는 점으로, 이로 인해 속도가 크게 향상됩니다.
  • 복잡하고 시간이 많이 소요되는 절차가 필요 없으므로, 신경망이 새로운 이미지에 대해 빠르게 추론을 수행할 수 있습니다.

 

  • 또한 YOLO는 학습과 테스트 과정 모두에서 전체 이미지를 한 번에 처리하는 전체론적 관점을 채택합니다.
  • 슬라이딩 윈도우 및 영역 제안 기반 접근 방식과 달리, YOLO는 시각적 특징과 함께 객체 클래스에 대한 문맥 정보를 통합하여 정확도와 효율성을 향상시킵니다.
  • YOLO는 일반적인 객체 표현 인식에서 뛰어난 성능을 발휘하여, 변형 부품 모델(Deformable Parts Models, DPM) [25]과 같은 전통적 방법을 능가합니다.
  • YOLOv8은 YOLOv5보다 객체 식별, 이미지 분류, 이미지 분할을 포함한 기능을 향상시킨 추가 개선 사항을 도입했습니다.
    • 특히 앵커 프리(Anchor-free) 검출 메커니즘을 도입하여 미리 설정된 바운딩 박스에 의존하지 않고, 각 객체의 정확한 중심을 결정함으로써 계산 오버헤드를 줄이고 속도를 높였습니다 [26].

  • YOLOv8은 다양한 작업에 맞춰 다섯 가지 버전으로 제공됩니다.
    • ( YOLOv8n, YOLOv8s, YOLOv8m, YOLOv8l, 그리고 YOLOv8x입니다. )
  • “x” 버전은 가장 높은 정확도를 제공하지만 속도가 느린 반면, “n” 버전은 더 빠르고 크기가 작아 자원 제약이 있는 애플리케이션에 적합합니다.
  • 본 연구에서는 다양한 도로 표지판에 대해 바운딩 박스로 주석이 달린 8,316장의 이미지를 포함하는 “Sign-detection dataset”을 사용하였습니다(그림 2) [27].
  • 이 데이터셋을 통해 YOLOv8 모델을 효과적으로 학습 및 시험할 수 있었으며, 실제 환경에서의 object detection 능력을 입증하였습니다.

 

C.Object Detection and Distance Estimation

  • 원래 [28]에서 제안된 YOLO 모델을 물체 검출(object detection)과 거리 추정(distance estimation)에 활용하였다.
  • YOLOv8은 계산 효율을 최적화하기 위해 풀링 계층(pooling layer)과 간소화된 합성곱 구조(streamlined convolutional architecture)를 도입하는 등 여러 아키텍처적 개선을 포함한다.
  • 이 모델은 바운딩 박스 좌표, 신뢰도 점수(confidence score), 클래스 식별자(class identifier)를 포함하는 3차원 텐서를 예측하는데, 이는 견고한 물체 검출에 필수적이다.

 

  • YOLOv8은 성능과 유연성을 향상시키기 위해, YOLOv5와 YOLOv7 ELAN의 설계 원리를 기반으로 구축되었다.
    • 업데이트된 아키텍처는 재설계된 백본 네트워크(backbone network), 앵커 프리(anchor-free) 검출 헤드(detection head), 그리고 새로운 손실 함수(novel loss function)를 포함하여 모델의 확장성(scalability)을 개선하고 다양한 응용 분야에 적합하도록 한다.
    • YOLOv8의 구조는 백본, Feature Pyramid Network(FPN), 그리고 헤드 컴포넌트를 강조한다[29].
      • 백본과 넥(neck) 섹션은 YOLOv7 ELAN을 참고하여 성능 향상을 위한 조정을 적용하였고, 헤드 섹션에서는 분류(classification)와 검출(detection) 작업을 분리하는 디커플드 구조(decoupled structure)를 도입하였다.
    • 또한, 앵커 기반(anchor-based)에서 앵커 프리 검출 메커니즘으로 전환함으로써 사전 설정된 바운딩 박스에 대한 의존을 줄이고 효율성을 높였다.
  • 손실 함수에는 TaskAlignedAssigner와 DistributionFocalLoss가 사용되어 검출 정확도를 한층 더 향상시킨다.

 

  • 거리 추정을 위해, YOLOv8은 RGB-D 카메라로부터 획득한 깊이(depth) 데이터를 활용한다.
    • 다만, 깊이 측정의 정확도는 조명 조건이나 표면 특성 등의 외부 요인에 따라 달라질 수 있다.
  • 깊이 추정의 신뢰성을 검증하기 위해 정상 환경에서 테스트를 수행하였으며, 실제 물리적 측정값과 비교한 결과 물체 검출 및 위치 지정(localization) 작업에서 모델의 견고함을 확인할 수 있었다.

D.Image Processing

  • 비전 시스템은 임베디드 카메라로부터 시각 데이터를 처리하기 위해, 이미지를 캡처하고 일련의 계산 기법을 적용합니다.
    • 이 과정을 지원하는 여러 소프트웨어 라이브러리에는 Torch3vision, VXL, Library Java VIS [30], LIT-Lib, 그리고 OpenCV [31]가 포함됩니다.
  • 인텔(Intel)이 개발한 오픈소스 라이브러리인 OpenCV는 광범위한 실시간 시각 처리 기능, 다중 언어 지원, 그리고 플랫폼 간 호환성으로 특히 주목받고 있습니다.
    • 머신 러닝, 객체 추적, 증강 현실 등 다양한 분야를 포괄하는 2,500개 이상의 최적화된 알고리즘을 제공하는 OpenCV는 본 연구에서 이미지 처리를 위한 주요 도구로 사용되었습니다.

 

  • 의미 있는 정보를 추출하기 위해, 시스템은 Kinect V1을 통해 보정된 깊이 영상바운딩 박스 좌표결합합니다.
    • 이러한 통합을 통해 깊이 기반 응용에 필수적인 정확한 객체 위치 지정 및 거리 계산이 가능해집니다.
  • 바운딩 박스 및 깊이 데이터를 분석함으로써, 시스템은 검출된 객체의 3D 공간 좌표(x, y, z)결정하며, 이는 객체 상호작용이나 정밀한 공간 매핑과 같은 작업을 용이하게 합니다.
  • 획득한 객체 클래스(class), 거리(distance), 위치(position) 정보를 바탕으로, 시스템은 Pioneer 3DX 로봇의 동작을 제어하기 위한 속도 명령(velocity command)을 생성합니다.
    • 이 명령들은 선형 속도(linear velocity)와 각속도(angular velocity)를 조절하여, 로봇이 전진, 후진, 회전 또는 장애물 회피 등 필요한 동작을 효과적으로 수행할 수 있도록 합니다.
  • 그림 3에 제시된 순서도(flowchart)는 수집된 정보를 기반으로 로봇이 어떻게 정밀한 행동을 취하는지를 단계별로 보여줍니다.

 

 

E. System Implementation

  • 앞서 설명한 시스템은 연구·실험용으로 널리 사용되는 바퀴형 모바일 로봇인 Pioneer 3DX 모델을 이용하여 그림 4에 보이는 바와 같이 성공적으로 구현되고 엄격하게 시험되었습니다.
    • Pioneer 3DX는 우수한 다목적성, 기동성 및 적응성을 갖추고 있어, 개발된 시스템의 기능과 성능을 검증하기에 이상적인 플랫폼입니다.
    • 이 플랫폼에서 수행된 광범위한 테스트를 통해 시스템의 전반적인 역량과 실제 환경에서의 효과를 종합적으로 평가할 수 있었습니다.
    • 실험 결과는 데이터 처리와 로봇 제어가 높은 정밀도로 이루어짐을 강조하며, 실용적 응용에서의 신뢰성과 일관성을 입증했습니다.
    • 또한 Pioneer 3DX를 활용함으로써 재현 가능한 견고한 실험 결과를 얻어, 과학적 분석과 후속 연구를 위한 탄탄한 기반을 마련했으며, 해당 플랫폼의 검증된 신뢰도가 향후 산업 표준에 부합하는 결과를 제공합니다.
  • Pioneer 3DX 로봇은 우측 바퀴와 좌측 바퀴 각 한 개씩, 두 개의 독립 구동식 휠(wheel)이 장착되어 있고, 후방에는 기계적 균형을 돕는 위치 조절식 캐스터 휠(caster wheel)이 하나 있습니다[34].
  • 구동 휠의 반지름은 이며, 두 휠 사이의 액슬(axle) 길이는 L 입니다.
  • 로봇의 평면상의 위치는 관성 기준 좌표계 FR( O , X , Y )에 대해서 위치 벡터는 아래 식 1과 같다. ( FR , Frame Reference ). O는 원점을 의미하며 x와 y는 각각 X축과 Y축을 의미한다. 즉, 이는 O,X,Y로 고정된 world frame을 의미한다.
    • 여기에서 는 로봇 중심의 카르테시안 좌표.
    • 는  -축에 대한 로봇의 회전 각도(방향),
    • : 각각 우측(right) 바퀴와 좌측(left) 바퀴의 회전 변위(angular displacement)이다. ( 회전 변위는 바퀴가 몇 바퀴를 굴렀는지를 기록함. )

식 1

  • RGB 및 깊이 영상 데이터를 획득하기 위해 ROS 환경에서 “ros-noetic-freenect-launch” 패키지를 사용하였으며, Kinect V1 센서는 체커보드(checkerboard)를 이용해 깊이 영상과 RGB 영상 좌표계를 정확히 보정(calibration)했습니다.
  • 로봇 제어를 위해서는 Adept Mobile Robots(이 사례에서는 Pioneer 3DX)에 대한 인터페이스를 제공하는 ROSARIA 노드를 사용했습니다.
  • 목표는 우측 및 좌측 바퀴의 선형 속도 제어를 통해 로봇의 선형 속도 와 각속도 ω를 조절하는 것이다[34].
    • ω는 각각 로봇의 선형 속도와 각속도
    • V_D는 각각 좌측(left) 및 우측(right) 바퀴의 선형 속도이다.

 

 


 

 

III. EXPERIMENTAL RESULTS

시스템의 성능과 효율성을 평가하기 위해 두 가지 서로 다른 조건에서 실험을 수행하였다.

 

A. YOLOv8 모델 학습

  • YOLOv8 모델의 학습 단계는 검증 과정의 핵심 요소로, 실제 환경에 배치하기 전 모델의 성능을 평가할 수 있는 기반을 제공한다.
  • 본 연구에서는 2023년 6월에 공개된 “Road signs Computer Vision Project” 데이터셋[27]을 사용하였다.
    • 원본 데이터셋에는 30개의 클래스가 포함되어 있었으나, 로봇 내비게이션에 필요한 15개 클래스로 축소하였다. 총 8,316장의 이미지를 학습, 테스트, 검증용으로 세 세트로 분할하여 활용하였다.
  • YOLOv8은 물체 검출 및 거리 추정 작업에서 효율성을 높이는 여러 개선 사항을 도입하였다.
  1. 전체 정확도(Overall Accuracy)
    모든 물체 클래스에 걸쳐 92.6%의 정확도를 달성하여 다양한 객체를 검출하는 데 높은 신뢰도를 보였다.
  2. mAP@0.5
    평균 정밀도(mAP) 0.5 기준에서 95%를 기록하며, 실시간 객체 검출 과제에서 최신 알고리즘들을 능가하는 성능을 입증하였다. 학습 결과는 그림 5에 제시된 바 있다.
  3. 손실 곡선 수렴(Loss Curve Convergence)
    손실 곡선의 빠르고 안정적인 수렴은 최적화 과정의 효과성과 학습 데이터의 품질이 우수함을 반영한다.
  4. 거리 추정 검증(Distance Estimation Validation)
    객체 검출 기능을 보완하기 위해 YOLOv8은 깊이 데이터를 활용하여 물체까지의 거리를 추정한다. 그러나 깊이 측정 정확도는 조명 조건, 물체 표면 특성, 센서 보정 상태 등의 요인에 따라 달라질 수 있다. 정상 조건에서 수행한 테스트 결과를 실제 물리적 측정값과 비교한 내용은 표 I에 요약되어 있다.
    이들 결과는 YOLOv8 모델이 객체 검출과 거리 추정 작업 모두에서 신뢰할 만함을 확인해 줍니다. α2 및 α8과 같은 일부 깊이 측정에서의 미세한 편차도 허용 범위 내에 있어, 실용적인 응용환경에서 모델의 견고성을 더욱 입증합니다.

 

B. YOLOv8을 이용한 객체 검출 실험

  • 첫 번째 조건에서는 YOLOv8 객체 검출 모델을 사용한 실험을 수행하였으며, 성공적인 객체 검출 결과를 얻었다.
    • 실험 동안 YOLOv8 모델은 캡처된 영상 내에서 물체를 정확하게 검출·위치 지정하는 능력을 보여주었다.
    • 이 모델은 다양한 관심 객체를 식별하고 위치를 파악하는 데 효과적이었다.
  • YOLOv8의 고급 알고리즘과 구조를 활용하여, 시스템은 객체 검출 정확도와 속도 면에서 만족스러운 결과를 달성하였다.
  • 모델이 실시간 객체 검출 작업을 처리하는 능력은 주어진 상황에서 시기 적절하고 신뢰할 수 있는 객체 식별을 보장하였다.
  • YOLOv8 모델의 성공적인 성능은 객체 검출 응용에 적합함을 확인시켜 주며, 다양한 과학적·실용적 분야에서의 잠재력을 부각시킨다.
  1. 첫 번째 실험 결과 (그림 6)
  • Kinect 카메라 입력을 사용하여 시각 데이터를 확보하고 추가 분석 및 처리를 진행하였다.
  • 실험 중 정지 표지판까지의 거리를 정확히 측정·기록하였다. Kinect 카메라로부터 얻은 깊이 정보를 활용하여 로봇과 정지 표지판 간의 정확한 거리를 계산할 수 있었다.
  • 실험 내내 Pioneer 3DX 로봇의 속도를 세심히 제어·모니터링하였다. 로봇의 속도 파라미터를 조정함으로써, 데이터 수집 및 후속 분석 동안 일관된 이동을 유지하도록 하였다.
  • 로봇이 움직인 후 Kinect 카메라로 새로운 입력 데이터를 실시간으로 캡처하였다. 이러한 새로운 입력은 시스템이 환경을 지속적으로 인식하고 작동을 적응시키도록 도왔다.
  • 로봇 이동 이후 수신된 새로운 입력을 바탕으로 정지 표지판까지의 거리를 다시 계산하였다. 이를 통해 로봇이 환경을 이동하는 동안 정지 표지판과의 거리를 실시간으로 평가·추적할 수 있었다.
  • 변화하는 조건과 입력에 대응하여 Pioneer 3DX 로봇의 속도를 동적으로 조정하였다. 이로써 시스템은 실험 목표를 유지하면서도 안전하고 효율적인 내비게이션을 보장하였다.
  • 이들 초기 실험 결과는 Kinect 카메라 입력의 성공적 통합, 정확한 거리 측정, 새로운 입력에 대한 실시간 적응, 로봇 속도의 동적 제어를 입증하였다.
    • 이는 후속 실험에서의 추가 분석과 탐구를 위한 기반을 마련하며, 과학 연구와 실용적 응용에서 이러한 기술의 잠재력을 강화한다.

 

그림 7에 따르면, 로봇은 초기 속도로 1 m를 이동한 후 정지 표지판을 감지하여 명령에 따라 정지하였다. MobileSim을 사용하여 로봇의 경로를 스케치하였으며, 여러 개의 고정 장애물을 로봇 경로에 배치하여 방법을 테스트하였다.

 

2. 검출 불가능 객체 실험

  • 두 번째 실험에서는 빠르게 움직이는 물체나 YOLOv8로 검출되지 않는 벽, 그리고 저조도 환경에서 시스템을 테스트하였다. 실험 중 로봇의 안전을 확보하고 사람이나 환경에 위해를 가하지 않도록 하였다.
  • 실험 설정에서 로봇은 0.6 m 이내의 장애물 근접을 감지하면 반응하도록 프로그래밍되었다.
  • 지정된 범위 내에 장애물이 접근하면 로봇은 정지 명령을 내리고 회전 동작을 수행하여 통과 가능한 경로를 탐색하였다(그림 7(a)). 이 적응형 전략은 특히 벽 근처를 주행할 때 장애물 회피를 용이하게 하는 것을 목표로 하였다.
  • 이 반응형 접근법을 통해, 로봇은 설정된 범위 내 장애물을 감지하자마자 전진을 효과적으로 멈췄다(그림 7(b)).
    • 이 일시적 정지는 로봇이 환경을 평가하고 회피 동작을 위한 최적 방향을 결정할 시간을 제공하였다. 회전 동작을 통해 통로가 확보된 경로를 적극적으로 탐색함으로써, 로봇은 의도된 주행 궤적을 재개할 수 있는 실행 가능한 경로를 식별하였다.
  • 이들 결과는 자율 시스템이 환경 변화에 지능적으로 대응할 수 있도록 적응 기법을 활용하는 것이 중요함을 강조한다. 장애물 검출, 의사결정 알고리즘, 적절한 모션 제어를 통합함으로써 로봇은 충돌 가능성을 최소화하면서 복잡한 환경을 내비게이션하고 목표를 달성할 수 있다.

 

 


IV. CONCLUSION

  • 실험 결과는 RGB-D 센서를 활용한 제안된 시스템이 AGV에 적용하기에 적합함을 확인시켜 주었습니다.
  • 본 접근법은 기존 연구[11]와 달리, 사전 정의된 지도나 고가의 금속선 센서에 의존하지 않고도 다양한 작업에 유연하고 적응적으로 대응할 수 있습니다.
    • 특히, 본 연구의 차별점은 실시간 장애물 검출 및 회피를 위해 YOLOv8과 RGB-D 센서를 통합하여 높은 정확도, 계산 효율성, 그리고 비용 효율성 간의 균형을 제공한다는 점으로, 다른 방법에서 사용되는 고가의 라이다 센서[13]를 대체할 수 있는 대안이 됩니다.
  • YOLO 객체 검출 알고리즘을 도입함으로써 시스템은 다양한 거리에서 효율적인 물체 검출을 보장하여 AGV 제어 성능을 향상시키고, 안전하고 효율적인 운용을 가능하게 합니다.
  • RGB-D 센서의 통합은 물체를 정확히 검출·위치 지정할 수 있게 하여 AGV의 기동성과 제어 성능을 크게 개선합니다.
    • 더불어, YOLO 기반 객체 검출 알고리즘은 이전 방법[19] 대비 시스템의 신뢰성과 정확도를 한층 높여 줍니다.
  • 이렇듯 RGB-D 센서와 YOLO 알고리즘의 결합은 실용적인 AGV 응용 분야에서 비용 효율적이면서도 정확한 물체 검출을 제공할 수 있는 시스템의 가능성을 보여 줍니다.
  • 이러한 연구 결과는 AGV 자율 내비게이션 시스템 발전에 기여하며, 이 분야의 후속 연구 및 개발을 위한 새로운 기회를 열어 줄 것입니다.