Tổng quan nghiên cứu

Trong bối cảnh cuộc cách mạng công nghiệp 4.0, việc ứng dụng trí tuệ nhân tạo và tự động hóa trong lĩnh vực thiết bị bay không người lái ngày càng trở nên cấp thiết. Theo ước tính, các thiết bị bay tầm thấp như Quadcopter đang được sử dụng phổ biến trong nhiều lĩnh vực như quốc phòng, an ninh, logistics và giáo dục. Tuy nhiên, vấn đề vật cản trên đường bay vẫn là thách thức lớn, ảnh hưởng trực tiếp đến hiệu quả vận hành và độ an toàn của thiết bị. Đề tài nghiên cứu nhằm xây dựng mô hình Quadcopter có khả năng tự động né tránh vật cản thông qua ứng dụng mạng học sâu (Deep Learning), cụ thể là mạng nơ-ron tích chập (CNN) và thuật toán YOLO để nhận diện vật thể. Mục tiêu chính là thiết kế và chế tạo mô hình Quadcopter tích hợp hệ thống nhận dạng và né tránh vật cản, đồng thời phát triển thuật toán xử lý hình ảnh trên nền tảng máy tính nhúng Raspberry Pi 4 Model B. Phạm vi nghiên cứu tập trung vào việc xử lý phát hiện đối tượng trên máy tính nhúng và kiểm tra mô hình tại thành phố Hồ Chí Minh trong năm 2022. Kết quả nghiên cứu không chỉ góp phần nâng cao hiệu quả vận hành Quadcopter mà còn có ý nghĩa quan trọng trong các ứng dụng thực tiễn như giám sát an ninh, thu thập dữ liệu trên không và phát triển công nghệ robot tự động.

Cơ sở lý thuyết và phương pháp nghiên cứu

Khung lý thuyết áp dụng

Luận văn dựa trên hai khung lý thuyết chính: hệ điều hành Robot Operation System (ROS) và mạng học sâu Convolutional Neural Network (CNN). ROS là hệ điều hành mã nguồn mở chuyên dụng cho robot, cung cấp các dịch vụ như quản lý phần cứng, giao tiếp giữa các node, và xử lý dữ liệu song song. ROS giúp giảm đáng kể khối lượng công việc kỹ thuật cơ bản, tăng thời gian nghiên cứu chuyên sâu. Các khái niệm quan trọng trong ROS bao gồm: node (đơn vị xử lý), topic (kênh truyền thông điệp), service (giao tiếp request/reply), và parameter server (lưu trữ dữ liệu trung tâm). MAVLink là giao thức truyền thông giữa trạm điều khiển và phương tiện bay, được tích hợp với ROS qua MAVROS để điều khiển Quadcopter.

Mạng CNN là mô hình học sâu chuyên xử lý dữ liệu ảnh, gồm các lớp tích chập (convolutional layers), hàm kích hoạt phi tuyến (ReLU, Softmax), lớp pooling giảm chiều dữ liệu, và lớp fully connected để phân loại. Thuật toán YOLO (You Only Look Once) được sử dụng để phát hiện và nhận diện vật thể trong ảnh đầu vào, chia ảnh thành các ô lưới và dự đoán bounding box cùng xác suất đối tượng. Hàm đánh giá IOU (Intersection over Union) được dùng để đo độ chính xác của dự đoán bounding box so với nhãn thực tế.

Các khái niệm chuyên ngành quan trọng bao gồm: ESC (Electronic Speed Control), PID (Proportional Integral Derivative) controller dùng để ổn định và điều khiển chuyển động Quadcopter, và các thành phần phần cứng như động cơ không chổi than MT 2204-2300KV, pin LiPo 11.1V/3500mAh, và Raspberry Pi 4 Model B.

Phương pháp nghiên cứu

Nguồn dữ liệu chính bao gồm hình ảnh thu thập từ camera gắn trên Quadcopter, dữ liệu điều khiển từ tay điều khiển Devo 7 và bộ thu RX-601, cùng các thông số kỹ thuật phần cứng. Phương pháp nghiên cứu gồm:

  • Thiết kế và lắp ráp mô hình Quadcopter với khung QAV 250 bằng sợi carbon, trang bị động cơ BLDC, ESC BLHeli-S 20A, mạch cân bằng F3 Racing và nguồn pin LiPo.
  • Cài đặt hệ điều hành ROS trên máy tính nhúng Raspberry Pi 4 Model B để quản lý các node xử lý dữ liệu và điều khiển.
  • Phát triển thuật toán CNN dựa trên kiến trúc YOLOv3 để nhận diện vật cản từ hình ảnh camera, sử dụng hàm IOU để đánh giá độ chính xác.
  • Áp dụng bộ điều khiển PID để điều chỉnh chuyển động Quadcopter, đảm bảo ổn định và phản ứng nhanh với tín hiệu né tránh vật cản.
  • Thời gian nghiên cứu kéo dài trong năm 2022, với các giai đoạn: khảo sát và thiết kế phần cứng (3 tháng), phát triển thuật toán và cài đặt phần mềm (4 tháng), thử nghiệm và hiệu chỉnh mô hình (3 tháng).
  • Cỡ mẫu dữ liệu hình ảnh khoảng vài nghìn ảnh được thu thập và xử lý để huấn luyện và kiểm thử mô hình CNN.
  • Phương pháp chọn mẫu là lấy mẫu ngẫu nhiên từ các video quay thực tế tại một số địa phương trong thành phố Hồ Chí Minh nhằm đảm bảo tính đa dạng của dữ liệu.

Kết quả nghiên cứu và thảo luận

Những phát hiện chính

  1. Hiệu quả nhận diện vật cản bằng mạng CNN YOLOv3: Mô hình đạt độ chính xác nhận diện vật thể trên ảnh đầu vào với tỷ lệ IOU trung bình khoảng 0.75, giúp phát hiện kịp thời các vật cản trong vùng giới hạn. Tỷ lệ loại bỏ dự đoán yếu đạt trên 90%, đảm bảo độ tin cậy cao trong quá trình vận hành.

  2. Khả năng né tránh vật cản tự động: Thuật toán điều khiển dựa trên dữ liệu nhận diện từ camera và bộ điều khiển PID giúp Quadcopter tự động nâng cao độ bay khi vật cản xuất hiện trong vùng giới hạn, với thời gian phản ứng trung bình dưới 0.5 giây, giảm thiểu va chạm hiệu quả.

  3. Tích hợp phần cứng và phần mềm: Việc sử dụng Raspberry Pi 4 Model B làm máy tính nhúng cho phép xử lý hình ảnh và điều khiển thời gian thực, với tốc độ xử lý khung hình đạt khoảng 15-20 fps, đáp ứng yêu cầu vận hành liên tục. Hệ thống ESC BLHeli-S 20A và động cơ MT 2204-2300KV cung cấp lực đẩy ổn định, đảm bảo khả năng bay linh hoạt.

  4. Tính ổn định của hệ thống điều khiển PID: Bộ điều khiển PID được chỉnh định phù hợp giúp duy trì các góc Pitch, Roll, Yaw ổn định trong quá trình né tránh vật cản, với sai số góc dưới 2 độ, đảm bảo an toàn và chính xác cho Quadcopter.

Thảo luận kết quả

Kết quả nghiên cứu cho thấy việc ứng dụng mạng học sâu CNN kết hợp với hệ điều hành ROS và bộ điều khiển PID là giải pháp hiệu quả để nâng cao khả năng tự động né tránh vật cản của Quadcopter. So với các nghiên cứu trước đây chỉ tập trung vào điều khiển cơ bản hoặc nhận diện vật thể riêng lẻ, đề tài đã tích hợp thành công toàn bộ hệ thống từ phần cứng đến phần mềm, tạo ra mô hình vận hành thực tế có tính ứng dụng cao.

Dữ liệu có thể được trình bày qua biểu đồ so sánh tỷ lệ IOU và thời gian phản ứng của hệ thống, cũng như bảng thống kê các thông số kỹ thuật phần cứng và hiệu suất xử lý. Việc sử dụng Raspberry Pi 4 Model B giúp giảm thiểu chi phí và kích thước thiết bị, đồng thời đảm bảo khả năng xử lý dữ liệu lớn từ camera.

Hạn chế hiện tại là vùng giới hạn né tránh vật cản chưa được hiệu chỉnh tối ưu do đồng bộ hóa thiết bị và thuật toán chưa hoàn thiện, đây là điểm cần cải tiến trong các nghiên cứu tiếp theo. Ngoài ra, việc mở rộng tập dữ liệu huấn luyện và thử nghiệm trong các môi trường bay phức tạp hơn sẽ giúp nâng cao độ chính xác và tính ổn định của hệ thống.

Đề xuất và khuyến nghị

  1. Tối ưu hóa thuật toán nhận diện vật cản: Cần tiếp tục cải tiến mô hình CNN, mở rộng tập dữ liệu huấn luyện với đa dạng loại vật cản và điều kiện ánh sáng khác nhau để nâng cao độ chính xác và khả năng nhận diện trong thực tế. Thời gian thực hiện dự kiến 6 tháng, do nhóm nghiên cứu phần mềm đảm nhiệm.

  2. Hiệu chỉnh vùng giới hạn né tránh: Xây dựng cơ chế đồng bộ hóa chính xác giữa thuật toán và phần cứng để xác định vùng giới hạn vật cản phù hợp, giúp Quadcopter phản ứng kịp thời và chính xác hơn. Thời gian thực hiện 3 tháng, phối hợp giữa nhóm phần cứng và phần mềm.

  3. Nâng cấp phần cứng xử lý: Đề xuất sử dụng các máy tính nhúng có hiệu năng cao hơn hoặc tích hợp thêm module tăng tốc xử lý AI để cải thiện tốc độ xử lý hình ảnh, giảm độ trễ trong điều khiển. Thời gian thực hiện 4 tháng, do nhóm kỹ thuật phần cứng thực hiện.

  4. Mở rộng ứng dụng và thử nghiệm thực tế: Khuyến nghị triển khai thử nghiệm mô hình trong các môi trường bay đa dạng như khu vực đô thị, khu công nghiệp để đánh giá hiệu quả và độ bền của hệ thống. Thời gian thực hiện 6 tháng, phối hợp với các đơn vị đối tác trong lĩnh vực an ninh và logistics.

Đối tượng nên tham khảo luận văn

  1. Sinh viên và nghiên cứu sinh ngành Điện - Điện tử, Robotics: Luận văn cung cấp kiến thức chuyên sâu về ứng dụng mạng học sâu và hệ điều hành ROS trong điều khiển robot bay, hỗ trợ phát triển đề tài nghiên cứu và thực hành kỹ thuật.

  2. Kỹ sư phát triển hệ thống UAV và drone: Các kỹ sư có thể áp dụng mô hình và thuật toán đề xuất để nâng cao khả năng tự động né tránh vật cản, cải thiện hiệu suất và an toàn cho sản phẩm UAV.

  3. Giảng viên và nhà nghiên cứu trong lĩnh vực trí tuệ nhân tạo và điều khiển tự động: Tài liệu cung cấp cơ sở lý thuyết và thực nghiệm về tích hợp mạng CNN với hệ thống điều khiển PID, hỗ trợ giảng dạy và nghiên cứu ứng dụng AI trong robotics.

  4. Doanh nghiệp và tổ chức hoạt động trong lĩnh vực quốc phòng, an ninh và logistics: Có thể tham khảo để phát triển các giải pháp giám sát, vận chuyển tự động bằng drone, góp phần nâng cao hiệu quả và giảm thiểu rủi ro trong hoạt động thực tế.

Câu hỏi thường gặp

  1. Mạng học sâu CNN có ưu điểm gì trong nhận diện vật cản cho Quadcopter?
    CNN có khả năng tự động trích xuất đặc trưng từ ảnh đầu vào qua nhiều lớp tích chập, giúp nhận diện vật thể chính xác và nhanh chóng trong môi trường phức tạp. Ví dụ, mô hình YOLOv3 sử dụng CNN cho phép phát hiện nhiều vật thể trong một khung hình với độ chính xác cao.

  2. Tại sao chọn ROS làm hệ điều hành cho Quadcopter?
    ROS cung cấp môi trường phát triển robot mã nguồn mở với khả năng quản lý node, giao tiếp dữ liệu hiệu quả và hỗ trợ nhiều thư viện chuyên biệt. Điều này giúp giảm khối lượng công việc kỹ thuật cơ bản và tăng thời gian tập trung vào nghiên cứu chuyên sâu.

  3. Bộ điều khiển PID đóng vai trò gì trong hệ thống?
    PID giúp duy trì sự ổn định của Quadcopter bằng cách liên tục điều chỉnh tín hiệu điều khiển dựa trên sai số giữa điểm đặt và giá trị thực tế, đảm bảo các góc Pitch, Roll, Yaw ổn định trong quá trình bay và né tránh vật cản.

  4. Phần cứng nào được sử dụng để xử lý thuật toán học sâu?
    Raspberry Pi 4 Model B được sử dụng làm máy tính nhúng với khả năng xử lý nhanh, kích thước nhỏ gọn và hỗ trợ ROS, phù hợp cho việc xử lý hình ảnh và điều khiển thời gian thực trên Quadcopter.

  5. Làm thế nào để đánh giá độ chính xác của mô hình nhận diện?
    Độ chính xác được đánh giá qua hàm IOU (Intersection over Union), đo tỷ lệ giao nhau trên hợp nhất giữa bounding box dự đoán và bounding box thực tế. IOU trung bình khoảng 0.75 cho thấy mô hình có khả năng nhận diện tốt trong điều kiện thử nghiệm.

Kết luận

  • Đã xây dựng thành công mô hình Quadcopter tích hợp mạng học sâu CNN và hệ điều hành ROS để nhận diện và né tránh vật cản tự động.
  • Thuật toán YOLOv3 cho kết quả nhận diện vật thể với độ chính xác IOU trung bình 0.75, thời gian phản ứng né tránh dưới 0.5 giây.
  • Hệ thống điều khiển PID đảm bảo sự ổn định chuyển động với sai số góc dưới 2 độ trong quá trình bay.
  • Phần cứng Raspberry Pi 4 Model B và các thiết bị hỗ trợ đáp ứng tốt yêu cầu xử lý và điều khiển thời gian thực.
  • Đề xuất tiếp tục tối ưu thuật toán, hiệu chỉnh vùng giới hạn né tránh và mở rộng thử nghiệm thực tế trong các môi trường phức tạp hơn.

Tiếp theo, nhóm nghiên cứu sẽ tập trung vào việc mở rộng tập dữ liệu huấn luyện, nâng cấp phần cứng xử lý và triển khai thử nghiệm thực tế đa dạng. Độc giả và các nhà nghiên cứu được khuyến khích áp dụng và phát triển thêm dựa trên kết quả này để thúc đẩy ứng dụng trí tuệ nhân tạo trong lĩnh vực UAV và robotics.