Tổng quan nghiên cứu

Ung thư vú là một trong những loại ung thư phổ biến nhất và có tỷ lệ tử vong cao ở phụ nữ trên toàn cầu, ảnh hưởng đến khoảng 2,1 triệu người mỗi năm. Theo Tổ chức Y tế Thế giới (WHO), năm 2018 có khoảng 627.000 ca tử vong do ung thư vú, chiếm 15% tổng số ca tử vong do ung thư. Ở Việt Nam, tỷ lệ mắc ung thư vú được ước tính khoảng 23/100.000 dân và có xu hướng tăng lên theo thời gian. Việc phát hiện sớm ung thư vú giúp tăng khả năng điều trị thành công và nâng cao tỷ lệ sống sót của bệnh nhân. Tuy nhiên, các phương pháp chẩn đoán truyền thống như X-quang hay khám lâm sàng đòi hỏi chuyên gia y tế có trình độ cao và kết quả không phải lúc nào cũng chính xác do tính chủ quan và các yếu tố tâm lý.

Trong bối cảnh đó, lĩnh vực xử lý ảnh y tế và học máy đã được ứng dụng rộng rãi nhằm hỗ trợ chẩn đoán ung thư vú qua hình ảnh mô học. Các kỹ thuật này giúp giảm chi phí, rút ngắn thời gian chẩn đoán và nâng cao độ chính xác, đặc biệt tại các khu vực thiếu chuyên gia y tế. Tuy nhiên, việc xây dựng các mô hình học sâu hiệu quả gặp khó khăn do hạn chế về kích thước và chất lượng dữ liệu huấn luyện, bởi việc thu thập và chú thích dữ liệu y tế rất tốn kém và mất thời gian.

Luận văn tập trung nghiên cứu phương pháp kết hợp học sâu, học chuyển giao (transfer learning) và mạng đối kháng sinh (GAN) để cải thiện độ chính xác phân loại hình ảnh mô học ung thư vú. Nghiên cứu sử dụng ba bộ dữ liệu chính: BreaKHis (7.909 ảnh từ 82 bệnh nhân với 4 mức phóng đại), BACH (400 ảnh phân loại thành 4 nhóm tế bào) và IDC (277.524 ảnh cắt nhỏ kích thước 50x50 pixel). Mục tiêu là phát triển mô hình phân loại chính xác, giảm chi phí và thời gian xét nghiệm, đồng thời mở rộng khả năng ứng dụng tại các vùng thiếu chuyên gia.

Cơ sở lý thuyết và phương pháp nghiên cứu

Khung lý thuyết áp dụng

  • Học sâu (Deep Learning): Sử dụng mạng nơ-ron tích chập (CNN) để tự động trích xuất đặc trưng từ ảnh mô học, vượt trội hơn các phương pháp thủ công truyền thống. Các kiến trúc phổ biến như VGG16, VGG19 được sử dụng làm mô hình cơ sở.
  • Học chuyển giao (Transfer Learning): Áp dụng mô hình đã được huấn luyện trên bộ dữ liệu lớn ImageNet, sau đó tinh chỉnh (fine-tuning) trên bộ dữ liệu y tế nhỏ hơn để tận dụng đặc trưng chung và giảm hiện tượng quá khớp.
  • Mạng đối kháng sinh (Generative Adversarial Network - GAN): Sử dụng hai mạng nơ-ron gồm mạng sinh (Generator) và mạng phân biệt (Discriminator) để tạo ra ảnh mô học giả nhằm tăng cường dữ liệu huấn luyện, giúp cải thiện hiệu suất phân loại.

Các khái niệm chính bao gồm: lớp tích chập (convolutional layer), hàm kích hoạt ReLU, chuẩn hóa batch (batch normalization), dropout, hàm mất mát binary cross-entropy, kỹ thuật tăng cường dữ liệu (data augmentation), kiến trúc U-Net trong Pix2Pix GAN, và kỹ thuật adaptive instance normalization trong StyleGAN.

Phương pháp nghiên cứu

  • Nguồn dữ liệu: Ba bộ dữ liệu chính gồm BreaKHis (7.909 ảnh, 4 mức phóng đại), BACH (400 ảnh), IDC (277.524 ảnh cắt nhỏ).
  • Tiền xử lý: Ảnh gốc được chia thành các patch nhỏ, chuẩn hóa giá trị pixel về khoảng [0,1], và thay đổi kích thước về 256x256 pixel (BreaKHis, BACH) hoặc 64x64 pixel (IDC).
  • Trích xuất đặc trưng: Sử dụng mô hình VGG16 và VGG19 đã được huấn luyện trên ImageNet, đóng băng 17 lớp đầu tiên và tinh chỉnh các lớp còn lại trên dữ liệu y tế.
  • Tăng cường dữ liệu: Áp dụng hai mô hình GAN là StyleGAN và Pix2Pix để tạo ảnh mô học giả, bổ sung vào tập huấn luyện nhằm giảm thiểu hiện tượng thiếu dữ liệu.
  • Mô hình phân loại: Mạng CNN gồm 7 lớp, sử dụng các lớp fully connected, batch normalization, ReLU, dropout (tỷ lệ 0.2), và lớp đầu ra sigmoid để phân loại nhị phân (lành tính/ác tính).
  • Đánh giá: Sử dụng phương pháp cross-validation 5 lần với tỷ lệ chia tập huấn luyện và kiểm tra là 70% - 30%. Áp dụng ba phương pháp bỏ phiếu (voting) trên các patch ảnh để xác định kết quả phân loại cuối cùng của ảnh gốc.
  • Công cụ: Thực hiện trên TensorFlow-GPU, sử dụng GPU Tesla P100 và Tesla P4, bộ nhớ RAM 64GB.

Kết quả nghiên cứu và thảo luận

Những phát hiện chính

  1. Hiệu quả của học chuyển giao: Việc kết hợp trích xuất đặc trưng từ VGG16 và VGG19, đồng thời tinh chỉnh các lớp trên dữ liệu y tế, giúp đạt độ chính xác trung bình khoảng 91% trên bộ dữ liệu BreaKHis. Khi áp dụng phương pháp bỏ phiếu B và C, độ chính xác tăng lên khoảng 94,2%.
  2. Ảnh giả từ GAN: Việc bổ sung ảnh giả từ StyleGAN và Pix2Pix vào tập huấn luyện giúp tăng độ chính xác phân loại lên đến 98,2% (StyleGAN) và 97,2% (Pix2Pix) trên BreaKHis. Tuy nhiên, ảnh giả cũng có thể tạo ra nhiễu, ảnh hưởng đến hiệu suất nếu không được điều chỉnh phù hợp.
  3. So sánh với các nghiên cứu trước: Phương pháp đề xuất vượt trội hơn các phương pháp truyền thống sử dụng đặc trưng thủ công (PFTAS, LBP, LPQ) và các mô hình học sâu chưa tinh chỉnh, với độ chính xác cao hơn từ 3-10% tùy mức phóng đại.
  4. Kết quả trên các bộ dữ liệu khác: Trên bộ dữ liệu BACH, mô hình đạt độ chính xác khoảng 86-96%, còn trên IDC đạt khoảng 85-86%, cho thấy tính khả thi và hiệu quả của phương pháp trên nhiều nguồn dữ liệu khác nhau.

Thảo luận kết quả

Nguyên nhân chính giúp cải thiện độ chính xác là sự kết hợp hiệu quả giữa học chuyển giao và tăng cường dữ liệu bằng GAN, giúp mô hình học được đặc trưng sâu sắc và đa dạng hơn từ dữ liệu hạn chế. Việc tinh chỉnh các lớp trên mô hình VGG16 và VGG19 giúp mô hình thích nghi tốt hơn với đặc điểm riêng của ảnh mô học ung thư vú, khác biệt so với dữ liệu ImageNet gốc.

So với các nghiên cứu trước đây, phương pháp này không chỉ tận dụng sức mạnh của học sâu mà còn giải quyết được vấn đề thiếu dữ liệu bằng cách tạo ảnh giả có tính đại diện cao. Tuy nhiên, việc huấn luyện GAN trên ảnh mô học vẫn còn nhiều thách thức do cấu trúc phức tạp và sự tương đồng cao giữa các lớp tế bào, dẫn đến khó khăn trong việc tạo ảnh giả chất lượng cao.

Dữ liệu có thể được trình bày qua các biểu đồ so sánh độ chính xác giữa các phương pháp, bảng phân bố số lượng ảnh theo từng mức phóng đại và loại tế bào, cũng như biểu đồ thể hiện ảnh giả do GAN tạo ra so với ảnh gốc.

Đề xuất và khuyến nghị

  1. Tối ưu hóa mô hình GAN: Cần nghiên cứu và điều chỉnh kiến trúc U-Net trong Pix2Pix, bổ sung cơ chế chú ý (attention) để giữ lại đặc trưng quan trọng của ảnh mô học, từ đó nâng cao chất lượng ảnh giả và hiệu quả tăng cường dữ liệu.
  2. Mở rộng tập dữ liệu huấn luyện: Khuyến khích thu thập thêm dữ liệu mô học từ nhiều nguồn khác nhau, kết hợp với ảnh giả để tăng tính đa dạng và giảm hiện tượng quá khớp.
  3. Tinh chỉnh mô hình học chuyển giao: Áp dụng kỹ thuật fine-tuning linh hoạt, lựa chọn số lớp đóng băng phù hợp với từng bộ dữ liệu cụ thể nhằm tối ưu hóa hiệu suất phân loại.
  4. Phát triển hệ thống hỗ trợ chẩn đoán: Triển khai mô hình vào các hệ thống CADx để hỗ trợ bác sĩ trong việc phát hiện và phân loại ung thư vú, đặc biệt tại các khu vực thiếu chuyên gia, giúp giảm chi phí và thời gian xét nghiệm.
  5. Đào tạo và nâng cao nhận thức: Tổ chức các khóa đào tạo cho nhân viên y tế về ứng dụng công nghệ học máy và xử lý ảnh y tế, đồng thời nâng cao nhận thức về lợi ích của các phương pháp này trong chẩn đoán ung thư.

Đối tượng nên tham khảo luận văn

  1. Nhà nghiên cứu và sinh viên ngành khoa học máy tính, trí tuệ nhân tạo: Có thể áp dụng các phương pháp học sâu, học chuyển giao và GAN trong lĩnh vực xử lý ảnh y tế và các bài toán phân loại ảnh phức tạp.
  2. Chuyên gia y tế và bác sĩ chuyên khoa ung bướu: Hiểu rõ hơn về các công nghệ hỗ trợ chẩn đoán ung thư vú qua hình ảnh mô học, từ đó áp dụng vào thực tiễn để nâng cao hiệu quả điều trị.
  3. Nhà phát triển phần mềm và công ty công nghệ y tế: Tham khảo để phát triển các sản phẩm CADx, hệ thống hỗ trợ chẩn đoán tự động, góp phần cải thiện chất lượng dịch vụ y tế.
  4. Quản lý và hoạch định chính sách y tế: Đánh giá tiềm năng ứng dụng công nghệ mới trong chẩn đoán và điều trị ung thư, từ đó xây dựng các chính sách hỗ trợ phát triển y tế thông minh.

Câu hỏi thường gặp

  1. Tại sao phải kết hợp học sâu, học chuyển giao và GAN trong nghiên cứu này?
    Việc kết hợp giúp tận dụng ưu điểm của từng phương pháp: học sâu trích xuất đặc trưng hiệu quả, học chuyển giao giảm thiểu yêu cầu dữ liệu lớn, GAN tạo ảnh giả tăng cường dữ liệu, từ đó nâng cao độ chính xác phân loại.

  2. GAN có thể tạo ra ảnh mô học giả chất lượng như thế nào?
    Mặc dù GAN có thể tạo ảnh giả tương tự ảnh gốc về mặt trực quan, nhưng do đặc điểm phức tạp của ảnh mô học, ảnh giả vẫn chứa một số nhiễu và chưa hoàn toàn thay thế được ảnh thật, cần cải tiến thêm.

  3. Phương pháp đánh giá độ chính xác của mô hình như thế nào?
    Sử dụng cross-validation 5 lần với tỷ lệ 70% dữ liệu huấn luyện và 30% kiểm tra, áp dụng ba phương pháp bỏ phiếu trên các patch ảnh để xác định kết quả phân loại cuối cùng.

  4. Phân biệt giữa các mức phóng đại ảnh trong bộ dữ liệu BreaKHis có ảnh hưởng thế nào đến kết quả?
    Mỗi mức phóng đại cung cấp thông tin chi tiết khác nhau về cấu trúc tế bào, việc xử lý đa mức phóng đại giúp mô hình học được đặc trưng đa dạng, cải thiện độ chính xác tổng thể.

  5. Có thể áp dụng phương pháp này cho các loại ung thư khác không?
    Phương pháp học sâu kết hợp học chuyển giao và GAN có thể được điều chỉnh và áp dụng cho các loại ung thư khác hoặc các bài toán phân loại ảnh y tế tương tự, tuy nhiên cần có dữ liệu phù hợp và tinh chỉnh mô hình.

Kết luận

  • Đề xuất phương pháp kết hợp học sâu, học chuyển giao và mạng đối kháng sinh (GAN) để phân loại ảnh mô học ung thư vú với độ chính xác cao.
  • Thực nghiệm trên ba bộ dữ liệu BreaKHis, BACH và IDC đạt độ chính xác lần lượt khoảng 98%, 96% và 86%, vượt trội so với các nghiên cứu trước.
  • Việc tinh chỉnh các lớp trên mô hình VGG16 và VGG19 giúp mô hình thích nghi tốt với đặc trưng y tế, trong khi GAN hỗ trợ tăng cường dữ liệu hiệu quả.
  • Thách thức hiện tại là cải thiện chất lượng ảnh giả từ GAN và điều chỉnh kiến trúc mạng để phù hợp hơn với đặc điểm ảnh mô học.
  • Hướng phát triển tiếp theo là tối ưu mô hình GAN, mở rộng dữ liệu huấn luyện và triển khai ứng dụng thực tế trong hệ thống hỗ trợ chẩn đoán ung thư vú.
    Hành động tiếp theo: Khuyến khích các nhà nghiên cứu và chuyên gia y tế hợp tác phát triển và ứng dụng các công nghệ này nhằm nâng cao hiệu quả chẩn đoán và điều trị ung thư vú.