Kỹ thuật học sâu

Một phần của tài liệu Nghiên cứu, phát triển một số kỹ thuật học sâu áp dụng cho phân vùng polyp trên ảnh nội soi đại tràng (Trang 27 - 30)

- Khái niệm học sâu (deep-learning): Học sâu là họ các phương pháp học

máy, bao gồm mạng nơ-ron, mô hình xác suất phân cấp, và các thuật toán học [41]. Học sâu đã thúc đẩy những bước tiến lớn trong một loạt các bài toán thị giác máy tính, như phát hiện đối tượng (object detection), theo dõi chuyển động (motion tracking), nhận dạng hành động (action recognition), đánh giá tư thế

của con người (human pose estimation) và phân vùng ảnh theo ngữ nghĩa (semantic segmentation).

- Học có giám sát, học không giám sát, học bán giám sát: Dựa trên theo

phương thức học, các kỹ thuật học sâu thường được chia làm thường được chia làm 3 nhóm: Học có giám sát (Supervised learning), Học không giám sát (Unsupervised learning), Học bán giám sát (Semi-supervised learning).

Học có giám sát là thuật toán dự đoán đầu ra (outcome) của một dữ liệu mới (new input) dựa trên các cặp (input, outcome) đã biết từ trước. Cặp dữ liệu đã biết này còn được gọi là (dữ liệu, nhãn). Một cách toán học, học có giám sát là khi chúng ra có một tập hợp biến đầu vào 𝑋 = {𝑥1, 𝑥2, … 𝑥𝑁} và một tập nhãn tương ứng 𝑌 = {𝑦1, 𝑦2, … 𝑦𝑁} trong đó 𝑥𝑖, 𝑦𝑖 là các vec tơ. Cặp dữ liệu biết trước (𝑥𝑖, 𝑦𝑖) ⁡ ∈ 𝑋 × 𝑌 được gọi là dữ liệu huấn luyện (training data). Từ tập dữ liệu huấn luyện, chúng ta cần tạo ra (xấp xỉ) một hàm số ánh xạ mỗi phần tử từ tập 𝑋 sang một phần tử tương ứng thuộc tập 𝑌:

𝑦𝑖⁡ ≈ 𝑓(𝑥𝑖⁡)⁡⁡⁡⁡⁡∀𝑖 = 1,2, … 𝑁⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡ Mục đích là xấp xỉ hàm số hàm f tốt nhất để khi có một dữ liệu x mới,

chúng ta có thể tính được nhãn tương ứng của nó 𝑦 = 𝑓(𝑥)

Học không giám sát (Unsupervised Learning): Học không giám sát là khi chúng ta chỉ có dữ liệu vào 𝑋 mà không biết nhãn 𝑌⁡tương ứng.

Học bán giám sát(Semi-Supervised Learning) Các phương pháp học trong trường hợp khi có một lượng lớn dữ liệu X nhưng chỉ một phần trong chúng được gán nhãn được gọi học bán giám sát. Thực tế cho thấy rất nhiều các bài toán học máy thuộc vào nhóm này vì việc thu thập dữ liệu có nhãn tốn rất nhiều thời gian và có chi phí cao, phân tích ảnh y tế là một ví dụ, trong đó cần phải có chuyên gia mới gán nhãn được dữ liệu, ngược lại, dữ liệu chưa có nhãn có thể được thu thập với chi phí thấp từ hệ thống PACS.

- Mạng nơ ron tích chập

Kiến trúc và mô hình học sâu nền tảng của các ứng dụng thị giác máy tính là: Mạng nơ-ron tích chập (Convolutional Neural Network- CNN) [41]. Mỗi

mạng nơ-ron tích chập gồm 3 loại lớp chính: các lớp tích chập (convolutional layers), các lớp hợp nhất (pooling layers) và lớp kết nối đầy đủ (fully connected layers). Mỗi loại lớp đóng vai trò khác nhau trong mạng. Kiến trúc của các mạng CNN thực hiện 3 ý tưởng cơ bản là: các trường tiếp nhận cục bộ (local receptive fields), rằng buộc trọng số (tied weights) và giảm chiều không gian (spatial subsampling) [22]. Sự thành công của các mạng học sâu trong lĩnh vực thị giác máy có phần đóng góp đáng kể của các mạng CNN tiêu biểu như AlexNet [40], VGG[68], Inception (GoogleLeNet) [75], ResNet [25], MobileNet [63] , và EfficientNet [80]. Các mạng CNN này là các mạng phân loại ảnh, được các nhóm nghiên cứu thiết kế và được huấn luyện trên một số bộ dữ liệu ảnh tổng quát lớn như ImageNet, chúng được gọi là các mô hình huấn luyện sẵn (pretrained model). Các mô hình huấn luyện sẵn này thường được sử dụng làm được làm bộ trích rút đặc trưng cho các mô hình học sâu để giải quyết các bài toán thị giác máy tính.

- Các thuật toán tối ưu

Các thuật toán tối ưu chính là các nền tảng cơ sở để xây dựng các mô hình mạng nơ-ron với mục tiêu là “học” được các đặc trưng (features/patterns) từ dữ liệu đầu vào, từ đó có thể tìm một tập các các trọng số (weights)W và tham số nội tại của mô hình (internal model parameters) hay bias b để tối ưu độ chính xác của mô hình, tức là cực tiểu giá trị hàm mất mát (loss function) của mô hình. Đối với một mô hình học sâu, đầu tiên chúng ta thường định nghĩa hàm mất mát (loss function), sau đó sử dụng một thuật toán tối ưu nhằm cực tiểu hóa hàm mất mát đó.

Các mạng nơ-ron tích chập đều được hỗ trợ bởi một thuật toán tối ưu rất quan trọng là thuật toán hạ gradient, gọi tắt là thuật toán GD (GD- Gradient Descent) [60]. GD là một thuật toán tối ưu lặp (iterative optimization algorithm) với mục tiêu là tìm một tập các biến nội tại (internal parameters) cho việc tối ưu các mô hình. Công thức cập nhật cho GD có thể được viết là:

𝑤 ← 𝑤 − η∇𝑤𝑓(𝑤) (1.1) ,với 𝑤 là tập các biến cần cập nhật, η là tốc độ học (learning rate), ∇𝑤𝑓(𝑤) là Gradient của hàm mất mát 𝑓 theo tập trọng số w.

Tốc độ học η có thể được thiết lập khi thiết kế thuật toán. Chọn tốc độ học η “vừa đủ” rất khó. Nếu chọn giá trị quá nhỏ, ta sẽ không có tiến triển. Nếu chọn giá trị quá lớn, nghiệm sẽ dao động và trong trường hợp tệ nhất, thậm chí sẽ phân kỳ.

- Thuật toán Adam [38] là một thuật toán tối ưu dựa trên GD, kết hợp tất cả các cải tiến của các thuật toán đã nêu thành một thuật toán học hiệu quả. Đây là một trong những thuật toán tối ưu mạnh mẽ và hiệu quả được sử dụng phổ biến trong học sâu hiện nay.

Một trong những thành phần chính của Adam là các trung bình động trọng số mũ (hay còn được gọi là trung bình rò rỉ) để ước lượng cả động lượng và mô-men bậc hai của gradient. Cụ thể, nó sử dụng các biến trạng thái:

𝑣𝑡 ← 𝛽1𝑣𝑡−1 + (1 − 𝛽1)𝑔𝑡

𝑠𝑡 ← 𝛽2𝑠𝑡−1 + (1 − 𝛽2)𝑔𝑡2 (1.2) Với 𝛽1⁡, 𝛽2 là các tham số trọng số không âm, thường được đặt là 𝛽1 = 0.9

và 𝛽2 = 0.999 điều này có nghĩa là cần chọn ước lượng phương sai di chuyển

chậm hơn nhiều so với số hạng động lượng. Nếu khởi tạo 𝑣0 = 0 và 𝑣𝑥 = 0 thì thuật toán có độ lệch ban đầu đáng kể về các giá trị nhỏ hơn, do đó ta sử dụng

∑ 𝛽𝑖 =1−𝛽𝑡

1−𝛽 𝑡

𝑖=0 để chuẩn hóa lại các số hạng. Các biến trạng thái sau khi chuẩn hóa lại là:

𝑣̂𝑡 = 𝑣𝑡

1−𝛽1𝑡 và 𝑠̂𝑡 = 𝑠𝑡

1−𝛽2𝑡 (1.3) Giá trị gradient được điều chỉnh lại:

𝑔𝑡′ = 𝜂𝑣̂𝑡

√𝑠̂𝑡+𝜖 (1.4) Trong công thức trên thông thường 𝜖 = 10−6. Tổng hợp các công thức lại ta có công thức cập nhật cho trọng số trong các bước lặp là:

𝑤𝑡 = 𝑤𝑡−1− 𝑔𝑡′ (1.5)

Một phần của tài liệu Nghiên cứu, phát triển một số kỹ thuật học sâu áp dụng cho phân vùng polyp trên ảnh nội soi đại tràng (Trang 27 - 30)

Tải bản đầy đủ (PDF)

(127 trang)