Lớp kích hoạt phi tuyến tính (Non-linearity Layers)

Một phần của tài liệu Lập trình thi công và phát triển robot nhện iot (internet of thing) (Trang 36 - 37)

CHƯƠNG 2 : CƠ SỞ LÝ THUYẾT

2.6. Mạng nơron tích chập (CNN)

2.6.5. Lớp kích hoạt phi tuyến tính (Non-linearity Layers)

Mạng thần kinh của chúng ta sẽ hoạt động giống như một nhận thức duy nhất b i vì tổng của tất cả các lớp v n sẽ là một hàm tuyến tính c ngh a là đầu ra c thể được tính là sự kết hợp tuyến tính của các đầu ra. Sau m i lớp chập chúng ta thường c một lớp

phi tuyến tính. Lớp này c n được gọi là lớp kích hoạt vì chúng tơi s dụng một trong các chức n ng kích hoạt. Do nếu khơng c lớp kích hoạt (ReLU Sigmoid…) thì mạng đơn giản ch là kết hợp của các hàm tuyến tính như đã n i trên. Khi đ hàm hợp của nhiều hàm tuyến tính v n là hàm tuyến tính. Điều này khiến cho mạng chẳng khác gì một phép biến đổi tuyến tính cả. Trong khi đ ánh xạ giữa đầu vào tới đầu ra luôn là phi tuyến. T m lại cần d ng activation layer để c được một ánh xạ phi tuyến.

Trước đây các hàm phi tuyến như sigmoid và tan đã được s dụng nhưng h a ra hàm cho kết quả tốt nhất khi n i đến tốc độ huấn luyện của mạng thần kinh là hàm ch nh lưu (Rectifier function). Vì vậy lớp này thường được gọi là lớp ReLU n được d ng để loại bỏ tính tuyến tính bằng cách đặt các giá trị nhỏ hơn 0 thì sẽ bằng 0. Hàm ReLU được diễn tả là f(x) = max(0 x). Hình 2.33. cho thấy ứng dụng của n trong một Feature map. Trên hình ảnh thứ 2 của bản đồ đặc điểm các giá trị màu đen là giá trị âm và sau khi áp dụng chức của hàm ReLU các giá trị màu bị x a khỏi tấm ảnh.

Hình 2.33. Feature map sau khi qua lớp kích hoạt

Một phần của tài liệu Lập trình thi công và phát triển robot nhện iot (internet of thing) (Trang 36 - 37)

Tải bản đầy đủ (PDF)

(58 trang)