Hình 4.3: Hàm bước nhị phân Hình 4.4: Hàm sigmoid

Một phần của tài liệu báo cáo thực tập mô hình quản lý bán sách (Trang 53)

3. Hàm sigmoid(Sigmoid Function (logsig))

x e x g − + = 1 1 ) (

Hàm này sử dụng cho các mạng được huấn luyện (trained) bởi thuật toán Lan

truyền ngược (Back – Propagation), bởi vì nó dễ lấy đạo hàm, do đó giảm đáng kể

các phép tính trong quá trình huấn luyện mạng. Hàm này được sử dụng cho những ứng dụng mà giá trị đầu ra nằm trong khoảng [0;1].

Hình 4.4: Hàm sigmoid

Các hàm chuyển đối với các nơron lớp ẩn là cần thiết để biểu diễn sự phi tuyến vào trong mạng. Lý do là hợp thành của các hàm đồng nhất là một hàm đồng nhất. Mặc dù vậy nhưng nó mang tính chất phi tuyến (nghĩa là, khả năng biểu diễn các hàm phi tuyến) làm cho các mạng nhiều lớp có khả năng rất tốt trong biểu diễn các ánh xạ phi tuyến. Tuy nhiên, đối với luật học lan truyền ngược, hàm phải khả vi (differentiable) và sẽ có ích nếu như hàm được gắn trong một khoảng nào đó. Do vậy, hàm sigmoid là lựa chọn tốt nhất.

Đối với các đơn vị đầu ra, các hàm chuyển được chọn sao cho phù hợp với sự phân phối của các giá trị đích mong muốn. Nếu giá trị ra trong khoảng [0;1] thì hàm sigmoid là phù hợp nhất.

4. Phân loại mạng

Cấu trúc mạng được định nghĩa bởi: số lớp (layers), số nơron mỗi lớp, và sự liên kết giữa các lớp như thế nào. Các mạng về tổng thể được chia thành 2 loại dựa trên cách thức liên kết giữa các lớp.

a) Mạng truyền thẳng (Multilayered Feedforward Neural Network - MFNN)

Trong mạng nơron truyền thẳng, các liên kết đi theo một hướng nhất định từ lớp vào tới lớp ra, không tạo thành đồ thị có chu trình với các đỉnh là các nơron, các cung là các liên kết giữa chúng.

Hình 4.5: Mạng nơron truyền thẳng nhiều lớp

Một phần của tài liệu báo cáo thực tập mô hình quản lý bán sách (Trang 53)

Tải bản đầy đủ (PDF)

(81 trang)