MẠNG XÁC SUẤT (PN N)

Một phần của tài liệu Tổng quan Neural networks (Trang 66 - 68)

Mạng xác suất có thể dùng cho vấn đề phân loại. Khi có ngõ vào, lớp thứ nhất tính khoảng cách giữa vector ngõ vào và vector ngõ vào huấn luyện, mạng sẽ đưa ra vector khoảng cách đó. Lớp thứ hai tính tổng các ngõ ra lớp thứ nhất đối với mỗi nhóm ngõ vào và tạo ngõ ra mạng là vector xác suất. Cuối cùng, hàm truyền cạnh tranh ở ngõ ra của lớp thứ hai lấy thành phần có xác suất lớn nhất, và cho giá trị ngõ ra là 1 đối với lớp đó và 0 đối với tất cả các lớp khác.

Cấu trúc mạng

Giả sử rằng có Q cặp vector vào/vector đích. Mỗi vector đích có K thành phần. Một trong các thành phần là 1, còn lại là 0. Do đó, mỗi vector vào chỉ ứng với một trong các lớp K. Lớp thứ nhất có trọng số ngõ vào là pT. Khi có một vector vào khối dist  sẽ cho một vector ngõ ra có thành phần là vector khoảng cách giữa ngõ vào và tập huấn luyện. Các thành phần này nhân với ngưỡng và qua hàm truyền radbas. Khi ngõ vào gần với vector huấn luyện sẽ cho ngõ ra giá trị gần bằng 1 ở vector a1. Nếu ngõ vào gần với nhiều vector huấn luyện của một lớp đơn, nó sẽ cho ngõ ra nhiều thành phần gần bằng 1 trong a1. Trọng số lớp thứ hai là ma trận vector đích T. Mỗi vector chỉ bằng 1 trên hàng liên kết với lớp ngõ vào cụ thể và bằng 0 ở chỗ khác. Phần nhân Ta1 lấy tổng các thành phần a1. Cuối cùng hàm truyền lớp thứ hai, hàm cạnh tranh, cho giá trị bằng 1 tương ứng với thành phần lớn nhất của N2 và bằng 0 ở chỗ khác. Vì thế mạng đã phân loại vector ngõ vào thành một lớp trong K lớp, vì lớp đó có xác suất đúng lớn nhất.

Ta có thể tạo mạng PNN bằng hàm newpnn.

4. KẾT LUẬN

Mạng radial basis có thể được thiết kế rất nhanh theo hai cách khác nhau :

• Phương pháp 1 dùng newrbe, tìm ra cách giải quyết chính xác. Hàm newrbe tạo mạng radial basis với số neuron radbas bằng số ngõ vào vector trong dữ liệu huấn luyện.

• Phương pháp 2 dùng newrb, là mạng kích thước nhỏ nhất có thể giải quyết vấn đề với sai số cho trước. Mạng yêu cầu ít neuron hơn newrbe. Tuy nhiên do số neuron radial basis tỉ lệ với kích thước không gian ngõ vào và độ phức tạp của vấn đề nên mạng radial basis lớn hơn mạng backpropagation.

Mạng neural hồi quy tổng quát hóa thường sử dụng hàm xấp xỉ. Khi có đầy đủ số neuron ẩn GRNN có thể tương ứng gần đúng một hàm liên tục với độ chính xác cao.

Mạng neural xác suất được dùng cho vấn đề phân loại. Việc thiết kế mạng rõ ràng nhưng không phụ thuộc vào huấn luyện. Khi có đủ dữ liệu huấn luyện PNN được bảo đảm hội tụ tới sự phân loại Bayesian.

GRNN và PNN có nhiều ưu điểm, nhưng cả hai có cùng khuyết điểm chính là hoạt động chậm, bởi vì có quá nhiều phép tính.

Một phần của tài liệu Tổng quan Neural networks (Trang 66 - 68)

Tải bản đầy đủ (DOC)

(77 trang)
w