Hạn chế của luật học Perceptron:

Một phần của tài liệu Chương 1: Công nghệ tính toán phần mềm potx (Trang 72 - 73)

Mạng perceptron phân loại chính xác các vectơ ngõ vào bằng một đường thẳng tuyến tính. Do đĩ, mạng perceptron sẽ gặp khĩ khăn khi giải các bài tốn khơng thể phân chia tuyến tính được. Vì thế, ngồi mạng perceptron, cịn cĩ nhiều phương pháp thích nghi trọng số khác cũng được sử dụng.

Ví dụ: Phương pháp Widrow-Hoff tính tốn sai lệch giữa ngõ ra mong

muốn với ngõ ra thật sự của mạng:

∆ = d(t) – y(t)

Sau đĩ cập nhật trọng số của mạng theo luật: wi(t+1)=wi(t)−α∆xi(t)

Trong đĩ:

d(t) là ngõ ra mong muốn và y(t) là ngõ ra của mạng α là hệ số thích nghi ( 0 < α < 1)

Widrow gọi những mạng sử dụng thuật tốn trên là mạng thích nghi tuyến tính (Adaptive Linear Neural, ADALINE). Việc kết nối nhiều mạng ADALINE lại với nhau tạo nên một cấu trúc gọi là mạng MADALINE (many ADALINE). Thuật tốn huấn luyện các mạng này xuất phát từ việc cố gắng tìm một đường thẳng phân chia 2 vùng khơng gian của bài tốn. Tuy nhiên, cĩ rất nhiều trường hợp các vùng khơng gian khơng thể phân chia tuyến tính được.

Một ví dụ kinh điển cho loại bài tốn này cổng logic XOR. Các ngõ vào và ra của cổng XOR được thể hiện như sau:

1.3.5. Mạng truyền thẳng nhiều lớp ( Multilayer perceptron _ MLP ) :

ðể khắc phục những khĩ khăn đối với những bài tốn cĩ mẫu phân chia khơng tuyến tính, mạng nơ-ron nhiều lớp được sử dụng. Cĩ rất nhiều cơng trình nghiên cứu về mạng MLP và đã cho thấy nhiều ưu điểm của mạng này. Mạng MLP là một giải pháp hữu hiệu cho việc mơ hình hố, đặc biệt với quá trình phức tạp hoặc cơ chế chưa rõ ràng. Nĩ khơng địi hỏi phải biết trước dạng hoặc tham số. Mạng MLP là cơ sở cho thuật tốn lan truyền ngược và khả năng xấp xỉ liên tục.

Một phần của tài liệu Chương 1: Công nghệ tính toán phần mềm potx (Trang 72 - 73)

Tải bản đầy đủ (PDF)

(120 trang)