HỌC CẠNH TRANH

Một phần của tài liệu Tổng quan Neural networks (Trang 73 - 75)

Các neuron trong lớp cạnh tranh tự phân bố để nhận ra tần số xuất hiện các vector ngõ vào.

1.1 Cấu trúc mạng

Khối dist nhận vector ngõ vào P và ma trận trọng số ngõ vào IW1.1, tạo ra vector có S1 thành phần. Các thành phần có giá trị bằng trừ khoảng cách giữa vector ngõ vào và vector iIW1.1. Ngõ vào mạng n1 ở lớp cạnh tranh được tính bằng cách tìm giá trị âm khoảng cách giữa vector ngõ vào P và các vector trọng số và sau đó được cộng với ngưỡng b. Nếu tất cả các ngưỡng bằng 0, ngõ vào neuron có giá trị lớn nhất bằng 0. Điều này xảy ra khi vector ngõ vào P bằng với vector trọng số.

Phần 3_Chương 8 : Mạng Self-Organizing

Hàm truyền cạnh tranh nhận vector ngõ vào mạng cho một lớp và trả ra giá trị 0 cho tất cả các neuron ngoại trừ neuron thắng, neuron thắng là neuron có thành phần ngõ vào mạng n1 dương nhất. Ngõ ra của neuron thắng bằng 1. Nếu tất cả các ngưỡng bằng 0 thì neuron có vector trọng số gần nhất với vector ngõ vào sẽ có ngõ vào mạng ít âm nhất, và do đó thắng trong cuộc cạnh tranh cho ngõ ra a bằng1.

1.2 Quy luật học Kohonen ( LEARNK )

Các trọng số của neuron thắng (là một hàng trong ma trận trọng số ngõ vào) được hiệu chỉnh bằng quy luật học Kohonen. Giả sử rằng neuron thứ i thắng, hàng thứ i trong ma trận trọng số được điều chỉnh như sau :

( ) 1,1( 1) ( ( ) 1,1( 1))1 1 , 1 q = IW q− + p qIW qIW i i i α

Quy luật Kohonen cho phép các trọng số của một neuron học một vector ngõ vào, do đó đây là lợi điểm dùng trong các ứng dụng nhận dạng.

Do đó neuron có vector trọng số gần nhất với vector ngõ vào được cập nhật để gần hơn. Kết quả là neuron thắng gần như thắng tiếp trong lần cạnh tranh sau khi các vector vào tương tự. Vì thế khi có nhiều vector vào, mỗi neuron sẽ tự điều chỉnh đến gần nhất các nhóm vector vào. Cuối cùng, nếu có đủ neuron, mỗi nhóm các vector ngõ vào tương tự nhau sẽ có một neuron cho ngõ ra bằng 1 khi có một vector trong nhóm vào mạng. Vì thế mạng cạnh tranh học phân loại các vector ngõ vào.

1.3 Quy luật học ngưỡng (Learncon)

Một trong những giới hạn của mạng cạnh tranh là có vài neuron có thể luôn luôn không được chỉ định. Nói cách khác có một vài vector trọng số neuron có thể bắt đầu từ rất xa với bất kì các vector ngõ vào và sẽ không bao giờ thắng trong cuộc cạnh tranh cho dù thời gian huấn luyện có lâu đi nữa. Kết quả là các trọng số của chúng sẽ không được học và chúng sẽ không bao giờ thắng. Các neuron không may mắn gọi là neuron “chết”, hoàn toàn không có ích trong mạng.

Để ngăn cản điều này xảy ra, ngưỡng sử dụng để đưa neuron chỉ thắng trong một vài cuộc cạnh tranh (hoặc chưa bao giờ) một lợi thế hơn tất cả các neuron khác thường hay thắng. Với ngưỡng dương, cộng với khoảng cách âm làm cho khoảng cách của neuron có nhiều khả năng thắng hơn. Để làm điều này ta giữ lại trung bình chạy của ngõ ra các neuron, tương đương với số phần trăm thời gian mỗi ngõ ra bằng 1. Giá trị trung bình này sử dụng để cập nhật ngưỡng (dùng hàm học learncon). Do đó ngưỡng của các neuron ít hoạt động này sẽ lớn hơn.

Tốc độ học của hàm learncon thường được cài đặt nhỏ hơn hàm learnk. Làm điều này để bảo đảm giá trị trung bình chạy được chính xác.

Kết quả là ngưỡng của các neuron không được đáp ứng thường xuyên sẽ tăng so với ngưỡng các neuron đáp ứng thường xuyên. Khi ngưỡng của các neuron ít hoạt động tăng, không gian ngõ vào mà neuron đó đáp ứng sẽ tăng. Khi không gian ngõ vào đó tăng, neuron ít hoạt động sẽ đáp ứng và di chuyển về phía các vector ngõ vào. Cuối cùng neuron sẽ đáp ứng với tần số bằng với các neuron khác.

Điều này có hai ưu điểm. Thứ nhất nếu neuron không bao giờ thắng trong cuộc cạnh tranh vì trọng số của nó rất xa so với các vector ngõ vào, cuối cùng ngưỡng của nó sẽ có giá trị đủ lớn để neuron này có thể thắng. Khi điều này xảy ra neuron sẽ di chuyển về phía một nhóm vector ngõ vào, trọng số của nó sẽ giảm về 0. Như vậy, vấn đề về neuron chết đã được giải quyết. Ưu điểm thứ hai về ngưỡng là chúng buộc mỗi neuron phân loại thô các vector ngõ vào bằng nhau. Vì thế nếu một vùng của không gian ngõ vào có nhiều neuron đáp ứng hơn các vùng khác, thì mạng sẽ phân bố lại chia vùng đó thành nhiều vùng con.

Một phần của tài liệu Tổng quan Neural networks (Trang 73 - 75)

Tải bản đầy đủ (DOC)

(77 trang)
w