2.3.3Học của mạng nơ ron nhân tạo
Đối với mạng nơ ron nhân tạo thì việc học là quan trọng để tạo nên một mạng nơ ron. Có hai vấn đề cần học đối với mỗi mạng nơ ron nhân tạo đó là học tham số (parameter learning) và học cấu trúc (structure learning).
Học tham số là việc thay đổi trọng số của các liên kết giữa các nơ-ron trong mộtmạng, còn học cấu trúc là việc điều chỉnh cấu trúc của mạng bao gồm thay đổi số lớpnơron, số nơ-ron của mỗi lớp và cách liên kết giữa chúng. Hai vấn đề này có thểđƣợc thực hiện đồng thời hoặc tách biệt.
Về mặt phƣơng pháp học, có thể chia ra làm ba loại: học có giám sát hay còn gọilà học có thầy (supervised learning), học tăng cƣờng (reinforcement learning) và họckhông có giám sát hay còn gọi là học không có thầy ( unsupperviced learning).
- Học có giám sát
- Học không giám sát
- Học tăng cƣờng
2.3.4 Mạng nơ ron lan truyền và giải thuật lan truyền ngược
Mạng perceptron một lớp do F.Rosenblatt[3] đề xuất năm 1960 là mạng truyền thẳng gồm một lớp vào và một lớp ra không có lớp ẩn. Trên mỗi lớp này có thể có một hoặc nhiều nơ-ron. Mô hình mạng nơ-ron của Rosenblatt sử dụng hàm ngƣỡng đóng vai trò là hàm chuyển. Do đó, tổng của các tín hiệu vào lớn hơn giá trị ngƣỡng thì giá trị đầu ra của nơ-ron sẽ là 1, còn ngƣợc lại sẽ là 0.
𝑂𝑢𝑡𝑖 = 1 nếu𝑛𝑒𝑡𝑖 ≥ 𝜃
0 nếu𝑛𝑒𝑡𝑖 < 𝜃 (2.6)
Trong đó:
- 𝑛𝑒𝑡𝑖 = 𝑤𝑖𝑗𝑥𝑗 là tổng thông tin đầu vào của nơ ron thứ i
- 𝜃 là giá trị một ngƣỡng nào đó của nơ ron thứ i
- wijlà trọng số liên kết từ nơ-ron j tới nơ-ron i
- xj là thông tin đầu vào nơ-ron j
Việc huấn luyện mạng dựa trên phƣơng pháp học có giám sát với tập mẫu học là{(x(k), d(k))}, k= 1,2, …, p Trong đó d(k) = [d(k)
, d2(k), …, dn(k)
]T là đầu ra quan sátđƣợc tƣơng ứng với đầu vào x(k)
= [x1(k), x2(k), …, xm(k)
]T (với m là số đầu vào, n làsố đầu ra và p là cặp mẫu đầu vào - đầu ra dùng cho việc học). Nhƣ vậy chúng tamong rằng sau quá trình học, đầu ra tính toán đƣợc y(k)
= [y1(k), y2(k), …, yn(k)]T sẽbằng với đầu ra của mẫu học d(k)
𝑦𝑖(𝑘) = 𝑔 𝑤𝑖𝑇𝑥 𝑘 = 𝑔 𝑤𝑖𝑗𝑥𝑗 𝑘 𝑚
𝑗 =1
= 𝑑𝑖(𝑘) (2.7)