Huấn luyện mạng:
Thuật toán huấn luyện mạng Perceptron được gọi là thuật toán học Perceptron. Thuật tốn học này cịn được gọi là thuật toán học sửa sai (Error Correction Learning Rule).
Thuật tốn học Perceptron được tóm tắt như sau [15]: Bước 1: Chọn tốc độ học 𝜂 > 0.
Bước 2: Khởi động:
- Gán sai số E = 0
- Gán biến chạy k = 1
- Gán các vector trọng số 𝑤𝑖(𝑘) (𝑖 = 1, 𝑛̅̅̅̅̅) bằng giá trị ngẫu nhiên nhỏ bất kỳ.
Bước 3: Q trình huấn luyện bắt đầu, tính:
𝑦𝑖(𝑘) = 𝑠𝑡𝑒𝑝(𝑤𝑖𝑇(𝑘)𝑥(𝑘)) = 𝑠𝑡𝑒𝑝 (∑ 𝑤𝑖𝑗(𝑘)𝑥𝑗(𝑘)
𝑚
𝑗=1
) (𝑖 = 1, 𝑛̅̅̅̅̅) (3.1)
33
𝑤𝑖(𝑘 + 1) = 𝑤𝑖(𝑘) + 𝜂(𝑑𝑖(𝑘) − 𝑦𝑖(𝑘)). 𝑥(𝑘) (𝑖 = 1, 𝑛̅̅̅̅̅) (3.2) Bước 5: Tính sai số tích lũy:
𝐸 = 𝐸 +1
2‖𝑑(𝑘) − 𝑦(𝑘)‖2 (3.3)
Bước 6: Nếu k < K thì gán k = k+1 và trở lại bước 3. Nếu k = K thì tiếp tục bước 7. Bước 7: Kết thúc một chu kỳ huấn luyện (epoch).
- Nếu 𝐸 = 0 thì kết thúc quá trình học.
- Nếu 𝐸 ≠ 0 thì gán 𝐸 = 0, k = 1 và trở lại bước 3 bắt đầu một chu kỳ huấn
luyện mới.
3.5.2. Mạng truyền thẳng nhiều lớp Cấu trúc mạng: Cấu trúc mạng:
Mạng truyền thẳng nhiều lớp là mạng truyền thẳng có từ hai lớp tế bào thần kinh xử lý trở lên. Lớp tế bào thần kinh nối với ngõ vào gọi là lớp vào (thường lớp vào khơng thực hiện các phép tốn xử lý), lớp tế bào thần kinh nối với ngõ ra gọi là lớp ẩn. Kết nối giữa các tế bào thần kinh ở các lớp có thể đầy đủ hoặc khơng đầy đủ.
Khác với mạng truyền thẳng 1 lớp, mạng truyển thẳng nhiều lớp có thể giải bài tốn khơng khả phân tuyến tính.
Huấn luyện mạng:
Thuật tốn huấn luyện mạng truyền thẳng nhiều lớp là thuật toán lan truyền ngược. Thuật toán lan truyền ngược thực hiện hai bước truyền thông tin. Thứ nhất, mẫu dữ liệu vào x(k) được truyền từ ngõ vào đến ngõ ra, kết quả của việc truyền dữ liệu theo hướng thuận là tạo ra tín hiệu y(k) ở ngõ ra của mạng. Sau đó sai số là sai lệch giữa d(k) và y(k) được truyền ngược từ lớp ra trở về lớp trước đó để cập nhật trọng số của mạng.
34
Lớp vào Lớp ẩn Lớp ẩn Lớp ra