- Định lý: Nếu có W
4. Biến đổi không gian biểu diễn: mạng nơron tỏ ra tương đối hiệu quả khi dùng để biến đổi các biểu diễn đối tượng từ không gian nhiều chiều sang
khi dùng để biến đổi các biểu diễn đối tượng từ không gian nhiều chiều sang không gian có số chiều nhỏ hơn. Điều khác giữa bài toán phân lớp đối tượng và biến đổi không gian biểu diễn chính là ở phương pháp biểu diễn kết quả. Trong phân lớp, người ta muốn định danh các lớp đối tượng, còn trong biến đổi không gian ta quan tâm đến chính đối tượng.
Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên http://www.lrc-tnu.edu.vn
Chƣơng 3
Thử nghiệm mô hình phân lớp các con số
3.1 Bài toán phân lớp các con số
Cần phân các hình ảnh sau vào lớp các con số. Đây cũng chính là các mẫu học.
Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên http://www.lrc-tnu.edu.vn
3.1.1 Các biến
Số lượng các nơron trong lớp vào là số chiều không gian vào. Ở đây lấy bằng 63.
Số lượng các nơron trong lớp ra là số các lớp. Ở đây lấy bằng 9. Một lớp ứng với không nơron nào sáng.
Thông thường các mạng nơron dùng 1 lớp ẩn thì số lượng các nơron trong lớp ẩn thường được chọn = ½ (số nơron tầng input + số nơron trong tầng output). Tuy nhiên để tiết kiệm thời gian huấn luyện ta lấy số nơron lớp ẩn là 6.
63 thành phần của vectơ vào ứng với 63 ô. Thành phần nào đó của vectơ vào nhận giá trị 1 nếu ô tương ứng với thành phần đó có màu đen, nhận giá trị 0 nếu ô tương ứng có màu trắng.
9 thành phần của vectơ ra tương ứng với 10 con số. Thành phần ra số 1 nhận giá trị 1 tức là tín hiệu vào được gạt vào lớp con số 1. Thành phần ra số 2 nhận giá trị 1 tức là tín hiệu vào được gạt vào lớp con số 2…. Khi một thành phần nhận giá trị 1 tất cả các thành phần khác nhận giá trị 0. Khi không có thành phần nào nhận giá trị 1 tức là vectơ vào được gạt vào lớp con số 0.
3.1.2 Cấu trúc mạng
Mạng có một lớp ẩn và cấu trúc 63-6-9
Tức là mạng có 63 nơron vào, 6 nơron lớp ẩn, 9 nơron ra. Mạng truyền thẳng. Lan truyền ngược.
3.1.3 Huấn luyện mạng
Phương pháp học: Luật delta hay qui tắc delta (delta rule), còn được gọi là qui tắc học Widrow-Hoff Do Widrow và Hoff đề nghị (1960)
Ta có tập mẫu học {xi[k], ti[k]}. Từ tập mẫu học xi[k] và các trọng số Vij, Wji của mạng, ta xác định được đầu ra thực yi[k]. Trên cơ sở so sánh với mẫu học ti[k], các trọng số Wji[k] được hiệu chỉnh thành Wji[k+1]. Tiếp tục từ Wji[k+1] sẽ hiệu chỉnh các trọng số Vij[k].
Với sai lệch cho mẫu học thứ k là ti[k] – yi[k], giá trị sai lệch Wji[k] được xác định theo công thức cải biên của Widnow như sau:
Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên http://www.lrc-tnu.edu.vn j k Y ji k s z W i . . ] [ [ ] Trong đó, s là bước học s = 0.10.9 ji W