Các phương pháp phân lớp ảnh

Một phần của tài liệu Phát hiện lỗi màu trên gạch men (Trang 60 - 63)

3.2.1 Phân lớp RBFNN (Radial Basis Function Neural Networks) [4]

Ứng dụng mạng neural nhân tạo đã được phát triển khá phổ biến, được áp dụng rộng rãi trong nhiều lĩnh vực đạt nhiều kết quả rất tốt, nhất là khả năng xác định sai lỗi trong nhiều ứng dụng. Mạng neural liên quan tới tập vào ra của hệ thống mà được gọi là các tham số của mạng, các sai số khi phân chia để mô tả

các giá trị lỗi. Trong các ứng dụng phổ biến nhất là mạng nhiều tầng MLP (Multi-Layer Perceptron), sử dụng các tham số để huấn luyện và phương pháp học có giám sát, phù hợp với cách tính sai số theo phương pháp truyền ngược

Mặc dù hoạt động của MLP khá đơn giản, nhưng phương pháp RBFNN đã áp dụng thành công trong ứng dụng phân lớp ảnh. Hàm RBF thực hiện phương pháp học bằng cách xấp xỉ bề mặt ảnh trong không gian nhiều chiều, và nó tạo ra dữ liệu huấn luyện phù hợp cho ứng dụng phân lớp ảnh.

• Cấu trúc phân lớp RBFNN

Các dữ liệu có nhiều thành phần khác nhau cũng được áp dụng để phân lớp, có thể thực hiện bằng mạng neural, kết quả thu được rất cao trong việc ước tính dữ liệu cho các lớp được phân chia trên bề mặt. Một RBFNN đơn giản có cấu trúc gồm ba tầng, được trình bày như hình 3.2

ƒ Tầng vào bao gồm N nút vào

ƒ Tầng ẩn gồm P nút RBF (Radial Basis Function) ƒ Tầng ra bao gồm M nút cho ngõ ra

Mạng sẽ tính khoảng cách hình học của vector dữ liệu để tìm trọng tâm ban đầu của tập dữ liệu vào, mỗi lần đều thực hiện phép biến đổi phi tuyến bằng các hàm tính bán kính RBF ở tầng ẩn để đưa qua cho tầng ra. Ngõ ra của mạng nhận được một tập dữ liệu đơn giản gồm tổng các trọng số ở tầng ẩn. Thành phần RBFNN là một phép ánh xạ từ X vector vào cho Y vector ra

M N R R : f → ( j ) j P j kj k W G X C y =∑ − =1 (3.1) ở đây: N R

X∈ : là vector đầu vào (). Gj : là hàm tính bán kính cơ sở từ RN đến R . : là khoảng cách Euclidean Wkj (1≤ j≤P và 1≤k≤M): là trọng số kết nối của nút ra thứ k đến nút của hàm tính bán kính thứ j N j R C ∈ : là trọng tâm RBF thứ j P: là số trọng tâm tìm được

• Huấn luyện mạng neural

Khả năng phân lớp bằng RBFNN tùy thuộc vào cách chọn các tham số cho mạng. Các tham số này bao gồm số nút của tầng ẩn, các trọng tâm tính từ hàm RBF phải bao hàm hết các trọng số, khi chọn đúng các tham số thì mạng thực hiện sẽ cho kết quả tối ưu. Tất cả các tham số này phụ thuộc nhiều vào dữ liệu huấn luyện. Thủ tục huấn luyện sẽ điều chỉnh các tham số

này sao cho việc tìm lỗi là tối thiểu. Để thiết kế cấu trúc mạng phân lớp theo RBFNN, ta phải xác định các tham số để khi huấn luyện được chính xác, vì thế phải điều chỉnh các tham số huấn luyện để độ chính xác là lớn nhất khi phân lớp các lớp ảnh. Thường các histogram của ảnh được định nghĩa theo từng khối và khối đặc trưng cho histogram được trích đoạn từ các mẫu của ảnh. Thủ tục huấn luyện thực hiện phân lớp để tính giá trị các tham số cho RBFNN từ tập dữ liệu hiện tại. Tốc độ huấn luyện từ các tham số của RBF được thay đổi giá trị trong khoảng giá trị ngưỡng và các trọng số có giá trị trong khoảng nhỏ hơn 1. Do đó tốc độ lỗi huấn luyện cũng thay đổi

Một phần của tài liệu Phát hiện lỗi màu trên gạch men (Trang 60 - 63)

Tải bản đầy đủ (PDF)

(130 trang)