Mô hình cấu trúc đề xuất (WNN-LCW)

Một phần của tài liệu (LUẬN văn THẠC sĩ) mạng nơron wavelet ứng dụng cho xấp xỉ phi tuyến (Trang 36 - 38)

- Như đã đề cập, hai vấn đề chủ chốt trong việc thiết kế mạng nơron wavelet là làm thế nào để xác định cấu trúc mạng nơron wavelet và thuật toán nghiên cứu nào có thể được sử dụng một cách hiệu quả cho việc huấn luyện mạng nơron wavelet. Những vấn đề này liên quan đến việc xác định một kiến trúc mạng nơron wavelet tối ưu để tìm kiếm các hàm wavelet;

- Mạng nơron wavelet là một loại mạng nơron với hàm wavelet bao gồm những hàm số cơ bản. Đặc tính bên trong của các mạng hàm cơ bản đó là kích hoạt cục bộ với giá trị đầu vào cho trước được chỉ ra bởi các hàm hoạt tính (activation function). So với mạng perceptron đa lớp (MLP), các mạng hàm số cơ bản cũng tương tự như MLP. Mô hình mạng nơron wavelet đề xuất trong luận văn này hợp nhất một vài biến đổi so với những mạng nơron wavelet cổ điển nhằm nâng cao hiệu suất của nó. Một mạng nơron wavelet cổ điển sử dụng các hàm cơ bản wavelet phi tuyến (gọi là các hàm wavelet) thay vì sử dụng các hàm kích hoạt sigmoid thông thường. Giá trị đầu ra của mạng này là một tổng có trọng số của một số hàm wavelet. Trong mạng nơron wavelet tuyến tính (WNN-LCW), các trọng số liên kết giữa các nơron lớp ẩn và các nơron đầu ra được thay thế bởi một mô hình tuyến tính cục bộ, tương tự với lớp đầu ra xuất hiện trong hệ suy luận nơron mờ thích nghi ANFIS. Giá trị đầu ra của mạng là một tổng có trọng số của một số hàm wavelet. Mạng nơron wavelet tuyến tính (WNN - LCW) các trọng số liên kết giữa các nơron lớp ẩn và các nơron đầu ra được thay thế bởi một mô hình tuyến tính cục bộ (tương tự mô hình Takagi – Sugeno – Kang như trong các hệ thống lọc nano (NF));

- Một mạng nơron wavelet dự tính gần đúng bất kỳ một tín hiệu mong muốn y(t) nào bằng cách tạo ra tổ hợp của một số các hàm wavelet con tạo ra bởi phép giãn và tịnh tiến kích thước bước mn từ một wavelet mẹ với một trong hai phương trình dưới đây:

𝜑𝑚,𝑛 = 𝜑(𝑡−𝑛

𝑚 ) (2.24)

𝜑𝑚,𝑛 = 𝜑(2−𝑚𝑡 − 𝑛)

Với, m>0. Ghi nhớ rằng phương trình (2.24) không có tiêu chuẩn hóa. Đối với không gian đầu vào n chiều, hàm cơ sở wavelet đa biến có thể được tính bởi tích tenxơ của các hàm cơ sở đơn wavelet P như dưới đây:

𝜑(𝑥) = ∏𝑃𝑃=1𝜑(𝑥𝑝) (2.25) - Do tính toàn vẹn của phép xấp xỉ địa phương, một số lượng lớn đơn vị hàm số cơ bản phải được sử dụng cho việc nhận diện hệ thống được đưa ra. Bất lợi của mạng Nơron Wavelet là:

- Đối với những vấn đề nhiều chiều hơn thì cần có nhiều lớp ẩn;

- Do các tham số bên trong hàm số hoạt động trong mạng, nên bỏ qua nhiều giai đoạn huấn luyện để đạt được một mức độ chính xác cụ thể của.

Giá trị đầu ra trong lớp ra được đưa ra bởi phương trình:

y = ∑(ωj0+ ωj1x1+ ⋯ + ωjpxp)φj(x̅)

N

j=1

(2.26) Tại đó, 𝑥̅𝑗 là tích của các trọng số và các giá trị đầu vào từ lớp vào đến Nơron j của lớp ẩn. Nó được biểu thị ở hình 2.13

Lớp 1 Lớp 2 Lớp 3

Hình 2.13 Cấu trúc mạng thần kinh sóng nhỏ trọng lượng tổ hợp tuyến tính

- Các trọng số giữa lớp ẩn và lớp ra là một sự kết hợp tuyến tính của các

trọng số Wj theo i. Những đặc tính tốt trong các hệ thống nơron mờ TSK ii) các

mô hình tuyến tính riêng phải cung cấp một phép nội suy kỹ lưỡng hơn trong các không gian bậc cao. Các thông số về quy mô và tịnh tiến và các thông số mô hình tuyến tính riêng và trọng số lớp đầu tiên cho đến thứ hai được khởi tạo ngẫu nhiên ban đầu và được tối ưu hóa bằng thuật toán lan truyền ngược giảm gradient. Chức năng được thông qua trong nút lớp ẩn là một phiên bản được sửa đổi của sóng nhỏ, được xuất hiện trong thuật toán. Sóng nhỏ này được bắt nguồn từ một chức năng tỷ lệ thuận với hàm cosin và hàm mật độ xác suất Gaussian. Nó không trực giao và có hỗ trợ thay thế. Hàm kích hoạt nút sóng nhỏ thứ j được kết nối với dữ liệu đầu vào sẽ được thể hiện:

𝜑𝑚𝑗,𝑛𝑗(x̅ ) = cos (2𝜋𝛽 (𝑗 x̅ − m𝑗 𝑗 nj )) 𝑒 − (x̅−mj nj ) 2 𝑣 (2.27)

Một phần của tài liệu (LUẬN văn THẠC sĩ) mạng nơron wavelet ứng dụng cho xấp xỉ phi tuyến (Trang 36 - 38)

Tải bản đầy đủ (PDF)

(57 trang)