Ứng dụng trong nhận dạng

Một phần của tài liệu Ứng dụng mạng mờ noron trong nhận dạng và điều khiển hệ phi tuyến (Trang 96 - 105)

. (321) Với là hàm liên thuộc của B0 trong không gian đầ u ra Để thi ế t l ậ p

4.2.1Ứng dụng trong nhận dạng

c) Mạng hồi quy có hàm liên thuộc tổng quát GRNFN

4.2.1Ứng dụng trong nhận dạng

Ta xây dựng hàm mục tiêu J như (4.5) và dựa vào đó để tìm tham số của mạng bằng cách cực tiểu hóa J. Hàm J là hàm của trung bình sai lệch bình phương chuẩn hóa tương ứng với các biến cki, aki, lki, vk và fk(x) như sau:

1

2 .         4.5     

Với e ( j )= y( j )- y0( j ) trong đó y( j ) ( j= 1, 2..M ) là đầu ra mong muốn, và y0( j ) là đầu ra mô hình cho tập dữ liệu thứ j và M là số lượng tập dữ liệu.

83

Ví dụ 2: Bây giờ xét đối tượng phi tuyến có 2 đầu vào là x={x1, x2}’ và 1

đầu ra y được mô tả bởi phương trình (4.6) dưới đây. Ta sẽ mô hình hóa đối tượng bằng cách chia đối tượng thành 6 vùng tương ứng với 6 luật. Xem xét hàm sau tạo dữ liệu đầu ra :

         4 2 2 , . cos 3 1.5 sin 3       0 , 3        4.6     

Với x là biến liên tục ngẫu nhiêu không tương quan với nhau. Ta dễ dàng nhận thấy đối tượng có phần tử nhớ dy/dt nên ở đây dùng mạng GRBF là không thich hợp.

Ta khởi tạo các tham số của mạng ngẫu nhiên và chia thành 6 luật như dưới

đây, nếu kết quả huấn luyện chưa tốt thì ta tăng dần số luật lên hoặc tăng bậc mô hình cục bộ lên cho đến khi thỏa mãn tiêu chí đề ra ( chẳng hạn hàm mục tiêu J <10^(-4) ).

Đường cong mờđược dùng để khởi tạo mạng và khởi tạo các luật như sau : R1: Nếu x1 là       à  thì y là B1 ( , 1 , 10.28 ). R2: Nếu x1 là       à  thì y là B2 ( , 1 , 10.28 ). R3: Nếu x1 là       à  thì y là B3 ( , 1 , 10.28 ). R4: Nếu x1 là       à  thì y là B4 ( , 1 , 10.28 ). R5: Nếu x1 là       à  thì y là B5 ( , 1 , 10.28 ). R6: Nếu x1 là       à  thì y là B6 ( , 1 , 10.28 ). Với , 1 là mô hình cục bộ của x và y. (a) (b)

84

Để nhận dạng đối tượng ta phải kích thích đầu vào tín hiệu giàu thông tin để đối tượng bộc lộ hết các đặc tính vốn có. Thông thường để đạt điều đó ta thường kích thích vào đối tượng tín hiệu dạng ồn trắng có biên độ và độ rộng xung biến đổi ngẫu nhiên như hình 4.6 dưới đây.

Hình 4.6: Dạng tín hiệu kích thich đầu vào đối tượng và đáp ứng đầu ra

85

Hình 4.8 : Đáp ứng đầu ra mạng mờ-noron, giá trị mấu và sai lệch sau khi huấn luyện

86

Hình 4.10 a: Đồ thị hàm liên thuộc biến X1 sau khi huấn luyện

Hình 4.10b) : Đồ thị hàm liên thuộc biến X2 sau khi huấn luyện

Hình 4.7 mô tả quá trình huấn luyện làm giảm giá trị hàm mục tiêu J xuống còn 4.10^(-6). Ta thấy chỉ sau khoảng 20 lần huấn luyện là cho kết quảđạt yêu cầu.

87

Tuy nhiên ta còn phải huấn luyện mạng với nhiều bộ dữ liệu đầu vào ra khác nhau nữa để mạng mờ noron mang được đặc điểm động học của đối tượng.

Hình 4.8 là kết quả đáp ứng đầu ra của đối tượng với bộ dữ liệu mẫu (training data) còn hình 4.9 là kết quảđáp ứng đầu ra với bộ giá trị kiểm tra (testing data) ngẫu nhiên hoàn toàn khác với tất cả các bộ dữ liệu mẫu dùng để huấn luyện mạng.

Ta thấy phương pháp sử dụng nhiều kích thích cùng lúc để có được kết quả

mạng mờ-noron có khả năng nhận dạng rất sát đặc tính động học của đối tượng nhiều vào một ra mà nhiều khi không thể nhận dạng theo kiểu kích thích riêng biệt từng tín hiệu vào để xây dựng ma trận hàm truyền.

Nhận xét ta thấy các biến mà có hàm liên thuộc mà gần bằng 1 trong toàn bộ

dải xét thì trong phép tích mờ có thể bỏđi. Tương tự các biến mà có hàm liên thuộc gần bằng 0 trong toàn bộ dải xét thì ta có thể loại bỏ luật đó ra khỏi bộ luật vì tích của nó gần bằng 0.

Từ hình 4.10a và 4.10b ta thấy x1 ở luật 3,4,5 và x2 ở luật 2 xấp xỉ bằng 1 trong toàn bộ dải quan sát nên ta có thể loại bỏ ra khỏi mệnh đề tiền đề mà không

ảnh hưởng đến kết quả.

Như vậy bộ luật sau khi được huấn luyện sẽ như sau : (adsbygoogle = window.adsbygoogle || []).push({});

R1: Nếu x1 là       à  thì y là B1 ( , 1 , 9.5861 ). R2: Nếu x1 là   thì y là B2 ( , 1 10.2096). R3: Nếu             à  thì y là B3 ( , 1 , 9.4928). R4: Nếu     à  thì y là B4 ( , 1 , 11.2521). R5: Nếu     à  thì y là B5 ( , 1 , 10.4430). R6: Nếu x1 là        à  thì y là B6 ( , 1 , 10.2778). b) So sánh kết quả huấn luyện của các mạng.

Bây giờ ta sẽ xem xét kết quả huấn luyện của mạng mới GRNFN so với hai mạng GRBFN và RNFN với cùng một đối tượng được cho như ở phương trình (4.6). Một điều ta lưu ý rằng các kết quả huấn luyện của một mạng phụ thuộc rất nhiều vào giá trị khởi tạo các tham số ban đầu. Giá trị khởi tạo càng gần bộ tham số

88

tối ưu thì cho kết quả nhận dạng càng tốt. Mà các tham số khởi tạo của ta ởđây có rất nhiểu tham số ngẫu nhiên. Vì vậy để cho kết quả khách quan nhất ta sẽ lấy cho mỗi mạng 10 trường hợp và chọn kết quả tốt nhất để đại diện cho mỗi mạng. Do mạng được huấn luyện với bộ dữ liệu mẫu ngẫu nhiên nên đểđược kết quả tốt nhất ta phải huấn luyện mạng với nhiều bộ dữ liệu ( ởđây ta cho huấn luyện với 7 bộ ).

Điều thứ hai ta cần phải lưu ý đó là kết quả nhận dạng của một mạng được coi là tốt không phải là kết quả trung bình bình phương sai lệch với bộ dữ liệu mẫu huấn luyện (training data ) nhỏ mà phải là kết quả trung bình bình phương sai lệch so với bộ dữ liệu mẫu kiểm tra ngẫu nhiên ( testing data ). Kết quả càng nhỏ thì nó chứng tỏ nhận dạng càng đúng với những dữ liệu đầu vào không biết trước được.

- Mạng GRBFN được xây dựng gồm 5 lớp, 6 luật cho chương trình Mfile của Matlab như sau :

Lớp 1: Lớp mờ hóa đầu vào x=[x1, x2] theo 6 luật (hay chính là 6 noron) tương tự như ở ví dụ 2. Ở mỗi luật mỗi biến xi có hàm liên thuộc dạng hàm tổng quát GFM (3.29). Đầu ra lớp 1 là độ mạnh hiệu quả của tập mờ tiền đề (3.30) đưa tới lớp 2.

Lớp 2: Lớp chuẩn hóa các tín hiệu đầu vào có trọng số theo dạng (4.1) để đưa tới lớp 3.

Lớp 3: Lớp tích từng đầu ra của từng luật đã chuẩn hóa lớp 2 với đầu ra của lớp 5( chính là mô hình không gian con của luật đó).

. . (*) Lớp 4: Lớp tổng các đầu ra của noron lớp 3 hay là lớp giải mờ có dạng (4.2). Lớp 5 : Lớp mô hình không gian con có dạng (4.4).

- Mạng RNFN được xây dựng gồm 5 lớp, 6 luật như sau :

Lớp 1: Lớp mờ hóa đầu vào x=[x1, x2] và có cả đầu ra hồi quy y(t-1) cũng theo 6 luật như GRBFN nhưng hàm lien thuộc có dạng Gauss .

Lớp 2: Lớp chuẩn hóa các tín hiệu đầu vào không có trọng số

Lớp 3: Lớp tích từng đầu ra của từng luật đã chuẩn hóa lớp 2 với đầu ra của lớp 5( chính là mô hình không gian con của luật đó).

89 Lớp 4: Lớp tổng hay giải mờ có dạng (3,25). Lớp 5 : Lớp mô hình không gian con có hồi quy.

- Mạng GRNFN giống mạng hồi quy chỉ khác có lớp mờ hóa cả đầu vào và

đầu ra hồi quy theo dạng hàm liên thuộc tổng quát (3.29) và lớp hai chuẩn hóa có trọng số.

Bảng 4.2 sau đây so sánh đặc điểm của 3 mạng được huấn luyện

Mạng Số lớp Số luật Số trường hợp thử Số lần huấn luyện GRBFN 5 6 10 7 RNFN 5 6 10 7 GRNFN 5 6 10 7 Bảng 4.3 : So sánh kết quả các mạng được huấn luyện. Mạng Số lớp Thời gian huấn luyện Giá trị khởi tạo mse Kết quả huấn luyện với 1 mẫu dữ liệu(mse) Kết quả huấn luyện với nhiều mẫu dữ liệu(mse) GRBFN 5 1phut24s 0.431 0.00091 0.00117 RNFN 5 1h35s 10.2 0,000567 8e-5 GRNFN 5 23phut57s 0.0411 0.000546 4.58e-05

Hình 4.11 mô tả quá trình huấn luyện của 3 mạng GRBNF, RNFN và GRNFN. Dựa vào hình đó ta thu được kết quả bảng 4.3 ta thấy rằng mạng GRBFN cho thời gian huấn luyện nhanh nhưng kết quả huấn luyện với nhiều mẫu dữ liệu chưa đáp ứng tốt (0.00117) . Mạng RNFN cho kết quả huấn luyện với nhiều mẫu (8e-5) tốt hơn mạng GRBFN nhưng thời gian huấn luyện lâu . Trong khi đó mạng GRFNN huấn luyện gián tiếp (4.58e-5) vừa cho ta thời gian huấn luyện ít hơn mạng RNFN và mạng GRNFN ( huấn luyện trực tiếp ) mà lại cho kết quả huấn luyện tốt nhất. Nguyên nhân là khi ta sử dụng huấn luyện gián tiếp thì việc huấn luyện với

đầu ra đã biết trước cho chúng ta bộ tham số của mạng gần với giá trị tham số tối ưu hơn bộ tham số khởi tạo ngẫu nhiên từ đó có khả năng thu được bộ tham số tối ưu cao hơn.

90

Hình 4.11 : Kết quả huấn luyện các mạng GRBFN, RNFN, GRNFN. Kết quả huấn luyện mạng GRNFN

với 1 mẫu

Kết quả huấn luyện mạng GRBFN Kết quả huấn luyện mạng RNFN

Kết quả huấn luyện mạng GRNFN nhiều mẫu

91

Một phần của tài liệu Ứng dụng mạng mờ noron trong nhận dạng và điều khiển hệ phi tuyến (Trang 96 - 105)