Nhận dạng bền vững và điều khiển hệ thống động ứng dụng mạng neuron và logic mờ

192 7 0
Nhận dạng bền vững và điều khiển hệ thống động ứng dụng mạng neuron và logic mờ

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

Đại Học Quốc Gia Tp Hồ Chí Minh TRƯỜNG ĐẠI HỌC BÁCH KHOA - TRẦN THỊ HOÀNG OANH NHẬN DẠNG BỀN VỮNG VÀ ĐIỀU KHIỂN HỆ THỐNG ĐỘNG ỨNG DỤNG MẠNG NEURON VÀ LOGIC MỜ Chuyên ngành : ĐIỀU KHIỂN HỌC KỸ THUẬT Mã số ngành : 2.05.01 LUẬN VĂN THẠC SĨ TP HỒ CHÍ MINH, tháng năm 2005 CÔNG TRÌNH ĐƯC HOÀN THÀNH TẠI TRƯỜNG ĐẠI HỌC BÁCH KHOA ĐẠI HỌC QUỐC GIA TP HỒ CHÍ MINH Cán hướng dẫn khoa học: GS.TSKH NGUYỄN THÚC LOAN Cán chấm nhận xét 1: PGS TS NGUYỄN THỊ PHƯƠNG HÀ Cán chấm nhận xét 2: TS DƯƠNG HOÀI NGHĨA Luận văn thạc só bảo vệ HỘI ĐỒNG CHẤM BẢO VỆ LUẬN VĂN THẠC SĨ TRƯỜNG ĐẠI HỌC BÁCH KHOA, ngày 27 tháng năm 2005 TRƯỜNG ĐẠI HỌC BÁCH KHOA CỘNG HÒA XÃ HỘI CHỦ NGHĨA VIỆT NAM PHÒNG ĐÀO TẠO SĐH ĐỘC LẬP – TỰ DO – HẠNH PHÚC Tp HCM, ngày tháng năm 2005 NHIỆM VỤ LUẬN VĂN THẠC SĨ Họ tên học viên: TRẦN THỊ HOÀNG OANH Phái: Nữ Ngày, tháng, năm sinh: 31 / / 1959 Nơi sinh: Bình Định Chuyên ngành: Điều Khiển Học Kỹ Thuật MSHV: 01503359 I - TÊN ĐỀ TÀI: NHẬN DẠNG BỀN VỮNG VÀ ĐIỀU KHIỂN HỆ THỐNG ĐỘNG ỨNG DỤNG MẠNG NEURON VÀ LOGIC MỜ II - NHIỆM VỤ VÀ NỘI DUNG: • Tìm hiểu vấn đề nhận dạng điều khiển • Tìm hiểu mạng neuron logic mờ • Tìm hiểu chế nhiễu • Ứng dụng vào hệ thống viễn thông III - NGÀY GIAO NHIỆM VỤ: 01 / 01 / 2005 IV - NGÀY HOÀN THÀNH NHIỆM VỤ: 30 / / 2005 V - HỌ VÀ TÊN CÁN BỘ HƯỚNG DẪN: GS.TSKH NGUYỄN THÚC LOAN CÁN BỘ HƯỚNG DẪN CHỦ NHIỆM NGÀNH BỘ MÔN QUẢN LÝ CHUYÊN NGÀNH Nội dung đề cương luận văn thạc só Hội Đồng Chuyên Ngành thông qua PHÒNG ĐÀO TẠO SĐH Ngày tháng năm 2005 KHOA QUẢN LÝ NGÀNH Lời cảm ơn Đề tài “Nhận dạng bền vững điều khiển hệ thống động ứng dụng mạng neuron logic mờ” hoàn thành với hướng dẫn giúp đỡ nhiệt tình Thầy GS.TSKH Nguyễn Thúc Loan Em xin bày tỏ lòng biết ơn sâu sắc lời cảm ơn chân thành tới Thầy Nguyễn Thúc Loan, người trực tiếp hướng dẫn giúp đỡ em nhiều trình hoàn thành đề tài Em xin chân thành cảm ơn Thầy Cô giáo giảng dạy chương trình Cao học Điều Khiển Học Kỹ Thuật trường Đại học Bách Khoa Tp.Hồ Chí Minh trang bị cho em kiến thức quý giá giúp đỡ em nhiều toàn khóa học Em xin chân thành cảm ơn Khoa Khoa Học Cơ Sở trường Đại học Công nghiệp Tp.HCM tạo điều kiện cho em hoàn thành khóa học Tôi xin chân thành cảm ơn bạn bè thân thiết giúp đỡ nhiều cho trình thực luận văn Cuối cùng, muốn gửi lời cám ơn đến tất người thân gia đình: mẹ tôi, anh chị em gia đình nhỏ quan tâm, giúp đỡ, tạo điều kiện động viên thời gian học tập thực luận văn Tp.Hồ Chí Minh, tháng 6/2005 Học viên thực Trần Thị Hoàng Oanh TÓM TẮT LUẬN VĂN Luận văn chia làm phần : Phần I: Giới thiệu nhận dạng điều khiển, hai hướng nghiên cứu ngành Điều Khiển Tự Động Phần II: Giới thiệu mạng neuron logic mờ, hai kỹ thuật mạnh mẽ dùng để nhận dạng điều khiển hệ thống Có thể kết hợp hai công cụ lại với để có hiệu tốt Phần III: Việc nhận dạng điều khiển không xác có diện nhiễu Vì vậy, phần trình bày việc tìm hiểu chế nhiễu Đặc biệt chế nhiễu mạng neuron Phần IV: Ứng dụng việc loại bỏ nhiễu hệ thống viễn thông Xét trường hợp riêng nhiễu : tiếng vọng âm học Để khử tiếng vọng âm học thường người ta dùng lọc tuyến tính thích nghi (với bước lặp cố định hay thay đổi) Nhưng thực đường truyền tiếng vọng phi tuyến(do tính phi tuyến micro loa) người ta dùng lọc phi tuyến Volterra bậc hai (dựa chuỗi Volterra cắt cụt) kết hợp với thuật toán Lọc miền thời gian miền tần số hỗn hợp hai Mạng neuron dùng để thay kết hợp với lọc thích nghi Bộ điều khiển mờ dùng để chọn thông số cho mạng neuron So sánh kết phương pháp Cuối số kết luận hướng phát triển đề tài MỤC LỤC Trang Lời cảm ơn .i Tóm tắt luận văn ii Muïc luïc iii Danh mục chữ viết tắt .iv Danh mục hình vẽ v MỞ ÑAÀU Phần I: Giới thiệu nhận dạng điều khiển Chương 1: Giới thiệu nhận dạng điều khiển 1.1 Giới thiệu nhận dạng 1.2 Caùc bước nhận dạng hệ thống 1.3 Cấu trúc mô hình hệ tuyến tính bất biến 10 1.4 Cấu trúc mô hình hệ phi tuyến tính 17 1.5 Các phương pháp ước lượng tham số 19 1.6 Đánh giá mô hình 31 1.7 Giới thiệu điều khiển 34 PHẦN II : Giới thiệu mạng neuron logic mờ 37 Chương 2: Giới thiệu mạng neuron 38 2.1 Tổng quan mạng neuron 38 2.2 Mạng Perceptron lớp 48 2.3 Maïng truyền thẳng nhiều lớp 52 2.4 Trình tự thiết kế mạng neuron ứng dụng 64 2.5 Các ứng dụng mạng neuron 66 Chương 3: Giới thiệu logic mờ 67 3.1 Tập mờ 67 3.2 Quan hệ mờ 76 3.3 Logic mờ 80 3.4 Suy luận mờ 87 3.5 Giải mờ 93 3.6 Ứng dụng điều khiển 97 Chương 4: Mạng neuron mờ ứng dụng điều khiển 102 4.1 Hệ mờ dựa mạng neuron 103 4.2 Mạng neuron dựa hệ mờ 104 4.3 Các loại mạng neuron hieän 105 PHẦN III : Tìm hiểu chế nhiễu 110 Chương : Tìm hiểu chế nhiễu 111 5.1 Thoâng tin chung cộng hưởng ngẫu nhiên 112 5.2 Thông tin chung neuron hàm ngưỡng 114 5.3 Cộng hưởng ngẫu nhiên tronh mô 117 5.4 Đạo hàm luật học SR 119 PHẦN III : Ứng dụng hệ thống viễn thông 122 Chương : Ứng dụng hệ thống viễn thông 123 6.1 Tiếng vọng điện thoại 123 6.2 Các vấn đề triệt tiếng vọng âm stereo 126 6.3 Các giải thuật lọc thích nghi 130 6.4 Xây dựng hệ thống triệt tiếng vọng dùng mạng neuron 138 6.5 Kết thực nghiệm triệt tiếng vọng dùng lọc thích nghi 144 6.6 Kết thực nghiệm triệt tiếng vọng dùng mạng neuron 158 6.7 Triệt tiếng vọng đường truyền phi tuyeán 165 6.8 So sánh kết luận 167 KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN 169 TÀI LIỆU THAM KHẢO 170 PHUÏ LUÏC 172 DANH MỤC CÁC CHỮ VIẾT TẮT AF ANN APA BFGS DFT ERLE FFT FIR FRLS IDFT LGU LMS LTU LU MSE NLMS RBF RLS SAEC SR VSS-LMS VSS-NLMS FXLMS WSAF PBFDAVF Adaptive Filter Artificial Neural Networks Affine Projection Algorithm Broyden, Fletcher, Goldfarb and Shanno Discrete Fourier Transform Echo Return Loss Enhancement Fast Fourier Transform Finite Impulse Response Fast Recursive Least Square Inverse Discrete Fourier Transform Linear Graded Unit Least Mean Square Linear Threshold Unit Linear Unit Mean Square Error Normalized Least Mean Square Radial Basis Function Network Recursive Least Square Stereophonic Acoustic Echo Cancellation Stochastic Rosonance Variable Step Size Least Mean Square Variable Step Size Normalized Least Mean Square Filtered X Least Mean Square Weighted Sub-Band Adaptive Filter Partitioned block frequency-domain adaptive Volterra filter DANH MỤC CÁC HÌNH VẼ Trang Hình 1.1: Vòng lặp giải toán nhận dạng hệ thống Hình 1.2: Cấu trúc mô hình BJ 12 Hình 1.3: Cấu trúc mô hình OE 13 Hình 1.4: Cấu trúc mô hình ARX 13 Hình 1.5: Mô hình Hammerstein, mô hình Weinner 17 Hình 1.6: Sơ đồ khối tổng quát hệ thống điều khiển thích nghi 35 Hình 2.1: Mô tả cấu trúc neuron sinh học 38 Hình 2.2: Mô hình neuron Mc Culloch vaø Pitts 39 Hình 2.3: Đồ thị số hàm tác động 41 Hình 2.4: Các cấu trúc mạng neuron 42 Hình 2.5: Học có giám sát 43 Hình 2.6: Học tăng cường 44 Hình 2.7: Học giám sát 45 Hình 2.8: Luật học trọng số 45 Hình 2.9: Mạng radial basis 47 Hình 2.10: Mạng Hopfield ba nút 47 Hình 2.11: Mạng perceptron lớp với m -1 tín hiệu vào n tín hiệu 48 Hình 2.12: Mạng truyền thẳng ba lớp 52 Hình 3.1: Hàm liên thuộc tập mờ 69 Hình 3.2: Miền nền, lõi, biên độ cao tập mờ 69 Hình 3.3: Tập mờ tắc, không tắc 70 Hình 3.4: Tập mờ lồi, không lồi 70 Hình 3.5: Các tập mờ phân hoạch mờ 71 Hình 3.6: Các dạng hàm liên thuộc thường gặp 72 Hình 3.7: Giao hai tập mờ 73 Hình 3.8: Hợp hai tập mờ 74 Hình 3.9: Phép bù tập mờ 75 Hình 3.10: Hình liên thuộc hai tập mờ 80 Hình 3.11: Sự suy diễn qui tắc mờ theo phương pháp MAX-MIN 89 Hình 3.12: Sự suy diễn qui tắc mờ theo phương pháp MAX-PROD 90 Hình 3.13: Suy diễn cục hệ qui tắc mờ theo phương pháp MAX-MIN 92 Hình 3.14: Suy diễn cục hệ qui tắc mờ theo phương pháp MAX-PROD 92 Hình 3.15: Phương pháp trọng tâm 94 Hình 3.16: Phương pháp trung bình có trọng số 95 Hình 3.17: Phương pháp trung bình độ phụ thuộc cực đại 96 Hình 3.18: Bộ điều khiển mờ 97 Hình 3.19: Các phương pháp mờ hóa 98 Hình 3.20: Các hàm liên thuộc điều khiển 99 Hình 3.21: Phương pháp giải mờ ngõ 100 Hình 4.1: Mạng neuron mờ loại A 105 Hình 4.2: Mạng neuron mờ loại B 106 Hình 4.3: Mạng neuron mờ loại C 106 Hình 4.4: Mạng neuron mờ loại D 107 Hình 4.5: Mạng neuron mờ loại E 107 Hình 4.6: Mạng neuron mờ loại F 107 Hình 4.7: Mạng neuron mờ loại G 108 Hình 4.8: Mạng neuron mờ loaïi H 108 Hình 4.9: Mạng neuron mờ loại I 109 Hình 5.1: Bộ lọc thích nghi để loại bỏ nhiễu 111 Hình 5.2: Dự báo giá trị tương lai tín hiệu chu kỳ 112 Hình 6.1: Sự xuất tiếng vọng điện thoại 123 Hình 6.2: Nguyên nhân xuất tiếng vọng điện thoại 124 Hình 6.3: Bộ triệt tiếng vọng điện thoại 125 Hình 6.4: Sơ đồ nguyên lý hệ thống triệt tiếng vọng âm stereo 126 Hình 6.5: Lọc thích nghi miền tần số 136 Hình 6.6: Mô hình FIR 138 Hình 6.7: Mạng neuron kết hợp mô hình FIR 139 Hình 6.8: Mô hình Laguerre 140 Hình 6.9: Mạng neuron kết hợp mô hình Laguerre 141 Hình 6.10: Sơ đồ triệt tiếng vọng miền tần số 142 Hình 6.11: Mạng neuron miền tần số 143 Hình 6.12: Mô hình triệt tiếng vọng dùng lọc thích nghi 144 Hình 6.13: Phòng phát 145 Hình 6.14: Phòng thu 145 Hình 6.15: Bộ dự báo dùng lọc thích nghi 146 Hình 6.16: Đồ thị quan hệ bậc M lọc thích nghi FIR ERLE 147 Hình 6.17: Đồ thị quan hệ hệ số µ (FIR12) ERLE 147 Hình 6.18: Kết lọc thích nghi FIR với M = 12 µ = 0.4 148 ) Hình 6.19: Sự biến thiên hệ số H11 M =12 152 Hình 6.20: Đồ thị quan hệ bậc P lọc thích nghi Laguerre ERLE 153 Hình 6.21: Đồ thị quan hệ hệ số µ (Laguerre6) ERLE 153 Hình 6.22: Kết lọc thích nghi Laguerre với P = µ = 0.3 154 ) Hình 6.23: Sự biến thiên hệ số H11 P = 156 Hình 6.24: Đồ thị quan hệ L (số điểm lấy FFT) ERLE (lọc thích nghi) 157 Hình 6.25: Kết lọc thích nghi (miền tần số) L = 16 µ = 0.05 157 Hình 6.26: Mô hình triệt tiếng vọng dùng mạng neuron 158 Hình 6.27: Bộ dự báo dùng mạng neuron 158 Hình 6.28: Đồ thị quan hệ bậc M mô hình FIR ERLE 160 Hình 6.29: Đồ thị quan hệ số neuron lớp ẩn N (FIR12) ERLE 160 167 6.8 SO SÁNH VÀ KẾT LUẬN 6.8.1 So saùnh Tin hieu vong ve B ien (V ) -1 0.1 0.2 0.3 0.4 0.5 0.6 Tin hieu s s o (F IR12) 0.7 0.8 0.9 0.7 0.8 0.9 0.7 0.8 0.9 1 B ien (V ) E RLE = 19.5881 (dB ) -1 0.1 0.2 0.3 0.4 0.5 0.6 Tin hieu s s o (Laguerre6) B ien (V ) E RLE = 21.0968 (dB ) -1 0.1 0.2 0.3 0.4 0.5 0.6 Thoi gian (s ) Hình 6.38: So sánh lọc thích nghi FIR lọc thích nghi Laguerre Tin hieu vong ve B ien (V ) -1 0.1 0.2 0.3 0.4 0.5 0.6 Tin hieu s s o (F IR12) 0.7 0.8 0.9 0.7 0.8 0.9 0.7 0.8 0.9 1 B ien (V ) E RLE = 20.2106 (dB ) -1 0.1 0.2 0.3 0.4 0.5 0.6 Tin hieu s s o (Laguerre4) B ien (V ) E RLE = 20.0076 (dB ) -1 0.1 0.2 0.3 0.4 0.5 0.6 Thoi gian (s ) Hình 6.39: So sánh mạng neuron kết hợp mô hình FIR mô hình Laguerre Nhận xét: Bậc mô hình Laguerre(P) nhỏ bậc mô hình FIR (M ) mà kết tương đương Đó ưu điểm mô hình Laguerre Chương 6: Ứng dụng vào hệ thống viễn thông 168 6.8.2 Kết luận Hệ thống triệt tiếng vọng dùng lọc thích nghi hoạt động hiệu kênh truyền tuyến tính Hệ thống triệt tiếng vọng dùng mạng neuron hoạt động hiệu kênh truyền tuyến tính phi tuyến Hệ thống triệt tiếng vọng dùng mạng neuron kết hợp với mô hình Laguerre hoạt động hiệu bậc P (số ngõ vào mạng neuron) nhỏ Do phần thực nghiệm Luận văn dừng lại phần mô phần mềm Matlab thông số không thay đổi bước lặp µ không thay đổi( chọn số ví dụ:0,3;0,4) so sánh Trong thực tế ảnh hưởng nhiệt độ, áp suất, khoảng cách người nói tay cầm để triệt tiếng vọng hoạt động tốt người ta phải hiệu chỉnh µ Có nhiều công trình nghiên cứu vấn đề này[14] Có thể dùng hệ thống logic mờ chọn bước lặp µ Chương 6: Ứng dụng vào hệ thống viễn thông 169 KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN Trong Luận văn mô tả số phương pháp tiệm cận mô hình mạng neuron logic mờ để mô tả hệ động lực Và hạn chế phần quan sát đầu có dạng nhiễu cộng Trong thực tế mô hình hệ thống động phức tạp với nhiễu nhân Đây hướng phát triển luận văn tương lai Luận văn đề cập đến dạng phổ biến chế nhiễu Tuy nhiên phần ứng dụng mạng neuron hạn chế phần triệt nhiễu hệ thống viễn thông Phương pháp áp dụng mạng neuron logic mờ để xử lý thông tin nhiều hứa hẹn, có khả giải vấn đề nhận dạng, đánh giá, tách tín hiệu, xử lý ảnh, tìm quỹ đạo tối ưu hệ bám… Đây vấn đề đầy hứa hẹn đòi hỏi nhiều nổ lực, đầu tư nhiều tương lai Sẽ phát triển toán triệt nhiễu thành toán dò đường cho Robot tương lai Lónh vực điều khiển neurofuzzy có ưu điểm ứng dụng robot Kết luận hướng phát triển 170 TÀI LIỆU THAM KHẢO [1] MATLAB Version 7.04 [2] Dương Hoài Nghóa,”Hệ thống chuyên gia nhận dạng xử lý tín hiệu” đề tài KH-CN cấp [3] Huỳnh Thái Hoàng , Luận n Tiến Só Kỹ Thuật, “Các thuật toán tối ưu bền vững để nhận dạng điều khiển thích nghi hệ thống động”, năm 2004 [4] Phan Xuân Minh Nguyễn Doãn Phước, Nhận dạng điều khiển hệ thống, NXB Khoa Học Kỹ Thuật, năm 2002 [5] Phan Xuân Minh Nguyễn Doãn Phước, Lý thuyết điều Khiển Mờ, , NXB Khoa Học Kỹ Thuật, năm 1997 [6] Nguyễn Thiện Thành, Trí tuệ nhân tạo, Nhà xuất Đại học quốc gia thành phố HCM, 2001 [7] Ioan Doré Landau, “Identification et commande des systeømes”, Hermes, Paris,1993 [8] Sanya Mitaim and Bart Kosko,”Adaptive SR In Noisy Neurons”, IEEE Transactions on Neural Networks, Vol 15,No.6, November, 2004 [9] Nguyễn Duy Thảo, Luận văn Thạc só “ Ứng dụng mạng neuron mô hình Laguerre vào triệt tiếng vọng”, 2004 [10] Ahmed I Sulyman, Azzedine Zerguine,“Convergence and steady- state analysis of a variable step – size NLMS algorithm”, Signal Processing 83(2003), P.1255-1273 [11] Markus Rupp,”Normalization and convergence of gradient-based algorithms for adaptive IIR filters” Signal Processing 46(1995) , P.15-30 [12] Kazushi Ikeda and Ryohei Sakamoto,”Convergence Analyses of Stereo Acoustic Echo Cancelers With Preprocessing”, IEEE Trans on Signal Processing, Vol.51,No.5,May 2003, P 1324-1334 [13] Fabian Kuech and Walter Kellerman, “Partitioned Block Frequency-Domain Adaptive Second-Order Volterra Filter”, IEEE Trans on Signal Processing, Vol.53,No.2, February 2005, P 564-575 [14] Andreas Mader, Henning Puder, Gerhard Uwe Schmidt,”Step-size control for acoustic echo cancellation filters - an overview”, Signal Processing 80(2000) , P.1697-1719 [15] Zoran D Banjac, Branko D Kovacevic, Milan M Milosavljevic, and Mladen Ñ Veinovic, “Local Echo Canceler With Optimal Input for True Full – Duplex Speech Scrambling System”, IEEE Trans on Signal Processing, Vol.50,No.8, August 2002, P 1877-1882 [16] Nguyễn Kỳ Tài, Luận văn Thạc só “ Khử tiếng vọng âm học”, 2003 [17] B.Kosko,”Neural Networks and Fuzzy Systems: A Dynamical Systems Approach to Machine Intelligence” Englewood Cliffs, NJ: Prentice-Hall, 1992 Biol., Vol.152, pp.531-555, 1991 Tài liệu tham khảo 171 [18] [19] [20] [21] [22] [23] [24] X.Godivier and F.Chapeau-Blondeau,”Stochastic resonance in the information capacity of a nonlinear dynamic system”, Int.J.Bifure Chaos,Vol.8, No.3, pp.581-589, 1998 P.Jung,”Stochastic resonance and optimal design of threshold detectors”, Phys.Rev.Lett.A,Vol.207, pp 93-104, Oct.1995 J.I Nagumo, A Noda, “A learning method for system identification”, IEEE Trans Automat Control AC-12,pp 282-287 Nguyễn Hữu Phương, Xử lý tín hiệu số, NXB THống Kê, 2003 Thomas Meures – Sandor M Veres and Stephen J Elliitt, Frequency selective feedback of active noise control, IEEE control systems magazine Victor DeBrunner, Linda S DeBrunner, and Longji Wang,”Sub-Band Adaptive Filtering With Delay Compensation for Active Control”, IEEE Trans on Signal Processing, Vol.52, No.10, October 2004, P 2932-2937 Tetsuya Hoya, Jonathon A Chambers and Patrick A Naylor, A study of the ε -NLMS algorithm with application to stereo acoustic echo cancellation, International journal of adaptive control and signal processing 2000, Vol 14, pp 587-608 Tài liệu tham khảo CÁC CHƯƠNG TRÌNH Chương trình khởi tạo clear all Tsamp = 1/8000; % Chu ky lay mau (8KHz) Tsim = 1; % Thoi gian mo phong Mu = 0.2; % Do loi thich nghi cua giai thuat LMS % %Cac thong so cua ham truyen N11 = [0.1 0.152]; D11 = [1.0 -0.9 0.18 0 0 0 0]; N12 = [0.1 0.026]; D12 = [1.0 -1.0 0.21 0 0 0]; N21 = [-0.2 0.368]; D21 = [1.0 -1.0 0.24 0 0 0]; N22 = [-0.2 0.44]; D22 = [1.0 -0.9 0.2 0 0 0 0]; % %Cac thong so cua bien doi FFT L = 16; N = 32; % %Cac he so cua mo hinh Laguerre a11 = 0.6; a12 = 0.7; a21 = 0.6008; a22 = 0.5065; % Chương trình huấn luyện mạng neuron load fir121.mat , XF121; Time = XF121(1,:); X10 = XF121(2,:); X11 = XF121(3,:); X12 = X13 = XF121(5,:); X14 = XF121(6,:); X15 = X16 = XF121(8,:); X17 = XF121(9,:); X18 = XF121(10,:); X19 = XF121(11,:); X110 = XF121(12,:); X111 XF121(13,:); X112=XF121(14,:); X20 = XF121(15,:); X21 = XF121(16,:); X22 = XF121(17,:); X23 = XF121(18,:); X24 = XF121(19,:); X25 = XF121(20,:); X26 = XF121(21,:); X27 = XF121(22,:); X28 = XF121(23,:); X29 = XF121(24,:); X210 = XF121(25,:); X211 XF121(26,:); Phuï luïc XF121(4,:); XF121(7,:); = = X212 = XF121(27,:); XT = XF121(28,:); % X10Min = min(X10); X10Max = max(X10); X11Min = min(X11); X11Max = max(X11); X12Min = min(X12); X12Max = max(X12); X13Min = min(X13); X13Max = max(X13); X14Min = min(X14); X14Max = max(X14); X15Min = min(X15); X15Max = max(X15); X16Min = min(X16); X16Max = max(X16); X17Min = min(X17); X17Max = max(X17); X18Min = min(X18); X18Max = max(X18); X19Min = min(X19); X19Max = max(X19); X110Min = min(X110); X110Max = max(X110);X111Min = min(X111); X111Max = max(X111); X112Min = min(X112); X112Max = max(X112); X20Min = min(X20); X20Max = max(X20); X21Min = min(X21); X21Max = max(X21); X22Min = min(X22); X22Max = max(X22); X23Min = min(X23); X23Max = max(X23); X24Min = min(X24); X24Max = max(X24); X25Min = min(X25); X25Max = max(X25); X26Min = min(X26); X26Max = max(X26); X27Min = min(X27); X27Max = max(X27); X28Min = min(X28); X28Max = max(X28); X29Min = min(X29); X29Max = max(X29); X210Min = min(X210); X210Max = max(X210); X211Min = min(X211); X211Max = max(X211); X212Min = min(X212); X212Max = max(X212); % PR = [X10Min, X10Max; X11Min, X11Max; X12Min, X12Max; X13Min, X13Max; X14Min, X14Max; X15Min, X15Max; X16Min, X16Max; X17Min,X17Max ; X18Min, X18Max; X19Min, X19Max; X110Min, X110Max; X111Min, X111Max; X112Min, X112Max; X20Min, X20Max; X21Min, X21Max; X22Min, X22Max; X23Min, X23Max; X24Min, X24Max; X25Min, X25Max; X26Min, X26Max; X27Min, X27Max; X28Min, X28Max; X29Min, X29Max; X210Min, X210Max; X211Min, X211Max; X212Min, X212Max]; net = newff(PR,[10 1],{'tansig', 'purelin'}, 'trainlm', 'learngdm', 'mse'); P = [X10; X11; X12; X13; X14; X15; X16; X17; X18; X19; X110; X111; X112; X20; X21; X22; X23; X24; X25; Phuï luïc X26; X27; X28; X29; X210; X211; X212]; T = XT; % -figure(1), clf net.trainParam.epochs = 100; net.trainParam.goal = 0.0001; net = train(net,P,T); Y1 = sim(net,P); % -figure(2), clf plot(T(1,:),'r'), hold on, plot(Y1(1,:),'b') gensim(net,Tsamp); Phụ lục Kết huấn luyện mạng neuron 10 Training-B lue G oal-B lac k 10 10 10 10 10 P erform anc e is 0.000335199, G oal is 0.0001 -1 -2 -3 -4 10 20 30 40 50 60 70 80 90 100 100 E poc hs Hình 7: Kết huấn luyện mạng neuron Dựa vào đồ thị huấn luyện (training), ta xác định hiệu huấn luyện (performance) số epoch mà mạng hội tụ Phụ lục Chương trình xác định hệ số mô hình Laguerre load H11.mat, XH11; time = XH11(1,:); x = XH11(2,:); y = XH11(3,:); N = length(x); for k = 1:20, Rxy(k)=0; for n = k+1:N, Rxy(k) = Rxy(k) + y(n)*x(n-k); end Rxy(k)= Rxy(k)/(N-k); To(k) = time(k); end figure(1) subplot(211), plot(time,x, 'r'),hold on, plot(time,y, 'b') subplot(212), plot(To,Rxy) NN = [1 20 1]; TH = arx([y' x'],NN) [Num, Den] = th2tf(TH) % Kết xác định hệ số mô hình Laguerre Hình 8: Mô hình xác định cực trội hàm truyền Muốn xác định hàm truyền ước lượng hàm truyền có đó, ta thu hai tín hiệu trước sau qua hàm truyền, dùng mô hình ARX để xác định hàm truyền ước lượng (chương trình 4) Ta chọn hệ số a cho mô hình Laguerre cực trội hàm truyền ước lượng: a11 = 0.6, a12 = 0.7, a21 = 0.6008 vaø a22 = 0.5065 Phụ lục PHỤ LỤC I THUẬT TOÁN FXLMS(Filtered-X LMS) Để cải tiến tốc độ hội tụ chậm thuật toán LMS, người ta dùng lọc thích nghi băng tần (Filtered-X LMS) hình vẽ: y(n) x(n) W(z) e(n) - S(z) )ˆ S (z) d(n) + Signal path x’(n) Error path LMS a) + y(n) x(n) W(z) S(z) )ˆ S (Zz - e(n) x0’(n) x’(n) d(n) h0 e0 (n) h0 SubBand LMS M hQ-1 M hQ-1 eQ-1 (n) b) Hình P1: a) Sơ đồ khối lọc LMS b)Sơ đồ khối lọc FXLMS Để cập nhật vector trọng số dựa tín hiệu sai số băng tần con, trước hết tìm hàm chi phí sau: Q −1 { } ξ sub (n) = ∑ E eq ( n ) q=0 Q số băng tần Sai số thặng dư băng tần eq (n) = hqT e(n) Phụ lục (1.1) , hq hệ số lọc có chiều dài L Phân tích lọc thỏa điều kiện ∑ q = H q (e jω ) = c Q −1 Cực tiểu hoá hàm chi phí tương ứng vơiù cưcï tiểu hoá trung bình bình phương { } sai số toàn băng tần e(n), E e(n) Tín hiệu sai số toàn băng tần J −1 K −1 e(n) = d (n) = ∑∑ x (n − j − k )wn − k ( j )s(k ) (1.2) j =0 k =0 J chiều dài lọc điều khiển W(z), K chiều dài hàm truyền MA S(z) Tín hiệu sai số băng tần eq (n) = hqT e(n) L −1 J −1 K −1 L −1 l =0 j =0 k =0 l =0 = ∑ d (n − l)hq (l) − ∑∑∑ x (n − j − k − l)wn − k − l ( j )s(k )hq (l), q = 0,1, , Q − (1.3) Hệ số lọc toàn băng tần cập nhật để cực tiểu hoá tổng bình phương sai số ∑q=0 eq2 (n) Thuật toán thích nghi gradient sau: Q −1 wn +1 (i) = wn (i) − µ Q −1 ∂ Q −1 ∑ eq (n) ∂wn (i) q = = wn (i) − µ ∑ eq (n) q =0 ∂eq (n) ∂wn (i) i = 0,1, , J − (1.4) với µ bước lặp xác định tốc độ thích nghi Thay (3) vào (4) Q −1 wn +1 (i) = wn (i) + 2µ ∑ eq (n) q=0 ∂ J −1 K −1 L −1 ∑∑∑ x(n − j − k − l)wn − k −l ( j)s(k )hq (l) (1.5) ∂wn (i) j = k = l = i = 0,1, , J − Giả sử wn − k − l (i) = wn (i) với k l, (5) đơn giản sau: Q −1 K −1 L −1 q =0 k =0 l =0 wn +1 (i) = wn (i) + 2µ ∑ eq (n)∑∑ x(n − i − k − l)s(k )hq (l), (1.6) i = 0,1, , J − ) Biểu diễn tín hiệu lọc tham khảo S (z) x’(n) K −1 )ˆ x ' ( n ) = ∑ x ( n − k )s ( k ) k =0 Phụ lục (1.7) K −1 L −1 )ˆ xq ' (n) = ∑∑ x (n − k − l)s (k )hq (l) (1.8) q = 0,1, , Q − k =0 l =0 ) Giả sử S(z) đánh giá xác S ( z) Phương trình cập nhật hồi qui đơn giản cách thay (8) vaøo (6) Q −1 wn +1 (i) = wn (i) + µ ∑ eq (n) x 'q (n − i) (1.9) i = 0,1, , J − q =0 < µ < (1/ λmax ) sin[π / 2(2m + 1)] λmax trị riêng cực đại ma trận tương quan tín hiệu vào LỌC THÍCH NGHI VOLTERRA BẬC [13] Lọc tuyến tính thích nghi đóng vai trò quan trọng xử lý tín hiệu, mặt lý thuyết kết qủa thực hành tương đối tốt Tuy nhiên thực tế, nhiều hệ thống mang tính phi tuyến, cần phải có lọc phi tuyến Một phương pháp phổ cập cho mô hình phi tuyến lọc Volterra, dựa chuỗi Volterra cắt cụt Bên cạnh tính đơn giản cấu trúc, lọc Volterra có ưu điểm có khả mô hình hóa số lớn hệ thống thời gian thực Một ứng dụng lọc Volterra khử tiếng vọng phi tuyến, điều khiển tích cực trình xử lý nhiễu phi tuyến, tuyến tính loa, nhiều ứng dụng khác… Kỹ thuật tách khối nhân miền tần số lọc Volterra thích nghi(Partitioned block frequency-domain adaptive Volterra filter(PBFDAVF)) làm giảm đáng kể phép toán Ngõ lọc Volterra bậc hai chiều dài xác định biểu diễn : y (k ) = N1 −1 N −1 N −1 n1 = n21 = 0n22 = ∑ h (1) (n1 ) x (k − n1 ) + ∑ ∑h ( 2) ( n 21 , n 22 ) × x ( k − n 21 ) x ( k − n 22 ) (2.1) thaønh phần Volterra bậc hai biểu diễn dạng đối xứng (2.2) h ( ) (n 21 , n 22 ) = h ( ) (n 22 , n 21 ) Đặt N1=B1N, N2=B2N, với N,B1,B2 ∈ N (2.3) hb(11) ( n1 ) = h (1) ( n1 + b1 N ) thành phần Volterra bình phương chia thành (B2) phần chiều dài nhớ N (2.4) hb( ),b (n 21 , n 22 ) = h ( ) ( n 21 + b21 N , n 22 + b22 N ) 21 22 n21 , n22 ∈ {0, , N − 1}, b21 , b22 ∈ {0, , B2 − 1} Cho B2=2 b21=b22=1 Phụ lục xi(k)=x(k-iN) với i ∈ {0, , max(b1 , b21 , b22 )} viết lại (1) sau : y (k ) = B1 −1 N −1 ∑ ∑h b1 = n1 = (1) b1 ( n1 ) x b1 (k − n1 ) + B2 −1 B2 −1 N −1 N −1 ∑ ∑ ∑ ∑h b21 = 0b22 = n21 = 0n22 = ( 2) b 21, b 22 (2.5) (n 21 , n 22 ) × x b21 ( k − n 21 ) x b22 ( k − n 22 ) Thành phần tuyến tính y(k) có từ tổng ngõ thành phần thành phần tuyến tính hb(1) (n1 ) Tương tự, thành phần bình phương y(k) tổ hợp ngõ tất thành phần bình phương hb( 221) ,b 22 (n21 , n22 ) Phụ lục TÓM TẮT LÝ LỊCH TRÍCH NGANG Họ tên: TRẦN THỊ HOÀNG OANH Ngày, tháng, năm sinh: 31 / 03 / 1959 Nơi sinh: Bình Định Địa liên lạc: Trường Đại học Công nghiệp Tp.HCM QUÁ TRÌNH ĐÀO TẠO Học Đại học : 1978– 1982, Chuyên ngành Điện Kỹ thuật , Trường Đại học Sư phạm Kỹ thuật Thành phố Hồ Chí Minh Học Cao học : 2003 – 2005, Chuyên ngành Điều Khiển Học Kỹ thuật, Trường Đại học Bách khoa – Đại học Quốc gia Thành phố Hồ Chí Minh QUÁ TRÌNH CÔNG TÁC 1982 – 1998 : Cán nghiên cứu Phân Viện Khoa học Việt Nam Thành phố Hồ Chí Minh 1998 – : Cán giảng dạy Trường Đại học Công nghiệp Thành phố Hồ Chí Minh Phụ lục ... Điều Khiển Học Kỹ Thuật MSHV: 01503359 I - TÊN ĐỀ TÀI: NHẬN DẠNG BỀN VỮNG VÀ ĐIỀU KHIỂN HỆ THỐNG ĐỘNG ỨNG DỤNG MẠNG NEURON VÀ LOGIC MỜ II - NHIỆM VỤ VÀ NỘI DUNG: • Tìm hiểu vấn đề nhận dạng điều. .. lượng phù hợp với toán điều khiển đặt lớp mô hình thích hợp phải sử dụng phương pháp nhận dạng Ứng dụng nhận dạng để điều khiển; muốn điều khiển thiếu nhận dạng Nhận dạng điều khiển thích nghi hai... thiệu nhận dạng điều khiển 37 PHẦN II GIỚI THIỆU VỀ MẠNG NEURON VÀ LOGIC MỜ Phần II: Giới thiệu mạng neuron logic mờ 38 Chương GIỚI THIỆU MẠNG NEURON 2.1 TỔNG QUAN VỀ MẠNG NEURON 2.1.1 Mạng neuron

Ngày đăng: 29/08/2021, 17:56

Từ khóa liên quan

Tài liệu cùng người dùng

  • Đang cập nhật ...

Tài liệu liên quan