1. Trang chủ
  2. » Công Nghệ Thông Tin

Một thuật toán học của mạng nơron mờ với trọng số mờ tam giác

12 234 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Nội dung

Trong bài báo này, đầu tiên chúng tôi sẽ đưa ra một kiến trúc của mạng nơron mờ với những trọng số mờ tam giác. Mạng nơron được đưa ra có thể sử dụng các vectơ vào mờ cũng như là các vectơ vào thực. Trong cả hai trường hợp, dữ liệu ra của mạng nơron mờ đều là các vectơ mờ. Mối quan hệ giữa input và output của mỗi chức năng của mạng nơron mờ được xác định bởi nguyên tắc mở rộng của Zadeh. Tiếp theo đó, chúng ta sẽ định nghĩa một hàm chi phí cho các tập hợp không đổi của dữ liệu ra mờ và đích mờ. Sau đó, ta xây dựng được một thuật toán học từ hàm chi phí cho việc điều chỉnh ba tham số của mỗi trọng số mờ tam giác. Cuối cùng, minh hoạ phương pháp này bằng sự mô phỏng máy tính trên những ví dụ bằng số.

Mạng nơron nhân tạo MỘT THUẬT TOÁN HỌC CỦA MẠNG NƠRON MỜ VỚI CÁC TRỌNG SỐ MỜ TAM GIÁC Trong bài báo này, đầu tiên chúng tôi sẽ đưa ra một kiến trúc của mạng nơron mờ với những trọng số mờ tam giác. Mạng nơron được đưa ra có thể sử dụng các vectơ vào mờ cũng như là các vectơ vào thực. Trong cả hai trường hợp, dữ liệu ra của mạng nơron mờ đều là các vectơ mờ. Mối quan hệ giữa input và output của mỗi chức năng của mạng nơron mờ được xác định bởi nguyên tắc mở rộng của Zadeh. Tiếp theo đó, chúng ta sẽ định nghĩa một hàm chi phí cho các tập hợp không đổi của dữ liệu ra mờ và đích mờ. Sau đó, ta xây dựng được một thuật toán học từ hàm chi phí cho việc điều chỉnh ba tham số của mỗi trọng số mờ tam giác. Cuối cùng, minh hoạ phương pháp này bằng sự mô phỏng máy tính trên những ví dụ bằng số. 1. Giới thiệu Gần đây, có nhiều phương pháp nghiên cứu về sự mờ của các mạng nơron. Một phương pháp làm mờ trực tiếp là mở rộng các dữ liệu vào thực và đích thực trong các kiến trúc mạng nơron thông thường thành các số mờ. Ishibuchi [4] đã đưa ra một kiến trúc của mạng nơron truyền thẳng nhiều lớp cho các vectơ vào mờ, và kiến trúc đó được áp dụng để cài đặt các quy tắc if – then mờ trong tài liệu [5, 7]. Các trọng số liên kết của mạng nơron truyền thẳng nhiều lớp được làm mờ trong tài liệu của Hayashi [3] và Ishibuchi [6]. Trong tài liệu [3], Hayashi cũng đã mờ hoá quy tắc Delta trong khi Ishibuchi xây dựng được một thuật toán học rõ cho các trọng số mờ tam giác. Trong bài báo này, ta mở rộng công việc đầu tiên, đó là thảo luận về một mạng nơron mờ một đầu vào và một đầu ra cho các vectơ vào thực tới trường hợp mạng nơron mờ đa đầu vào và đầu ra cho các vectơ vào mờ. Trước hết, chúng ta đưa ra một kiến trúc của mạng nơron mờ với các trọng số mờ tam giác cho các vectơ vào mờ. Mối quan hệ giữa input và output của mỗi chức năng được xác định bởi nguyên tắc mở rộng của Zadeh [9]. Dữ liệu ra từ mạng nơron mờ (cũng là những số mờ) được tính toán bởi số học khoảng cách [1] cho các tập hợp không đổi của các trọng số mờ và dữ liệu vào mờ. Tiếp đó chúng ta sẽ định nghĩa một hàm chi phí cho các tập không đổi của đầu ra mờ và các 1 Mạng nơron nhân tạo đích mờ. Sau đó một thuật toán học rõ được xây dựng từ hàm chi phí cho việc điều chỉnh ba tham số của mỗi trọng số mờ. Cuối cùng, minh hoạ minh hoạ phương pháp này bằng sự mô phỏng máy tính trên những ví dụ bằng số. Trong các mô phỏng máy tính, ta sẽ thảo luận cách thực thi quy tắc if – then và sự xấp xỉ của các hàm mờ bằng mạng nơron mờ này. Sự mờ hoá trực tiếp của các mạng nơron thông thường là mở rộng các trọng số liên kết, đầu vào và đích thành các số mờ. Sự mở rộng này được tổng kết trong bảng 1. Mạng nơron mờ trong trường hợp 1 đã được sử dụng trong bài toán phân loại của một vectơ vào mờ hoặc lớp crisp [5]. Để thực thi quy tắc if – then mờ bằng mạng nơron, chúng ta sử dụng mạng nơron mờ với các dữ liệu vào mờ và đích mờ. Trong hai trường hợp này, mạng nơron mờ có các trọng số rõ. Trường hợp 3 và 4, các trọng số liên kết được mờ hoá. Bài báo này đặt tâm điểm vào hai trường hợp này. Ba trường hợp cuối trong bảng 1 là không hiện thực. Trọng số Đầu vào Đích Mạng nơron thường số thực số thực số thực Mạng nơron mờ: TH1 số thực số mờ số thực Mạng nơron mờ: TH2 số thực số mờ số mờ Mạng nơron mờ: TH3 số mờ số thực số mờ Mạng nơron mờ: TH4 số mờ số mờ số mờ Mạng nơron mờ: TH5 số thực số thực số mờ Mạng nơron mờ: TH6 số mờ số thực số thực Mạng nơron mờ: TH7 số mờ số mờ số thực Bảng 1. Mờ hoá trực tiếp mạng nơron 2. Kiến trúc mạng nơron mờ 2.1. Các phép toán trên các số mờ Trước khi mô tả một kiến trúc của mạng nơron mờ, chúng ta đề cập một cách vắn tắt về các phép toán trên các số mờ được định nghĩa bằng việc mở rộng nguyên lý [9]. Trong bài báo này, chúng ta biểu diễn các số thực bằng các chữ cái thường, và số mờ 2 Mạng nơron nhân tạo bằng chữ hoa. Vì các vectơ đầu vào và các trọng số kết nối của các mạng nơron truyền thẳng nhiều lớp được làm mờ trong bài báo này nên việc định nghĩa phép nhân và phép ánh xạ phi tuyến của các số mờ là cần thiết. }|)()(max{)( yxzyxz BABA +=∧= + µµµ (2.1) }|)()(max{)( xyzyxz BAAB =∧= µµµ (2.2) )}(|)(max{)( )( xfzxz NetNetf == µµ (2.3) Ở đó : A, B, Net là các số mờ ; µ * (@) biểu diễn hàm thành viên của mỗi số mờ ; ∧ là phép giao ; f(x) = 1/{1 + exp(- x )} là hàm kích hoạt của các chức năng được ẩn và các chức năng đầu ra của mạng nơron mờ. Các phép toán trên của các số mờ được thực hiện bằng số trên các tập mức. Tập h một số mờ X được định nghĩa như sau : [X] h = {x | µ X (x) ≥ h, x ∈ R} với 0 < h ≤ 1 (2.4) Trong đó µ X (x) là hàm thành viên của X và R là tập số thực. Bởi vì các tập hợp level của các số mờ là khoảng cách khép kín nên ta định nghĩa [X] h như sau : ]][,][[][ U h L hh XXX = (2.5) ở đó L h X ][ , U h X ][ là giới hạn cận dưới và giới hạn cận trên của [X] h . Ta có : ]][],][][[]][,][[]][,][[][][ U h U h L h L h U h L h U h L hhh BABABBAABA ++=+=+ (2.6) ]][,]].[[][,][[].[][ U h L h U h L hhh BBAABA = ]},].[],].[],].[],].[][min{[ U h U h U h L h L h U h L h L h BABABABA= ]}].[],].[],].[],].[]max{[ U h U h U h L h L h U h L h L h BABABABA ] (2.7) )]][,]([[])][,]([[)]([ U h L h U h L hh NetNetfNetNetfNetf == (2.8) Trong trường hợp U h L h BB ][][0 ≤≤ (2.7) có thể được rút gọn như sau : }]].[][],].[]max{[},].[][],].[][{[min].[][ U h U h L h U h U h L h L h L hhh BABABABABA = (2.9) 3 Mạng nơron nhân tạo 2.2. Mối quan hệ input – output của mỗi chức năng Mờ hoá một mạng nơron truyền thẳng 3 lớp với các chức năng input n 1 , chức năng ẩn n H và các chức năng output n 0 . Các vectơ vào, vectơ đích, trọng số kết nối và các ngưỡng được làm mờ. Để xây dựng được một thuật toán học chính xác, ta giới hạn các trọng số mờ và ngưỡng mờ bên trong các số mờ tam giác trong khi ta có thể sử dụng kiểu bất kỳ của các số mờ cho các đầu vào mờ và đích mờ. Mối quan hệ giữa input và output được mô tả như sau : Chức năng input : O pi = X pi , i = 1, 2, … n 1 (2.10) Các chức năng ẩn : O pj = f(Net pj ), j = 1, 2, …, n H (2.11) ∑ = Θ+= 1 n 1 ji W i ipipj ONet (2.12) Chức năng output : ∑ = Θ+= == H n j ipjkjpk pkpk OwNet nkNetfO 1 0 , ,2,1),( (2.13)&(2.14) Trong đó : X pi là dữ liệu vào mờ, W ji và W kj là trọng số mờ, j Θ , k Θ là ngưỡng mờ 2.3. Sự tính toán dữ liệu ra mờ Dữ liệu ra mờ theo (2.10) – (2.14) được tính toán về số lượng cho các tập mức của dữ liệu vào mờ, các trọng số mờ và ngưỡng mờ. Mối quan hệ này được mô tả cho các tập mức h như sau : Chức năng vào : hpihpi XO ][][ = (2.15) Chức năng ẩn : )]([][ hpjhpj NetfO = (2.16) ∑ = Θ+= 1 1 ][][][][ n i hjhpihjihpj OwNet (2.17) Chức năng ra : 4 Mạng nơron nhân tạo )]([][ hpkhpk NetfO = (2.18) ∑ = Θ+= H n j hkhpjhjkhpk OwNet 1 ][][][][ (2.19) Từ (2.15) – (2.19) chúng ta có thể thấy tập mức h của dữ liệu ra mờ O pk được tính toán từ mức này của dữ liệu vào mờ, trọng số mờ và các ngưỡng mờ. Khi các tập mức h X pi là không âm và 0 U hpi L hpi XX ][][ ≤≤ thì (2.6) – (2.9) được viết lại như sau : Chức năng vào : ]][,][[]][,][[][ U hpi L hpi U hpi L hpihpi XXOOO == (2.20) Chức năng ẩn : )]]([),]([[]][,][[][O hpj U hpj L hpj U hpj L hpj NetfNetfOO == (2.21) ∑ = ∑ = = Θ++ <≥ 1 1 1 1 ][ ][][][][][ 0][0][ n i L hj U hpi L hij n i L hpi L hij Net OwOw L hij L hij ww L hpj (2.22) ∑ = ∑ = = Θ++ <≥ 1 1 1 1 ][ ][][][][][ 0][0][ n i U hj L hpi U hij n i U hpi U hij Net OwOw U hij U hij ww U hpj (2.23) Chức năng ra : )]]([),]([[]][,][[][ U hpk L hpk U hpk L hpkhpk NetfNetfOOO == (2.24) ∑ = ∑ = = Θ++ <≥ H n j L hk U hpj L hkj H n j L hpj L hkj Net OwOw L hkj L hkj ww L hpk 11 ][ ][][][][][ 0][0][ (2.25) ∑ = ∑ = = Θ++ <≥ H n j U hk L hpj U hkj H n j U hpj U hkj Net OwOw U hkj U hkj ww L hpk 11 ][ ][][][][][ 0][0][ (2.26) 3. Sự học của mạng nơron mờ 3.1. Hàm chi phí 5 Mạng nơron nhân tạo Đặt T p = (T p1 , T p2 , …, T pno ) là vectơ đích mờ thứ nguyên n o tương ứng với vectơ vào mờ X p . Chúng ta định nghĩa hàm chi phí cho các tập mức h của dữ liệu ra mờ O pk từ chức năng ra k và tương ứng với đích mờ T pk như sau : U pkh L pkhpkh eee += (3.1) Trong đó : 2 )][]([ 2L hpk L hpk L pkh OT he − = (3.2) 2 )][]([ 2U hpk U hpk U pkh OT he − = (3.3) Trong hàm chi phí (3.1), L pkh e và U pkh e , theo thứ tự, có thể được coi như là các lỗi bình phương của giới hạn dưới và giơí hạn trên của các tập mức h. Trong công thức này, các lỗi bình phương này được đánh trọng số bởi các giá trị của h trong (3.2) và (3.3). Hàm chi phí cho các tập mức h là của vectơ ra mờ O, và vectơ đích mờ T p được định nghĩa như sau : ∑ = = no k pkhph ee 1 (3.4) Hàm chi phí cho bộ (X p , T p ) thu được là : ∑ = h php ee (3.5) 3.2. Thuật toán học Ta xây dựng một thuật toán học cho mạng nơron mờ từ hàm chi phí e ph được định nghĩa ở trên.Vì các trọng số mờ tam giác định xác định bởi ba tham số của nó nên chúng ta xây dựng một quy tắc cập nhật cho mỗi tham số. Ký hiệu các trọng số mờ tam giác là W kj , W ji và các ngưỡng mờ tam giác là Θ k , Θ j như sau : ),,( U kj C kj L kjkj wwwW = ),,( U ji C ji L jiji wwwW = (3.6) ),,( U k C k L kk θθθ =Θ ),,( U j C j L jj θθθ =Θ (3.7) Trong đó các chỉ số L, C, U lần lượt là giới hạn dưới, giới hạn trung bình và giới hạn trên của các số mờ tam giác. Hơn nữa, giả sử rằng W kj , W ji , Θ k , Θ j là đối xứng: 6 Mạng nơron nhân tạo 2 U kj L kj C kj ww w + = 2 U ji L ji C ji ww w + = (3.8) 2 U k L k C k θθ θ + = 2 U j L j C j θθ θ + = (3.9) Trước hết, ta thảo luận về sự học của trọng số mờ tam giác W kj giữa chức năng ẩn thứ j và chức năng ra thứ k. Theo cách của Rumelhart [8], ta có thể viết số lượng điều chỉnh của mỗi tham số sử dụng hàm chi phí e ph như sau: )1(.)( −∆+ ∂ ∂ −=∆ tw w e tw L kj L kj ph L kj αη (3.10) )1(.)( −∆+ ∂ ∂ −=∆ tw w e tw U kj U kj ph U kj αη (3.11) ở đó η là hằng số học, α là hằng số động lượng và t chỉ số lượng các điều chỉnh. Vì chúng ta đã giả sử rằng W kj là đối xứng nên C kj w được xác định bởi công thức (3.8). Đạo hàm trong (3.10) và (3.11) có thể được viết như sau: L kj U hkj U hkj ph L kj L hkj L hkj ph L kj ph w W W e w W W e w e ∂ ∂ ∂ ∂ + ∂ ∂ ∂ ∂ = ∂ ∂ ][ . ][ ][ . ][ (3.12) U kj U hkj U hkj ph U kj L hkj L hkj ph U kj ph w W W e w W W e w e ∂ ∂ ∂ ∂ + ∂ ∂ ∂ ∂ = ∂ ∂ ][ . ][ ][ . ][ (3.13) Vì W kj là số mờ tam giác đối xứng nên các quan hệ sau đây được giữ cho tập mức h của nó ]][,][[][ U hkj L hkjhkj WWW = : 2 .) 2 1(][ h w h wW U kj L kj L hkj +−= (3.14) ) 2 1.( 2 ][ h w h wW U kj L kj U hkj −+= (3.15) Vì thế, (3.12) và (3.13) có thể được viết lại như sau: 2 . ][ ) 2 1.( ][ h W e h W e w e U hkj ph L hkj ph L kj ph ∂ ∂ +− ∂ ∂ = ∂ ∂ (3.16) ) 2 1.( ][ 2 . ][ h W e h W e w e U hkj ph L hkj ph U kj ph − ∂ ∂ + ∂ ∂ = ∂ ∂ (3.17) 7 Mạng nơron nhân tạo Các quan hệ này minh hoạ cho việc các tín hiệu lỗi L hkj ph W e ][∂ ∂ , U hkj ph W e ][∂ ∂ của tập mức h truyền tới mức 0 của trọng số mờ W kj để thay đổi U kj L kj ww , như thế nào? Trọng số mờ W kj được cập nhật bởi quy tắc sau đây: )()()1( twtwtw L kj L kj L kj ∆+=+ (3.18) )()()1( twtwtw U kj U kj U kj ∆+=+ (3.19) 2 )1()1( )1( +++ =+ twtw tw U kj L kj C kj (3.20) Sau khi điều chỉnh W kj theo (3.19) – (3.20), giới hạn cận dưới của nó có thể lớn hơn giới hạn cận trên. Trong trường hợp này, chúng ta sử dụng phương pháp tìm kiếm kinh nghiệm đơn giản sau đây: )}1(),1(min{:)1( ++=+ twtwtw U kj L kj L kj (3.21) )}1(),1(max{:)1( ++=+ twtwtw U kj L kj U kj (3.22) Trọng số mờ W ji và Θ k , Θ j được thay đổi tương tự như W kj . Giả sử có m cặp dữ liệu vào – ra (X p , T p ), p = 1, 2, …, m của các vectơ được đưa ra làm dữ liệu huấn luyện. Và có n giá trị của h (h 1 , h 2 , …, h n ) được sử dụng cho việc học của mạng nơron mờ. Trong trường hợp này, giải thuật học của mạng nơron mờ được viết như sau: Thuật toán học: Bước 0. Khởi tạo các trọng số mờ và các ngưỡng mờ Bước 1. Lặp bước 2 với h = h 1 , h 2 , …, h n Bước 2. Lặp lại các thủ tục sau đây với p = 1, 2, …, m (1) Tình truyền thẳng: Tính tập mức h của vectơ ra mờ O p tương ứng với vectơ vào mờ X p . (2) Qui hồi: Điều chỉnh các trọng số mờ và ngưỡng mờ sử dụng hàm chi phí e ph . Bước 3. Nếu điều kiện dừng không thoả mãn, quay lại bước 1. 8 Mạng nơron nhân tạo 4. Mô phỏng việc tính toán: Trong phần này chúng tôi minh họa giải thuật học bằng một số ví dụ. Trong tất cả các ví dụ chúng tôi sử dụng một số giá trị mặc định như sau: (1) số đơn vị ẩn là 6 (2) Giá trị của h = 0.2, 0.4, 0.6, 0.8, 1.0 (3) Điều kiện dừng là 10.000 lần lặp (4) Hằng số của việc học η = 0.5 (5) Vận tốc huấn luyện: α = 0.9 (6) Khởi tạo giá trị của trọng số mờ và ngưỡng mờ: Là một số thực ngẫu nhiên trong khoảng [-1,1] 4.1. Ví dụ 1 Trong ví dụ này, ta áp dụng một phương pháp được đề xuất để thực hiện xấp xỉ hoá ánh xạ phi tuyến tính của các số mờ. Ta sẽ giả định rằng không gian input và output của ánh xạ này là các lớp nằm trong đoạn [0, 1]. Do đó ta có thể miêu tả mỗi cặp input- output (X p , T p ) mờ trong không gian như hình 8. Bốn hình chữ nhật trong hình 8 thể hiện những tập hợp mức- h với h=0.2, 0.4, 0.6, 0.8 của X p x T p , với X p x T p là sản xuất Cartesian của input mờ X p và chuẩn mờ T p . Ta giả sử rằng có ba cặp input-output mờ trong hình 9 là những dữ liệu huấn luyện. Một mạng nơron mờ với một lớp tín hiệu vào đơn, sáu lớp giữa và một lớp tín hiệu ra đơn được huấn luyện bởi giải thuật học đã được đề xuất. Năm tập hợp mức-h của mỗi cặp input-output trong hình 9 được sử dụng cho việc học của mạng nơron mờ. Các tín hiệu ra mờ từ huấn luyện mạng nơron mờ được biểu diễn trong hình 10 với ba tín hiệu vào mờ được sử dụng trong việc học và hai tín hiệu vào mờ mới. Từ so sánh giữa hình 9 và 10, ta có thể đưa ra các dữ liệu huấn luyện mờ phù hợp cũng như những quan sát tổng quát tốt nhất cho tín hiệu vào mờ mới. 4.1. Ví dụ 2 Vì các số thực có thể được xem như trường hợp đặc biệt của số mờ, nên mạng nơron mờ đã đề xuất có thể thực hiện các tín hiệu vào thực cũng như các tín hiệu vào mờ (input fuzzy). Trong ví dụ này, ta áp dụng phương pháp đã nêu để xấp xỉ hàm mờ không 9 Mạng nơron nhân tạo tuyến tính (ánh xạ một số thực tới một số mờ). Dữ liệu huấn luyện trong ví dụ này bao gồm các cặp tín hiệu vào thực x p và các chuẩn mờ T p. Mỗi cặp này được miêu tả trong không gian input-output như trong hình 11. Tam giác trong hình 11 là hàm thuộc của chuẩn mờ tam giác T p . Ta giả sử rằng có 6 cặp tín hiệu vào và ra thực như trong hình 12 là các dữ liệu huấn luyện. Sử dụng những dữ liệu huấn luyện đó, ta đã huấn luyện một mạng nơron mờ với một lớp tín hiệu vào đơn, sáu lớp bên trong và một lớp tín hiệu ra đơn bằng cách sử dụng giải thuật học đã đề xuất. Tín hiệu vào thực x p được coi là một số mờ với hàm thuộc như sau: Tín hiệu ra mờ từ huấn luyện mạng nơron mờ trong hình 13 cho ta 11 tín hiệu vào thực: x=0.0, 0.1, 0.2,…,1.0. So sánh hình 12 và 13 ta có thể đưa ra các dữ liệu huấn luyện phù hợp và xem xét một cách tổng quát các tín hiệu vào thực mới. 4.3. Ví dụ 3 Trong ví dụ này, ta áp dụng phương pháp đã nêu để xấp xỉ các luật if-then mờ nhờ sử dụng một mạng nơron mờ. Cho trước 3 luật if-then mờ như sau: If x small then y is small If x medium then y is medium If x large then y is large Hàm thuộc của các giá trị ngôn ngữ: "small", "medium" và "large" được cho trong Hình 14. Từ những lụât mờ ở trên ta có thể đưa ra dữ liệu huấn luyện như sau: {(X p ,T p )} = {(small, small), (medium, medium), large, large}. Sử dụng dữ liệu huấn luyện trong hình 15, ta huấn luyện mạng nơron mờ có 1 lớp tín hiệu vào, 6 lớp ẩn và 1 lớp tín hiệu ra. Tín hiệu ra mờ từ mạng nơ ron đã được huấn luyện biểu diễn trong hình 16 đối với dữ liệu huấn luyện. Việc so sánh hai hình 15 và 16 ta có thể đưa ra các dữ liệu huấn luyện phù hợp. Tín hiệu ra mờ cho những tín hiệu vào mới “medium small” và “medium large” được biểu diễn trong hình 17. So sánh hình 15 và 17 ta có thể đưa ra những nhận xét tổng quát nhất cho tín hiệu vào mới. Hàm thuộc của tín hiệu ra tương ứng với tín hiệu vào mới được biểu diễn trong hình 18. Hai tín hiệu ra mờ trong Hình 18 có thể được thông dịch là "medium small" và "medium large", do đó ta thu được hai luật if-then mờ như sau: If x medium small then y is medium small If x medium large then y is medium large 10 [...]... một chuẩn mờ Sau đó, giá trị “small” được chọn là một kết quả cho luật if-then mờ khuyết vì ta sẽ lấy giá trị nhỏ nhất cho chuẩn mờ “small” 5 Kết luận Trong bài báo này, chúng ta đã đưa ra một thuật toán học với các trọng số mờ tam giác đối xứng thực hiện trên mạng nơron mờ truyền thẳng ba lớp mà các quan hệ vào-ra của nó được xác định theo nguyên lý mở rộng của Zadeh Tính hiệu quả của thuật toán học. .. quả của thuật toán học được minh họa thông qua các ví dụ mô phỏng trên các số liệu khác nhau Bài báo này là một trong những cố gắng ban đầu nhằm đưa ra thuật toán học trên các mạng nơron mờ với tín hiệu vào mờ, các mục tiêu mờ và các trọng số mờ Đây cũng là điểm khởi đầu có hiệu quả khi xem xét việc mở rộng sang các trọng số mờ tổng quát hơn 12 ... mờ ngoài 25 luật đã cho, 16 luật if-then mờ còn lại để khuyết trong bảng Ta sẽ tìm cách hoàn thành bảng các luật mờ bằng cách chia một trong năm giá trị ngôn ngữ thành chuỗi của mỗi luật if-then mờ khuyết Sử dụng 9 cặp tín hiệu vào-ra được chứa trong các luật if-then mờ đã cho, ta có thể huấn luyện một mạng nơ ron mờ với 2 lớp tín hiệu vào, 6 lớp trong và một lớp tín hiệu ra đơn bằng cách sử dụng thuật. .. trong và một lớp tín hiệu ra đơn bằng cách sử dụng thuật toán đã đề xuất Sau đó, ta tính toán được tín hiệu ra mờ từ mạng nơ ron mờ đã được huấn luyện dựa vào việc kết hợp các ngôn ngữ tín hiệu vào tương ứng để tìm ra các luật if-then khuyết cho trước Các tín hiệu ra mờ tương ứng với một chuỗi luật if-then mờ khuyết Mỗi tín hiệu ra mờ được so sánh với một trong năm giá trị ngôn ngữ và lựa chọn chuỗi luật... If x1 is medium large and x2 is medium large then y is? 11 Mạng nơron nhân tạo “?” là một trong 5 giá trị ngôn ngữ Để quyết định tiếp luật if-then mờ, ta đưa ra vector tín hiệu vào mờ (medium large, medium large) để huấn luyện mạng nơ ron mờ Tín hiệu ra mờ từ mạng đã được huấn luyện được thể hiện trong hình 20 Tín hiệu ra mờ này được so sánh với mỗi giá trị ngôn ngữ sử dụng hàm định giá e p Ta có thể.. .Mạng nơron nhân tạo Cần chú ý rằng 2 luật if-then mờ trùng với dự đoán của ba luật mờ đã cho Do đó, ta có thể kết luận rằng để huấn luyện mạng nơ ron mờ cần tìm kiếm sự tồn tại các luật if-then mờ như trong ví dụ này 4.4 Ví dụ 4 Cũng như trong ví dụ 3, trong ví dụ này ta áp dụng phương pháp đã nêu để xấp xỉ các luật if-then mờ Giả sử có 9 luật như dưới đây: If x1 . TH1 số thực số mờ số thực Mạng nơron mờ: TH2 số thực số mờ số mờ Mạng nơron mờ: TH3 số mờ số thực số mờ Mạng nơron mờ: TH4 số mờ số mờ số mờ Mạng nơron mờ: TH5 số thực số thực số mờ Mạng nơron mờ: . Mạng nơron nhân tạo MỘT THUẬT TOÁN HỌC CỦA MẠNG NƠRON MỜ VỚI CÁC TRỌNG SỐ MỜ TAM GIÁC Trong bài báo này, đầu tiên chúng tôi sẽ đưa ra một kiến trúc của mạng nơron mờ với những trọng số mờ tam. TH6 số mờ số thực số thực Mạng nơron mờ: TH7 số mờ số mờ số thực Bảng 1. Mờ hoá trực tiếp mạng nơron 2. Kiến trúc mạng nơron mờ 2 .1. Các phép toán trên các số mờ Trước khi mô tả một kiến trúc của

Ngày đăng: 27/05/2015, 15:14

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w