Hệ suy diễn mờ Takagi-Sugeno

Một phần của tài liệu Tìm hiểu lập trình c cho 8051 và ứng dụng thiết kế hệ thống đo nhiệt độ hiển thị trên LCD (Trang 39 - 49)

Hệ suy diễn mờ Takagi-Sugeno( hay cũn gọi là hệ suy diễn mờ TSK) được đề xuất bởi Takagi, Sugeno và Kang vào những năm 1985.

Hệ suy diễn mờ này ra đời với mục đớch sinh luật mờ từ những tập dữ liệu vào ra cho trước

Hỡnh 2.6 : Hệ suy diễn mờ Takagi-Sugeno

Hệ suy diễn mờ Takagi-Sugeno được cầu thành từ một tập cỏc luật mờ, trong đú phần kết luận của mỗi luật là một hàm( khụng mờ) ỏnh xạ cỏc tham số đầu vào của hệ suy diễn tới tham số đầu ra mụ hỡnh. Tham số của cỏc ỏnh xạ này cú thể được đỏnh giỏ thụng qua cỏc giải thuật nhận dạng như phương phỏp bỡnh phương tối thiểu hay bộ lọc Kalman. Một luật mờ điển hỡnh trong mụ hỡnh Takagi-Sugeno cú dạng sau:

Trong đú x,y là cỏc biến đầu vào,AiBi là cỏc tập mờ trong phần giả thiết của mỗi luật, trong khi z = f(x,y) là một hàm rừ trong phần kết luận. Thụng thường fi cú dạng đa thức của hai biến đầu vào x, y. Khi fi là một đa thức bậc nhất thỡ hệ suy diễn sẽ được gọi là mụ hỡnh Sugeno bậc nhất.

Trong hỡnh 2.5. mụ phỏng trường hợp hai luật đối với mụ hỡnh Sugeno bậc nhất thỡ mỗi luật sẽ cho ra một giỏ trị đầu ra rừ, đầu ra toàn cục thu được cú trọng số trung bỡnh của hai đầu ra của hai luật tương ứng, đồng thời khụng cần quỏ trỡnh giải mờ như trong cỏc hệ suy diễn khỏc. Điều này làm giảm thiểu được chi phớ trả cho quỏ trỡnh tớnh toỏn khử mờ.

Khi fi là một hằng số, thỡ nú là mụ hỡnh mờ Sugeno bậc khụng. Đõy được xem như là một trường hợp đặc biết của hệ suy diễn mờ Mamdani, trong phần kết luận của mỗi luật sẽ được xỏc định bằng một giỏ trị Singleton ( là một hàm thuộc cú dạng xung nhọn) hoặc một trường hợp riờng của hệ suy diễn mờ Tsukamoto, trong phần kết luận của mỗi luật sẽ được xỏc định bằng một hàm thuộc của một hàm nhảy bậc khi đi qua điểm hang số đú

Như vậy đối với cả 3 hệ suy diễn mờ đó trỡnh bày ở trờn thỡ cựng với 2 luật 2 đầu vào sẽ cú phần kết luận khỏc nhau ứng với mỗi hệ suy diễn khỏc nhau và như vậy việc giải mờ ( nếu cần sử dụng) cũng sẽ khỏc nhau. Chớnh vỡ vậy mà ta cần phải tỡm ra một phương phỏp giải mờ thớch hợp nhất nhằm đem một kết quả chớnh xỏc cho đầu ra.

Trong phần này chỳng ta đó được biết đến 3 hệ suy diễn mờ cơ bản. Mỗi một hệ cú những ưu điểm chung đó và đang được sử dụng và nghiờn cứu thành cụng rất nhiều cỏc lĩnh vực khỏc nhau như điều khiển tự động, phõn tớch quyết định, hệ chuyờn gia, phõn lớp dữ liệu,…Chớnh những ứng dụng đa dạng và phong phỳ đú hệ suy diễn mờ đó được biết tới dưới nhiều tờn gọi khỏc nhau như hệ thống dựa trờn luật mờ hệ chuyờn gia mờ, hệ suy diễn mờ,…Tuy nhiờn hệ suy diễn mờ cũng cú một số hạn chế, điển hỡnh là hệ suy diễn mờ khụng cú một phương phỏp chuẩn cho việc biến đổi cỏc tri thức con người hoặc cỏc kinh nghiệm, cỏc ý kiến chuyờn gia trong luật và dữ liệu của hệ suy diễn mờ. Khi cú những dữ liệu đầu vào mới nếu khụng nằm trong cơ sở luật thỡ hệ khụng điều chỉnh cỏc hàm thuộc để sử dụng cỏc cơ sở luật sẵn cú và tối thiểu húa lỗi đầu ra của hệ. Để khắc phục hạn chế này người ta sử dụng mạng nơ-ron với khả năng tớnh toỏn, khả năng thớch nghi và tự điều chỉnh bền vững dựa vào cỏc thuật toỏn thớch nghi và khả năng dung thứ lỗi. Đõy cũng chớnh là lý do chớnh để chỳng ta đi nghiờn cứu xõy dựng hệ suy diễn mờ trờn cơ sở mạng thớch nghi.

Trờn cơ sở cỏc hệ suy diễn mở Mamdani, hệ suy diễn mờ Tsukamoto, hệ suy diễn mờ Sugeno-Takagi. Chỳng ta cú thể chia cỏc mụ hỡnh noron mờ thành cỏc dạng khỏc nhau để thực hiện cỏc chức năng của hệ suy diễn mờ Mamdini và Sugeno-Takagi

Mụ hỡnh noron mờ lai được xõy dựng với mục đớch chớnh là dựng cỏc giải thuật học của mạng noron để xỏc định cỏc tham số cho hệ mờ.

Hệ noron – mờ trờn cơ sở hệ suy diễn mờ Mamdani

Hệ noron- mờ Mamdani dựng kỹ thuật học cú giỏm sỏt ( học lan truyền ngược) để học cỏc hàm thuộc

Hỡnh 2.7. Cấu trỳc hệ noron mờ Mamdani

Trờn đõy là hỡnh vẽ mụ tả cấu trỳc hệ noron- mờ Mamdani. Nhỡn vào hỡnh vẽ chỳng ta thấy hệ noron mờ Mamdani được chia làm 5 lớp, mỗi lớp thực hiện cỏc nhiệm vụ và chức năng riờng:

- Lớp 1 (lớp đầu vào – input layer) : khụng cú một tớnh toỏn nào được làm trong lớp này. Mỗi nỳt trong lớp này tương ứng với một biến đầu vào. Giỏ trị của cỏc biến đầu vào được truyền trực tiếp cho cỏc lớp sau. Cỏc trọng số liờn kết trong lớp này là đơn vị.

- Lớp 2( lớp mờ húa- fuzzification layer): mỗi lớp trong nỳt này tương ứng với một nhón ngụn ngữ ( vớ dụ như: “ tuyệt vời” , “tốt”,..) của một trong cỏc biến vào trong lớp 1. Núi một cỏch khỏc, đầu ra của cỏc nỳt liờn kết trong lớp 2 biểu diễn mức độ thuộc, xỏc định mức độ mà một biến đầu vào thuộc một tập mờ được tớnh toỏn trong lớp 2. Giải thuật tỏch cụm sẽ quyết định số lượng và kiểu của hàm thuộc cho mỗi biến đầu vào. Cỏc hàm thuộc sẽ được thay đổi trong quỏ trỡnh học.

- Lớp 3( lớp tiền kiện luật- rule antecedent layer) : một nỳt trong lớp này là phần tiền kiện luật. Một toỏn tử T-norm được sử dụng cho mỗi nỳt trong lớp này. Đầu ra của một nỳt trong 3 lớp biểu diễn mức độ ảnh hưởng của mỗi luật mờ tương ứng.

- Lớp 4 ( lớp kết luận luật – rule consequesnt layer): về cơ bản mỗi nỳt trong lớp này thực hiện 2 chức năng chớnh: kết hợp cỏc tiền kiện luật vào và xỏc định mức độ thuộc của chỳng vào nhón ngụn ngữ đầu ra ( như “cao”, “ trung bỡnh”, “thấp”,…) số lượng cỏc nỳt trong lớp này bằng với số lượng cỏc luật.

- Lớp 5 ( lớp kết hợp và giải mờ - combination and defuzzification layer): lớp này sẽ kết hợp tất cả cỏc kết luận luật của lớp học trước bằng cỏch dựng toỏn tử T- Conorm. Cuối cựng đi tớnh toỏn giỏ trị đầu ra ( là giỏ trị rừ) sau khi đó giải mờ.

Như vậy, khả năng diễn đạt luật bằng ngụn ngữ tự nhiờn đối với hệ noron – mờ Mamdani là dễ dàng và tường minh. Tuy nhiờn kết quả của hệ suy diễn mờ là khụng rừ ràng, độ chớnh xỏc của kết quả lại phụ thuộc vào cơ chế giải mờ tương ứng. Để khắc phục nhược điểm đú, người ta đó xõy dựng được một hệ noron mờ khỏc mà khụng cần đến cơ chế mờ đú là hệ noron mờ Takagi – Sugeno.

Hệ noron – mờ trờn cơ sở hệ suy diễn mờ Takagi- Sugeno

Đối với hệ noron mờ Takagi- Sugeno thỡ hệ này kết hợp cả lan truyền ngược để học cỏc hàm thuộc và ước lượng bỡnh phương cực tiểu trung bỡnh để

xỏc định cỏc tham số trong phần kết luận của mỗi luật. Mỗi bước trong thủ tục học gồm hai phần:

- Pần thứ nhất: Cỏc mẫu đầu vào được lan truyền. Cỏc tham số kết luận luật tối ưu được ước lượng bởi thủ tục lặp bỡnh phương cực tiểu trung bỡnh, trong khi cỏc tham số tiền kiện luật ( hàm thuộc) được giả định là cố định trong vũng lặp hiện tại.

- Phần thứ hai: Cỏc mẫu lại được lan truyền một lần nữa. Trong giai đoạn này, lan truyền ngược được dựng để điều chỉnh cỏc tham số tiền kiện trong khi phần kết luận của luật được giữ cố định.

Hỡnh 2.8. Cấu trỳc hệ noron mờ Takagi- Sugeno

Chức năng cụ thể của mỗi lớp trong cấu trỳc hệ noron- mờ Takagi- Sugeno như sau:

- Chức năng của lớp 1, 2, 3 giống của hệ noron mờ Mamdani đó được trỡnh bày ở trờn

- Lớp 4 ( chuẩn húa cường độ luật: rule strength normalization): Đầu ra cho mỗi nỳt trong lớp này được tớnh như sau:

1 2 , 1, 2.. i i ω ω ω ω = = +

- Lớp 5 ( lớp kết luận luật – rule strength normalization): mỗi nỳt I trong lớp này được tớnh bởi hàm sau:

1 2

( )

i if i p xi q xi ri

ω =ω + +

Trong đú : ωi là đầu ra của lớp 4, và { p q ri, ,i i} là tập cỏc tham số. Để cú thể đưa ra được kết luận luật là tốt nhất thỡ nờn dựng phương phỏp bỡnh phương cực tiểu.

- Lớp 6 ( lớp suy diễn luật: rule inference layer): Nỳt đơn trong lớp này tớnh tổng cỏc tớn hiệu vào: Overall output i i i i i i i i f f ω ω ω =∑ = ∑ ∑

Mạng ANFIS ( Adaptive Network based fuzzy inference system)

Trong chương 1 chỳng ta đó được tỡm hiểu về hệ suy diễn mờ sử dụng cỏc luật mờ if- then. Đõy là một hệ phự hợp cho việc biểu diễn tri thức con người và xử lý suy luận mà khụng cần sử dụng những phõn tớch chớnh xỏc. Tuy nhiờn, nú cũng cú một số hạn chế nhất định như:

- Khụng cú một phương phỏp chuẩn cho việc biến đổi cỏc tri thức con người hoặc cỏc kinh nghiệm vào cỏc luật và dữ liệu của một hệ suy diễn mờ.

- Cần cú một phương phỏp đem lại hiệu quả cho việc điều chỉnh cỏc hàm thuộc (MF’s) để tối thiểu húa lỗi đầu ra.

Một mụ hinh kiến trỳc khỏc cú thể khắc phục được những hạn chế đú một cỏch tốt nhất đú là mụ hỡnh hệ suy diễn mờ dựa trờn mạng thớch nghi (ANFIS) Mụ hỡnh này sẽ cho phộp tạo lờn một tập cỏc luật mờ if then với việc xấp xỉ cỏc hàm thuộc để sinh ra cỏc cặp dữ liệu vào ra theo điều kiện.

Kiến trỳc hệ suy diễn mờ dựa trờn mạng thớch nghi

Trong phần này chỳng ta sẽ đưa ra cấu trỳc của mạng thớch nghi tương đương với hệ suy diễn mờ, trong đú chỳng ta sẽ đi sõu vào mụ tả cỏch phõn chia cỏc tập tham số để ỏp dụng luật học lai và cỏch thực hiện cỏc luật mờ if then

Hỡnh 2.9. Lập luận mờ

Để đơn giản, ta giả sử rằng hệ suy diễn mờ cú hai đầu vào x và y và một đầu ra. Giả sử rằng cú hai luật cơ sở mờ if- then của Takagi và Sugeno như sau:

Rule 1 : If x is A1 and y is B1, then f1= p x q y r1 + 1 + 1

Rule 2: If x is A2 and y is B2, then f2 = p x q y r2 + 2 + 2

Cỏc nỳt trong cựng một lớp cú chức năng như nhau như mụ tả dưới đõy: - Lớp 1: mỗi nỳt I trong lớp này cú hỡnh vuụng với cỏc hàm thành viờn.

O xi1( )=àAi( )x với i = 1, 2, hoặc O xi1( )=àBi−2( )x với i = 3,4

Ở đõy, x ( hoặc y) là đầu vào nỳt I và Ai ( hoặc Bi) là cỏc biến ngụn ngữ kết hợp với nỳt hàm này. Hay núi một cỏch khỏc đơn giản 1

i

O là hàm thuộc của Ai và nú chỉ rừ độ thuộc của x vào Ai.

Thường ta chọn àAi( )x là hàm thuộc hỡnh chuụng với giỏ trị lớn nhất là 1 và

nhỏ nhất là 0, như vậy tổng quả sẽ được mụ tả dưới dạng toỏn học như sau: 1 ( ) 1 2 Ai i i i x x c b a à = − +

Trong đú a b ci, ,i i là tập cỏc tham số. Khi giỏ trị của cỏc tham số này thay đổi thỡ hàm sẽ biến đổi theo. Cỏc tham sụ trong lớp này là tham số giả thiết.

- Lớp 2 : mỗi nỳt trong lớp này cú hỡnh trũn và cú nhón là ∏ .Nú chớnh là tớch của cỏc tớn hiệu đến và mỗi giỏ trị đầu ra của nỳt biểu diễn cường độ của một luật( toỏn tử T- norm) thực hiện phộp AND tổng quỏt cú thể được sử dụng ở đõy

2 ( ). ( )

i i

i A B

Ox à y , i = 1, 2

- Lớp 3: mỗi nỳt trong lớp này cú hỡnh trũn và cú nhón là N. Nỳt thứ I được tớnh là tỉ lệ của cường độ luật của nỳt với tổng tất cả cỏc cường độ luật:

3 1 2 i i O ω ω ω = + , i = 1, 2

Để thuận tiện, giỏ trị đầu ra của nỳt này sẽ được gọi là giỏ trị đầu vào luật được chuẩn húa ( normalized firing strengths)

4( ) ( )

i i i i x i i

O xfp +q y r+

Trong đú, ωi là đầu ra của lớp thứ 3, { p q ri, ,i i} là tập cỏc tham số, cỏc tham số trong lớp này sẽ được xem như là tham số kết luận.

- Lớp 5: Là một lớp cú một nỳt hỡnh trũn, trong lớp này cú ký hiệu là ∑ là đầu ra bẳng tổng của tất cả cỏc ký hiệu đến.

Overall output 5 1( ) i i i i i i i i f O x f ω ω ω = =∑ =∑ ∑

Chỳng ta cú thể cấu trỳc một hệ ANFIS tương đương với một hệ suy diễn mờ với cỏc luật mờ TSK. Kiến trỳc của hệ ANFIS cú thể cập nhật cỏc tham số theo thuật toỏn lan truyền ngược.

Giả sử rằng chỳng ta sử dụng hết tất cả cỏc khả năng của cỏc tham số là số lượng đầu vào và số lượng cỏc hàm thuộc khi đú cú thể định nghĩa số lượng cỏc luật là : n 1 n I n i i Rule Mf = =∏

Và nếu tham số giả thiết (premisparan) là số lượng tất cả cỏc tham số cần cho hàm thuộc, khi đú số lượng tất cả cỏc tham số được định nghĩa là:

1 ar n n n i n( n 1) i p a premispara In Mf Rule In = = ∑ + +

Thuật toỏn học lai

Để cú thể đem lại hiệu quả cao nhất trong quỏ trỡnh tớnh toỏn, hệ ANFIS sử dụng thuật toỏn học lai. Chỳng ta thấy rằng nếu cho giỏ trị cỏc tham số giả thiết, đầu ra cú thể được diễn tả bởi một hàm kết hợp tuyến tớnh cỏc tham số kết luận. Núi một cỏch cụ thể, đầu ra f được cụ thể húa như sau:

1 1 2 2 ( )1 1 ( 1 ) 1 ( 1 ) 1 ( )2 2 ( 2 ) 2 ( 2 ) 2

fff = ω r + ωx p + ω y q + ω r + ω x p + ω y q

S = tập của tổng cỏc tham số

1

S = tập của cỏc tham số giả thiết

2

S = tập của cỏc tham số kết luận

Thuật toỏn học lai cú thể ỏp dụng một cỏch trực tiếp. Cụ thể hơn, trong pha đi tới của thuật toỏn học lai, hàm tớn hiệu đi qua bốn lớp ( đi đến lớp thứ 4) và tham số kết luận được xỏc định bởi phương phỏp ước lượng bỡnh phương tối thiểu (LSE). Cũn trong pha đi lui, tỉ lệ lỗi được lan truyền ngược và cỏc tham số giả thiết được cập nhật bởi phương phỏp giảm gradient, cỏc hoạt động trong mỗi pha hoạt động được tổng quả húa qua bảng sau:

Pha đi tới Pha đi lui

Tham số giả thiết Cố định Giảm gradient

Tham số kết luận LSE Cố định

Tớn hiệu Nỳt ra Tỉ lệ lỗi

Bảng 2.11: hai pha trong thủ tục học lai cho hệ ANFIS

Theo như bảng trờn, chỳng ta nhận thấy, cỏc cụng thức cập nhật cỏc tham số giả thiết và kết luận được tỏch ra trong luật học lai. Do đú, việc tăng tốc độ học là cú thể bằng cỏch sử dụng một cỏch khỏc của phương phỏp giảm gradient trong phần giả thiết như giảm gradient lan truyền nhanh, tối ưu húa phi tuyến…

Trờn thực tế, với mỗi phương phỏp đều cú những ưu và nhược điểm riờng của nú. Phương phỏp ước lượng bỡnh phương tối thiểu và phương phỏp giảm gradient cũng vậy. Do đú, người ta đó đưa ra được một số cỏch để cập nhật tham số ( tựy từng trường hợp cụ thể để ỏp dụng vỡ mỗi phương phỏp đều cú một độ phức tạp tớnh toỏn nhất định nào đú)

- Chỉ giảm gradient: tất cả cỏc tham số được cập nhật bởi phương phỏp giảm gradient

- Giảm gradient và chỉ một lần dựng LSE, trong đú LSE được sử dụng chỉ một lần tại thời điểm bắt đầu đặt cỏc giả trị khởi tạo của cỏc tham số kết quả và sau đú sử dụng giảm gradient để cập nhật tất cả cỏc tham số.

- Giảm gradient và LSE : đõy là luật học lai

- chỉ LSE hệ ANFIS là tuyến tớnh và cỏc tham số giả thiết và sự mở rộng

Một phần của tài liệu Tìm hiểu lập trình c cho 8051 và ứng dụng thiết kế hệ thống đo nhiệt độ hiển thị trên LCD (Trang 39 - 49)