Sự kết hợp giữa logic mờ và mạng neural

Một phần của tài liệu (LUẬN văn THẠC sĩ) mạng anfis và ứng dụng cho dự báo sản lượng tiêu thụ điện năng của tỉnh bắc giang (Trang 28)

Khi khảo sát mạng nơron và logic mờ, ta thấy mỗi loại đều có điểm mạnh, điểm yếu riêng của nó. Đối với logic mờ, ta dễ dàng thiết kế một hệ thống mong muốn chỉ bằng các luật Nếu-thì (If - Then) gần với việc xử lý của con ngườị Với đa số ứng dụng thì điều này cho phép tạo ra lời giải đơn giản hơn trong khoảng thời gian ngắn hơn. Thêm nữa, ta dễ dàng sử dụng những hiểu biết của mình về đối tượng để tối ưu hệ thống một cách trực tiếp [3].

Tuy nhiên, đi đôi với các ưu điểm hệ điều khiển mờ còn tồn tại một số khuyết như việc thiết kế và tối ưu hóa hệ logic mờ đòi hỏi phải có một số kinh

nghiệm về điều khiển đối tượng, đối với những người mới thiết kế lần đầu điều đó hoàn toàn không đơn giản. Mặt khác còn hàng loạt những câu hỏi khác đặt ra cho người thiết kế mà nếu chỉ dừng lại ở tư duy logic mờ thì hầu như chưa có lời giải, ví dụ : số tập mờ trong mỗi biến ngôn ngữ cần chọn bao nhiêu là tối ưủ Hình dạng các tập mờ thế nàỏ Vị trí mỗi tập mờ ở đâủ Việc kết hợp các tập mờ như thế nàỏ Trọng số của mỗi luật điều khiển bằng bao nhiêủ Nếu như tri thức cần đưa vào hệ được thể hiện dưới dạng các tập dữ liệu (điều này thường gặp khi thu thập và xử lý dữ liệu để nhận dạng đối tượng) thì làm thế nàỏ...

Đối với mạng nơron, chúng có một số ưu điểm như xử lý song song nên tốc độ xử lý rất nhanh. Mạng nơron có khả năng học hỏi, ta có thể huấn luyện mạng để xấp xỉ một hàm phi tuyến bất ky, đặc biệt khi đã biết một tập dữ liệu vào/ra…Song nhược điểm cơ bản của mạng nơron là khó giải thích rõ ràng hoạt động của mạng nơron như thế nàọ Do vậy việc chỉnh sửa trong mạng nơron rất khó khăn.

Hai tiêu chí cơ bản trợ giúp cho người thiết kế ở logic mờ và ở mạng nơron hiện trái ngược nhau

Tiêu chí Mạng nơron Logic mờ

Thể hiện tri thức Không tường minh, khó giải thích và khó sửa đổi

Tường minh, dễ kiểm chứng hoạt động và dễ sửa đổi Khả năng học Có khả năng học thông qua

các tập dữ liệu

Không có khả năng học, người thiết kế phải tự thiết kế tất cả

Từ những phân tích trên, ta thấy nếu kết hợp logic mờ và mạng nơron, ta sẽ có một hệ lai với ưu điểm của cả hai: logic mờ cho phép thiết kế hệ dễ

dàng, tường minh trong khi mạng nơron cho phép học những gì mà ta yêu cầu về bộ điều khiển.

Nó sửa đổi các hàm phụ thuộc về hình dạng, vị trí và sự kết hợp,…hoàn toàn tự động. Điều này làm giảm bớt thời gian cũng như làm giảm bớt chi phí khi phát triển hệ.

CHƢƠNG 2.

MÔ HÌNH MẠNG ANFIS VÀ KHẢ NĂNG ỨNG DỤNG 2.1. Hệ suy luận mờ dựa trên mạng thích nghi

2.1.1. Giới thiệu sơ lƣợc về mô hình nơron - mờ

Một mạng nơron với các trọng số được điều chỉnh có thể xem như là một thiết bị điều khiển tự động nhờ vào tính chất hồi quy phi tuyến của các đối tượng rời rạc. Tuy nhiên tri thức được lưu trữ trong mạng không rõ ràng, không mô tả được những mối liên hệ giữa dữ liệu nhập và dữ liệu xuất, mà chỉ có thể xác định các mối liên hệ này thông qua những tham số thích nghi của mạng. Trái lại, một luật mờ nếu - thì lại có thể diễn tả được các mối liên hệ đó dưới dạng ngôn ngữ tự nhiên, nhưng lại không có khả năng điều chỉnh luật cho phù hợp. Hai vấn đề này được kết hợp lại tạo thành một hệ thống nơron - mờ nhằm đạt được khả năng “đọc” và “học” cùng một lúc. Các luật thu được từ hệ thống này có thể điều chỉnh phù hợp với dữ liệu phát sinh mô hình, và đối với các ứng dụng điều khiển tự động, mô hình nơron - mờ có thể tích hợp với các luật chuyên gia nhằm đưa ra những kết quả chính xác [3].

Bên cạnh các luật chuyên gia, các luật trích ra từ dữ liệu cũng là một hình thức mô hình hóa hệ thống điều khiển tự động, chẳng hạn như trong Nhận dạng, khai mỏ dữ liệu,…Mục tiêu đưa ra các luật này là nhằm giảm độ phức tạp của vấn đề cũng như lượng dữ liệu liên quan đến vấn đề.Có rất nhiều phương pháp phân tích dữ liệu để đưa ra hệ thống các luật để có thể thực hiện một sự kết hợp tối ưu giữa logic mờ và mạng nơron.

Các nghiên cứu về mạng nơron đã bắt đầu từ thập niên 40 và logic mờ từ thập niên 60, nhưng mô hình nơron - mờ là một lĩnh vực mớịNăm 1992, Roger Jang đã đề xuất mô hình ANFIS nhằm đáp ứng việc xây dựng một tập luật mờ nếu - thì với các hàm thành viên xấp xỉ dữ liệu nhập - xuất đích. Kết

tốt thông tin ngôn ngữ (các luật ngôn ngữ) từ các chuyên gia, mà còn phù hợp với việc sử dụng dữ liệu dạng số để thu được mức độ thực hiện tốt hơn.

2.1.2. Luật mờ và hệ suy luận mờ

2.1.2.1. Luật mờ

Luật mờ là biểu thức điều kiện có dạng “NẾU A THÌ B”, trong đó A và B là nhãn của các tập mờ được mô tả bằng cách xấp xỉ các hàm thành viên. Nhờ vào dạng rút gọn, luật mờ thường được dùng để thiết lập những phương thức lập luận không chính xác, nhằm thể hiện tính đa dạng trong tri thức của con ngườị Ví dụ sau mô tả một sự kiện đơn giản là (đây là luật mờ loại Mamdani) [4]:

Nếu nhiệt độ cao thì giá máy lạnh tăng.

Trong đó nhiệt độgiá máy lạnh là các biến ngôn ngữ, cao tăng

các giá trị ngôn ngữ hoặc các nhãn được mô tả bởi các hàm thành viên.

Một dạng khác của luật mờ do Takagi và Sugeno đề xuất, có các tập mờ chỉ xuất hiện trong phần giả thuyết của luật. Ví dụ (đây là luật mờ loại Sugeno):

Nếu lưu lượng dòng chảy cao thì mực nước sông=k*lưu lượng dòng chảy

trong đó cao là phần giả thuyết được mô tả bởi hàm thành viên xấp xỉ. Tuy nhiên, phần kết luận được định nghĩa bởi phương trình theobiến lưu lượng dòng chảỵ

Cả hai loại luật mờ trên đều được mở rộng trong cả hai lĩnh vực mô hình hóa và điều khiển tự động. Bởi vì lợi ích của các nhãn ngôn ngữ và các hàm thành viên mà một luật mờ có thể nắm bắt dễ dàng qui luật điều khiển của con ngườị

2.1.2.2. Hệ suy luận mờ

Một hệ thống suy luận mờ gồm 5 khối cơ bản sau (Hình 2.1):

Một cơ sở dữ liệu định nghĩa các hàm thành viên của các tập mờ được

sử dụng trong các luật mờ

Một đơn vị thực hiện quyết định thực hiện phép toán suy luận trên

các luật

Một suy luận mờ chuyển đổi dữ liệu thô thành các mức độ kết nối với

biến ngôn ngữ

Một suy luận khử mờ chuyển đổi các kết quả mờ của suy luận thành

dữ liệu thô

Thông thường cơ sở luật và cơ sở dữ liệu được dựa trên tri thức chuyên giạ Các bước lập luận mờ (phép toán suy luận trên các luật mờ) được thực hiện bởi các hệ thống suy luận mờ (Hình 1.19):

1. So sánh giá trị đầu vào với hàm thành viên của phần giả thiết để có được giá trị thành viên (hay những độ đo tương tự) của những tập ngữ nghĩa (bước này được gọi là bước mờ hóa)

2. Kết nối (qua toán tử chuẩn T-norm, thường là nhân hay lấy tối tiểu) giá trị tạo thành viên của phần giả thiết để có được trọng số vào của luật.

3. Tạo kết luận đang tính toán (có thể là mờ hay rõ) cho mỗi luật dựa vào

trọng sổ của luật.

Cơ sở tri thức

Cơ sở luật Cơ sở dữ

liệu

Đơn vị thực hiện quyết định Mờ hóa Khử mờ hóa (mờ ) (mờ ) (thô ) (thô ) Dữ liệu nhập Dữ liệu xuất Hình 2.1. Hệ thống suy luận mờ

giải mờ).

Có một sốsuy diễn mờ được sử dụng trong lĩnh vực này, dựa vào loại của lập luận mờ và loại sử dụng luật mờ if-then mà các hệ suy diễn mờ được chia ra làm ba loại như sau:

Loại 1: Toàn bộ dữ liệu xuất là trung bình trọng số các dữ liệu xuất thô của

mỗi luật có được do ngưỡng kích hoạt của luật (toán tử tích hoặc min tổ hợp các giả thuyết) và các hàm thành viên dữ liệu xuất.

Loại 2: Toàn bộ dữ liệu xuất thu được bằng cách dùng toán tử max cho các

dữ liệu xuất mờ đủ tiêu chuẩn (cực tiểu hóa độ ngưỡng kích hoạt và hàm thành viên dữ liệu xuất của mỗi luật). Các ý tưởng khác nhau được đề xuất để chọn lựa dữ liệu xuất thô cuối cùng dựa trên toàn bộ dữ liệu xuất mờ; một số trong chúng là tâm của diện tích, đường phân giác của diện tích, trung bình cực đại, tiêu chuẩn cực đại,…

Loại 3: Các luật mờ loại Takagi và Sugeno được sử dụng. Dữ liệu xuất của

mỗi luật là một tổ hợp tuyến tính các dữ liệu nhập, cộng với một số hạng không đổi, và dữ liệu xuất cuối cùng chính là trung bình trọng số các dữ liệu xuất trong mỗi luật. 2.1.3. Mạng thích nghi vectơ xuất vectơ nhập Hình 2.2. Mạng thích nghi

Một mạng thích nghi (Hình 2.2) là một mạng nhiều lớp lan truyền tiến, trong đó mỗi nút thực hiện một chức năng riêng (hàm nút) trên tín hiệu vào cũng như tập các tham số gắn liền với nút. Trạng thái tự nhiên của hàm nút có thể biến đổi từ nút này qua nút khác, và sự lựa chọn của mỗi hàm nút dựa trên hàm ánh xạ toàn cục nhập - xuất để mạng thích nghi được yêu cầu thực hiện. Chú ý rằng các liên kết trong mạng thích nghi chỉ xác định hướng dữ liệu của tín hiệu giữa các nút chứ không chứa trọng số [3].

Để phản ánh các khả năng thích nghi khác nhau, các nút hình tròn và hình vuông được dùng trong mạng thích nghị Một nút hình vuông (nút thích nghi) có chứa tham số còn một nút hình tròn (nút cố định) thì không. Tập tham số của mạng thích nghi là tập hợp của các tập tham số của mỗi nút thích nghị Để thu được ánh xạ nhập - xuất đích, các tham số này được cập nhật theo dữ liệu huấn luyện đã cho và thủ tục học dựa trên gradient.

2.1.4. Cấu trúc của ANFIS

Hình dưới đây là một ví dụ về cấu trúc của ANFIS với 2 đầu vào và hai nhãn ngôn ngữ cho mỗi đầu vàọ Trường hợp tổng quát một mạng ANFIS với n đầu vào và m nhãn ngôn ngữ cho mỗi đầu vào có 5 tầng. Các hàm nút trong một tầng thuộc cùng một họ [7].

Lớp 1: Tầng này gồm n*m nút thích nghi (nút hình vuông) với hàm của nút là , 1 , ( ), i j i j A i O X (2.1)

Trong đó Xi(0 i n 1) là đầu vào thứ i, , (0 1, 0 1)

i j

A i n j m

là nhãn ngôn ngữ thứ j của đầu vào i, (ví dụ như nhỏ, trung bình, lớn…). µAịj là hàm thuộc của Ai j, và nó chỉ rõ mức độ Xi thuộc về Ai j, . Thông thường ta chọn hàm thuộc là hàm Chuông (Bell) hoặc hàm Gaussian với giá trị trả về nằm trong đoạn [0,1].

Với {ak, bk, ck} hay {ak, ck} (0 ≤ k ≤ n*m-1) là tập tham số phi tuyến của nút k. Khi những giá trị của tham số thay đổi, hình dạng của hàm thành viên của nhãn ngôn Aij sẽ thay đổi theọ

Lớp 2: Mỗi nút trong lớp này có hình tròn và có nhãn là ∏. Nó chính là

tích của các tín hiệu đến và mỗi giá trị đầu ra của nút biểu diễn cường độ của một luật (toán tử T - norm thực hiện phép AND tổng quát có thể được sử dụng ở đây)

(2.3)

Lớp 3: Mỗi nút trong lớp này có hình tròn có nhãn là N. Nút thứ i được

tính là tỉ lệ của cường độ luật của nút thứ i so với tổng tất cả các cường độ luật: (2.4) 2 1 ( ) , 1 k gbell b k k x x c a 2 s ( ) exp[-( k ) ] gaus ian k x c x s (2.2)

Để thuận tiện, giá trị đầu ra của nút này sẽ được gọi là giá trị đầu vào luật được chuẩn hoá (normalized firing strengths)

Lớp 4: Mỗi lớp i trong lớp này là một nút hình vuông có chức năng

(2.5)

Trong đó, là đầu ra của lớp thứ ba,{pi, qi, ri}là tập các tham số, các tham số trong lớp này sẽ được xem như là tham số kết luận.

Lớp 5:Là một lớp có một nút hình tròn, trong lớp này có ký hiệu ∑

là đầu ra bằng tổng của tất cả các tín hiệu đầu vàọ

(2.6)

2.2. Thuật toán ANFIS

2.2.1. Thuật toán học lan truyền ngƣợc

Thuật toán lan truyền ngược (BP) được giới thiệu lần đầu vào năm 1970 bởi Werbos. Tập hợp các tham số được cập nhật suốt trong quá trình huấn luyện dữ liệu bởi phương pháp độ dốc gradient. Hầu hết mạng nơron cơ bản hiện nay được huấn luyện bởi thuật toán BP [1].

Lan truyền ngược là một phương pháp cho phép xác định tập trọng số tốt nhất của mạng để giải một bài toán đã chọ Việc áp dụng phương pháp lan truyền ngược là một quá trình lặp đi lặp lại nhiều lần hai tiến trình chính: lan truyền tiến để thực hiện ánh xạ và lan truyền ngược sai số để cập nhật các trọng số. Các trọng số của mạng là các hệ số của mô hình. Phương pháp giảm gradient được dùng để cập nhật những hệ số này sao cho giảm thiểu được sai số của mô hình.

Hình 2.4. Mạng 3 lớp lan truyền ngược

Thuật toán: Đầu tiên ta cho lan truyền thẳng suốt trong mạng, qua các phần tử nơron và được tiếp tục với các hàm kích hoạt của phần tử nơron. Các mạng được nghiên cứu cùng với thuật toán học lan truyền ngược được gọi là mạng lan truyền ngược [1].

Huấn luyện các cặp vào/rạ {(x(k), d(k))}, k = 1,2,...,p

Thuật toán cung cấp một thủ tục cho việc thay đổi các vector trọng số trong mạng, đầu ra của mạng được lan truyền ngược trở lại lớp đầu vào cho đúng các mẫụ Cơ sở cho việc cập nhật các trọng số là phương pháp độ dốc Gradient.

Với cặp vào ra (x(k)

, d(k)), thuật toán lan truyền ngược thực hiện các bước như sau:

Đầu tiên, mẫu x(k)

được lan truyền từ lớp đầu vào qua các lớp ẩn đi đến lớp đầu ra có kết quả là y(k). Sau đó, sai số giữa y(k)

và d(k) được lan truyền ngược trở lại từ lớp đầu ra tới lớp đầu vào để cập nhật trọng số. Hình (2.3) diễn giải thuật toán lan truyền ngược. Kết quả có thể mở rộng sang mạng nơron nhiều lớp.

Trên hình (2.3) có m phần tử nơron đầu vào, l phần tử nơron ở lớp ẩn, và n phần tử nơron ở lớp đầu rạ Đường nét liền diễn tả lan truyền thẳng của các tín hiệu, đường nét đứt diên tả lan truyền ngược của các sai số. Đầu tiên huấn luyện vào cặp vào/ra ký hiệu (x,d) để cho đơn giản ta bỏ chỉ số k. Khi một mẫu đầu vào x được đưa vào thì các phần tử trong mạng sẽ được tính như sau:

Đầu vào phần tử q của lớp ẩn sẽ được tính theo phương trình:

j m j qj q v x net 1 (2.7) Phương trình đầu ra của q sẽ là: zq a(netq) a( j

m j qjx v 1 ) (2.8)

Đầu vào phần tử thứ i của lớp đầu ra sẽ là:

) ( 1 1 1 j m j qj l q iq q l q iq i w z w a v x net (2.9)

Phương trình đầu ra của phần tử nowron thứ i sẽ là:

)) ( . ( ) ( ) ( 1 1 1 j m j qj l q iq q l q iq i i a net a w z a w a v x y (2.10)

Các chỉ số trên được tính toán cho sự lan truyền tiến của các tín hiệu đầu vào xuyên suốt qua các lớp mạng nơron. Trước khi ta đề cập đến các tín hiệu sai số của sự lan truyền ngược, ta sẽ định nghĩa một hàm mục tiêu như sau:

2 1 1 2 1 1 2 2 1 ) ( 2 1 ) ( 2 1 ) ( n i l q q iq i n

Một phần của tài liệu (LUẬN văn THẠC sĩ) mạng anfis và ứng dụng cho dự báo sản lượng tiêu thụ điện năng của tỉnh bắc giang (Trang 28)

Tải bản đầy đủ (PDF)

(70 trang)