Mạng Lan truyền ngược

Một phần của tài liệu Nhận dạng và phân loại các tín hiệu quá độ dựa vào mạng neuron kết hợp với phân tích wavelets (Trang 28)

Mạng lan truyền ngược có cấu tạo như hình 4.5.

Hình 4.5: Mạng lan truyền ngược

Cấu trúc truyền thẳng, lan truyền ngược là dạng hiệu quả và thông dụng nhất để thực hiện các mạng nhiều lớp, phức tạp. Nó được sử dụng cho nhiều ứng dụng khác nhau. Cấu trúc này đã tạo ra một số lượng lớn các loại mạng với

nhiều cấu trúc và phương pháp huấn luyện khác nhau. Mặt mạnh của nó là các nghiệm phi tuyến đối với các bài toán không rỏ ràng. Mạng có lớp vào, lớp ra và ít nhất một lớp ẩn. Số lớp ẩn là không giới hạn nhưng thường chỉ có một hoặc hai lớp. Mỗi một lớp trong mạng sẽ kết nối hoàn toàn với lớp kế tiếp. Có 3 luật quan trọng cần dùng để giải các bài toán với mạng lan truyền ngược: - Luật 1: khi tính phức tạp trong quan hệ giữa dữ liệu vào và ngả ra mẫu tăng

thì số phần tử trong lớp ẩn cũng tăng.

- Luật 2: nếu mô hình xử lý là riêng biệt thành nhiều tầng thì có thể cần thêm các lớp ẩn.

- Luật 3: số lượng dữ liệu huấn luyện có sẵn sẽ đặt biên trên cho các phần tử trong lớp ẩn. Để tính giá trị biên này ta dùng số đôi mẫu vào ra trong tập huấn luyện rồi chia cho tổng số phần tử vào và ra trong mạng. Sau cùng chia kết quả cho một hệ số tỉ lệ giữa 5 và 10.

Quá trình huấn luyện mạng thường dùng các biến của luật Delta, bắt đầu bằng sự khác biệt giữa ngả ra thực và ngả ra mẫu. Ưùng dụng sai số này, các trọng số được tăng tỉ lệ với sai số theo một hệ số tỉ lệ đối với độ chính xác toàn cục. Thực hiện điều này đối với một nút có nghĩa là các ngả vào, ngả ra và ngả ra mẫu đều phải được đưa tới cùng một phần tử xử lý.

Có nhiều thay đổi tới luật học đối với mạng lan truyền ngược. Các hàm truyền, hàm lỗi khác nhau và thậm chí việc thay đổi phương pháp lấy đạo hàm của hàm truyền cũng có thể được sử dụng.

Có những giới hạn đối với mạng truyền thẳng, lan truyền ngược. Mạng lan truyền ngược cần huấn luyện nhiều lần với nhiều mẫu vào–ra. Thêm vào đó, kết cấu bên trong không hiểu rỏ nên không đảm bảo hệ thống sẽ hội tụ ở nghiệm chấp nhận được. Đôi khi việc học bị hạn chế ở cực tiểu nội bộ nên làm hạn chế nghiệm tốt nhất. Điều này xảy ra khi hệ thống gặp một sai số thấp hơn các khả năng xung quanh nhưng cuối cùng không có được sai số nhỏ nhất có thể.

4.3.2. Mạng Vectơ lượng tử LVQ – Learning Vector Quantity:

Cấu trúc mạng này được Tuevo Kohonen đưa ra, sau mạng tự sắp xếp. Các mạng này dựa vào luật học Kohonen, cho phép sắp xếp thông tin thành những nhóm thích hợp bao gồm các phần tử tương tự nhau. Mô hình mạng LVQ được dùng cho cả hai dạng bài toán: phân loại và phân đoạn ảnh.

Hình 4.6: Mạng LVQ

Lớp ra có số phần tử bằng với số nhóm riêng biệt. Số phần tử trong lớp Kohonen được tập hợp theo các nhóm riêng biệt này. Số phần tử trong lớp tùy thuộc vào độ phức tạp của quan hệ vào–ra. Thường mỗi nhóm sẽ có cùng số phần tử trong một lớp. Lớp Kohonen sẽ học và thực hiện sự phân loại với sự trợ giúp của một tập huấn luyện. Mạng này sử dụng các luật học có giám sát. Tuy nhiên, chúng có thay đổi đáng kể so với luật lan truyền ngược. Để tối ưu hàm học và hàm gọi lại, lớp vào sẽ chứa chỉ một phần tử cho mỗi thông số.

Ơû chế độ học, mạng sử dụng lớp Kohonen để tính khoảng cách từ một vectơ huấn luyện tới mỗi phần tử, và phần tử gần nhất được cho là chiến thắng. Trong một lớp chỉ có một phần tử chiến thắng, và phần tử này chỉ cho phép một phần tử ra kích hoạt, thông báo loại của vectơ vào. Nếu phần tử chiến thắng ở trong nhóm mong muốn của vectơ huấn luyện thì nó sẽ được tăng cường tới vectơ huấn luyện. Ngược lại, các trọng số đưa vào phần tử xử lý sẽ được lấy ra khỏi vectơ huấn luyện.

Ơû chế độ gọi lại, mạng sẽ tính khoảng cách giữa vectơ vào và từng phần tử. Phần tử gần nhất được cho là chiến thắng và tạo một ngả ra, biểu diễn cho một nhóm tìm được.

Mạng LVQ có một số hạn chế. Đối với bài toán phân loại phức tạp thì mạng cần có lớp Kohonen lớn với nhiều phần tử cho mỗi nhóm.

4.3.3. Mạng xác suất:

Mạng xác suất (PNN – Probabilistic Neural Networks) được Donald Specht đưa ra. Mạng này đề xuất giải pháp cho bài toán phân loại mẫu dựa vào phương pháp thống kê, gọi là bộ phân loại Bayes. Lý thuyết Bayes tính đến khả năng xảy ra của các sự kiện và sử dụng thông tin ưu tiên để cải thiện dự đoán. Mô hình mạng còn sử dụng các bộ ước lượng Pazen để tạo ra các hàm mật độ xác suất cho lý thuyết Bayes.

Hình 4.7: Mạng Xác Suất

Mạng PNN sử dụng tập huấn luyện có giám sát để tạo ra các hàm phân bố trong một lớp mẫu. Những hàm này, ở chế độ gọi lại, dùng để ước lượng khả năng xảy ra của một vectơ vào đang là một bộ phận của một nhóm được học. Các mẫu học được lấy trọng số theo một xác suất ưu tiên, gọi là tần số liên quan, của mỗi nhóm để xác định nhóm giống nhất với vectơ vào. Nếu tần số liên quan của các nhóm này được biết thì tất cả các nhóm được xem là như nhau và sự xác định nhóm sẽ dựa vào sự giống nhau của vectơ đặc trưng đối với hàm phân bố của một nhóm.

Mạng có 3 lớp: lớp vào, lớp mẫu và lớp ra. Lớp vào có số phần tử bằng với số lượng các thông số cần thiết để mô tả vật được phân loại. Lớp mẫu dùng để sắp xếp tập huấn luyện sau cho mỗi phần tử xử lý sẽ biểu diễn cho một vectơ vào. Lớp ra, còn gọi là lớp tổng, có số phần tử bằng với số nhóm cần phân loại. Mỗi phần tử trong lớp ra sẽ kết hợp với các phần tử trong lớp mẫu có cùng nhóm và phân loại cho ngả ra.

Lớp mẫu biểu diễn sự thực hiện một phiên bản của bộ phân loại Bayes, với hàm mật độ xác suất phụ thuộc được xấp xỉ bằng bộ ước lượng Parzen. Phương pháp này tạo ra một bộ phân loại mẫu tối ưu về mặt cực tiểu sự rủi ro của việc phân biệt sai một vật. Với bộ ước lượng này, phương pháp thực hiện sẽ gần hơn với hàm mật độ nhóm thật vì số mẫu huấn luyện tăng lên, miễn là tập huấn luyện biểu diễn đầy đủ sự phân biệt nhóm. Trong lớp mẫu có một phần tử xử lý cho mỗi vectơ vào của tập huấn luyện. Thông thường, số phần tử trong mỗi nhóm ra sẽ bằng nhau. Mặt khác, một hoặc nhiều nhóm có thể bị lệch và mạng sẽ tạo ra những kết quả sai.

Mỗi phần tử trong lớp mẫu được huấn luyện một lần. Một phần tử được huấn luyện sẽ tạo một giá trị ra cao khi vectơ vào phù hợp với vectơ huấn luyện. Hàm huấn luyện có một hệ số san bằng toàn cục để tổng quát hóa tốt hơn kết quả phân loại. Trong trường hợp bất kỳ, vectơ huấn luyện không buộc phải ở

trong một thứ tự đặc biệt nào của tập huấn luyện, vì loại của một vectơ được chỉ định bởi ngả ra mẫu ứng với một ngả vào.

Lớp mẫu hoạt động mang tính cạnh tranh, vectơ vào phù hợp nhất sẽ chiến thắng và tạo một ngả ra. Theo cách này, chỉ có một loại được tạo ra đối với một vectơ cho trước bất kỳ. Nếu ngả vào không phù hợp với bất kỳ mẫu nào có trong lớp mẫu thì sẽ không có ngả ra.

Huấn luyện mạng xác suất đơn giản hơn mạng lan truyền ngược. Tuy nhiên, lớp mẫu có thể rất lớn nếu sự khác biệt giữa các nhóm bị thay đổi và ở cùng thời điểm sự tương tự thật sự là các vùng riêng biệt.

4.3.4. Mạng Hopffield:

Mạng Hopffield có dạng như hình vẽ 4.8.

Mỗi phần tử trong mạng hoạt động ở dạng nhị phân. Đó là do các phần tử tính tổng có trọng số của các ngả vào và lượng tử hóa ngả ra bằng 0 hoặc 1. Hạn chế này sẽ được giảm bớt bằng cách dùng hàm truyền Sigmoid trong mô hình để phân biệt nhóm tốt hơn.

Hình 4.8: Mạng Hopffield (adsbygoogle = window.adsbygoogle || []).push({});

Mạng Hopfield có 3 lớp: lớp đệm ngả vào, lớp Hopfield và lớp ra. Các lớp có cùng số phần tử. Ngả vào của lớp Hopfield được nối với ngả ra của phần tử tương ứng trong lớp đệm qua các biến trọng số. Ngả ra của lớp Hopfield lại nối ngược lại ngả vào của mỗi phần tử khác chấp nhận nó. Chúng cũng được nối với các phần tử tương ứng trong lớp ra.

Trong hoạt động gọi lại, mạng sẽ áp các dữ liệu từ lớp vào, qua các trọng số học, tới lớp Hopfield. Lớp Hopfield sẽ dao động cho đến khi hoàn tất một số chu kỳ cố định, và trạng thái hiện tại của lớp này sẽ được đưa tới ngả ra. Trạng thái này thích hợp với một mẫu đã được lập trình trong mạng.

Việc học của mạng Hopfield có yêu cầu là một mẫu huấn luyện được đưa tới lớp vào và lớp ra cùng lúc. Tính chất đệ qui của lớp Hopfield cung cấp một phương tiện điều chỉnh tất cả các trọng số. Luật học này là luật Hopfield.

Mạng Hopfield có 2 giới hạn chính khi sử dụng như bộ nhớ định địa chỉ được. Thứ nhất, số lượng mẫu và độ chính xác bị giới hạn. Nếu chứa quá nhiều mẫu thì mạng sẽ hội tụ tại một mẫu mới không chính xác với mẫu đã được lập trình.

Thứ hai, mạng có thể không ổn định nếu số mẫu dùng chung quá giống nhau. Vấn đề này có thể khắc phục bằng cách điều chỉnh tập mẫu trực giao với nhau.

4.3.5. Mạng tự sắp xếp:

Mạng này do Tuevo Kohonen đưa ra. Dữ liệu được đưa tới một lớp 2 chiều. Sự khác biệt giữa mạng này và các mạng khác là nó học không giám sát. Tuy nhiên, khi cấu trúc này được phối hợp với các lớp nơron khác để dự đoán hoặc phân loại thì mạng sẽ học không giám sát trước, sau đó chuyển sang học có giám sát đối với những phần thêm vào.

Mạng có hai lớp: lớp vào kết nối hoàn toàn với lớp 2 chiều Kohonen, lớp ra dùng cho bài toán phân loại và biểu diễn nhóm của vectơ vào. Lớp ra sử dụng luật Delta để học và hoạt động tương tự mô hình mạng lan truyền ngược.

Mỗi phần tử lớp Kohonen sẽ đo khoảng cách giữa các trọng số của nó và các giá trị vào. Trong khi gọi lại, phần tử Kohonen có khoảng cách nhỏ nhất sẽ chiến thắng và tạo giá trị ngả ra. Khi đó các phần tử khác bị buộc phải bằng zero đối với vectơ vào đó. Vì vậy phần tử chiến thắng sẽ là phần tử gần nhất nên sẽ đưa giá trị vào mạng 2 chiều Kohonen. Do đó dữ liệu vào phải được biểu diễn ở dạng vectơ 2 chiều.

Cấu trúc mạng như hình 4.9.

Hình 4.9: Mạng Tự Sắp Xếp

Trong khi huấn luyện, phần tử Kohonen có khoảng cách nhỏ nhất sẽ điều chỉnh trọng số của nó gần hơn các giá trị dữ liệu vào. Các phần tử lân cận phần tử chiến thắng cũng điều chỉnh trọng số của chúng đạt gần hơn với cùng một vectơ vào. Sự điều chỉnh của các phần tử lân cận này là một công cụ để bảo toàn bậc của không gian vào. Việc huấn luyện được thực hiện bằng luật học cạnh tranh Kohonen.

Có một hạn chế là một phần tử chiếm một vùng và biểu diễn quá nhiều dữ liệu vào có thể tồn tại trong mô hình này. Vấn đề này được giải quyết bằng cơ chế trong sạch gắn vào trong hàm học. Cơ chế này sẽ giúp lớp Kohonen đạt được lợi ích tốt nhất.

CHƯƠNG 5

MÔ PHỎNG CÁC HIỆN TƯỢNG QUÁ ĐỘ TRÊN HỆ THỐNG ĐIỆN

Do không có điều kiện về thiết bị, hạn chế về thời gian nên đề tài chỉ được thực hiện trong giới hạn đã đưa ra, đó là chấp nhận kết quả mô phỏng các dạng sóng quá độ trên máy tính thay thế cho các tín hiệu thực trên hệ thống điện.

Các dạng sóng quá độ có thể được mô phỏng bằng nhiều phần mềm khác nhau. Trong chương này giới thiệu 2 phần mềm thông dụng là Matlab và ATP–EMTP. Tuy nhiên, xét về mặt chuyên dụng thì ATP–EMTP phù hợp hơn trong việc thực hiện phân tích quá độ, mạch đơn giản hơn. Do đó, phần mô phỏng trong Simulink của Matlab chỉ mang tính tham khảo, kết quả sau cùng được chọn trong phân tích của ATP–EMTP.

5.1.MÔ PHỎNG BẰNG PHẦN MỀM MATLAB:

Người thực hiện đã sử dụng công cụ Power System Blockset Toolbox trong phần mềm Matlab 6.5 để tạo ra dạng sóng sin chuẩn (tần số 50Hz, biên độ 1pu) và

các tín hiệu méo dạng. Các dạng sóng này gồm: võng điện áp, tăng điện áp, méo họa tần, nhấp nháy điện áp, mất điện tạm thời và đóng cắt tụ điện.

5.1.1. Giới thiệu về Power System Blockset Toolbox:

Power System Blockset Toolbox là công cụ hỗ trợ trong thiết kế, xây dựng các mô hình mô phỏng hệ thống điện trong môi trường Simulink của Matlab 6.5. Công cụ này có các thư viện chứa nhiều loại mô hình tiêu biểu cho hệ thống điện như: máy biến áp, đường dây, các loại tải, thiết bị điện tử công suất, . . . giúp người sử dụng dễ dàng thực hiện các mô phỏng về hệ thống điện.

Việc thực hiện mô phỏng hệ thống điện với Power System Blockset Toolbox được bắt đầu với các thư viện powerlib và simulink như hình vẽ 5.1 và 5.2.

Hình 5.2: Thư viện simulink

5.1.2. Mạch mô phỏng:

Dựa vào các đặc tính của dạng sóng quá độ, người thực hiện chọn các thành phần trong thư viện powerlib và simulink để xây dựng mạch mô phỏng.

Hình vẽ 5.3 minh họa mạch mô phỏng hiện tượng võng điện áp - Voltage Sag.

Hình 5.3: Mạch tạo ra võng điện áp

CB trên đường dây hình  được chọn đóng lại sau 3 chu kỳ và mở ra sau 5 chu kỳ tiếp theo. Tải nối tiếp trên đóng vai trò là tải nặng gây sụt áp. Như vậy tải

Thư viện Simulink (adsbygoogle = window.adsbygoogle || []).push({});

Thư viện PowerSystems

này được đóng vào đường dây trong 5 chu kỳ, sau đó mở ra. Kết quả là sẽ tạo ra võng điện áp trong 5 chu kỳ.

Kết quả mô phỏng hình 5.3 được biểu diễn trên hình 5.4

Hình 5.4: Võng điện áp 5 chu kỳ

Ngoài ra, Simulink còn hỗ trợ chức năng ‘save to file’ cho phép lưu dạng sóng

quá độ dưới dạng dữ liệu rời rạc tương thích với kỹ thuật phân tích wavelets trong phần sau. Dữ liệu này được lưu ở dạng tập tin *.mat.

5.2.MÔ PHỎNG BẰNG PHẦN MỀM ATP-EMTP:

5.2.1. Giới thiệu về ATP-EMTP:

ATP – EMTP là phần mềm chuyên về vẽ và mô phỏng các mạch điện có xảy ra quá độ trên hệ thống điện. Phần mềm này gồm 4 phần chính: ATPDraw, PlotXY, GTPPLOT, ATP Control Center.

ATPDraw:

- Giới thiệu:

ATPDraw là chương trình dùng để tạo các mô hình và mô phỏng mạch quá độ. Chương trình này có thao tác đơn giản vì chỉ cần chọn các phần tử có sẵn bằng cách Click và Drag.

Chương trình gồm 4 tập tin chính:

ATPDraw.exe: chạy chương trình vẽ mạch. ATPDraw.scl: thư viện.

ATPDraw.cnt: chứa nội dung tập tin Help. ATPDraw.help: chạy tập tin Help.

Màn hình giao diện vẽ mạch như hình vẽ 5.5.

Click phải vào cửa sổ vẽ mạch để chọn các phần tử cho mạch cần mô phỏng.

Hình 5.5: Màn hình vẽ mạch của ATPDraw

- Các phần tử chính khi vẽ mạch:

Branch Linear:

Điện trở, cuộn dây, tụ điện, tổ hợp RLC. RLC 3 pha đối xứng và không đối xứng. Cuộn dây và tụ điện có điều kiện đầu.  Branch Nonlinear:

Điện trở, cuộn dây phi tuyến. Điện trở phụ thuộc dòng điện. Điện trở phụ thuộc thời gian.  Lines/Cables:

Một phần của tài liệu Nhận dạng và phân loại các tín hiệu quá độ dựa vào mạng neuron kết hợp với phân tích wavelets (Trang 28)