Xấp xỉ mạng nơron

Một phần của tài liệu ứng dụng mạng nơ ron chẩn đoán sự cố trong máy biến áp lực (Trang 76 - 101)

Luyện mạng nơron với đối tƣợng điều khiển theo các tập dữ kiệu vào ra đƣợc coi là bài toán xấp xỉ phiếm hàm phi tuyến. Nó cũng tƣơng đƣơng với bài toán ƣớc lƣợng hệ thống khi cho một tập mẫu vào ra. Theo quan điểm cổ điển, bài toán này thuộc lý thuyết xấp xỉ. Các lĩnh vực có liên quan có thể kể là các thuật nhận dạng (một khi có thể chọn đƣợc tập dữ kiệu vào), thuật ƣớc lƣợng (Estimation) (một khi cho các tập dữ liệu vào – ra). Lý thuyết xấp xỉ gắn với bài toán xấp xỉ hoặc bài toán nội suy hàm liên tục nhiều biến f(x) nhờ hàm xấp xỉ f(w,x) có các tham số w cố định thuộc tập P.

W = [w1, w2, ..., wn]T

X = [x1, x2, ..., xn]T (3.30)

Để chọn một hàm xấp xỉ F, bài toán đặt ra là tìm tập tham số W đảm bảo khả năng xấp xỉ tốt nhất với f dựa trên tập “ví dụ”. Đây là bƣớc học (learning step), cần phải nói rằng việc chọn các hàm xấp xỉ F là rất quan trọng sao cho F có thể mô tả f bằng cách tốt nhất. Tuy nhiên, ngay cả một số trƣờng hợp với các tham số tối ƣu cũng chỉ chọn đƣợc một xấp xỉ F(w,x) nào đấy chƣa thể mô tả đƣợc f(x) một cách đầy đủ. Từ đó có thể dẫn đến ba nhóm bài toán trong việc xấp xỉ sau đây.

- Bài toán mô tả (Representation problem): Đó là bài toán chọn kiểu xấp xỉ tức chọn lớp hàm f(x) nào đó để xấp xỉ có hiệu quả nhất bởi hàm F(w,x).

- Bài toán học (Learning problem): đó là bài toán chọn thuật toán thích ứng để tìm trị tối ƣu của các tham số W cho hàm F(w,x) đã đƣợc lựa chọn.

- Bài toán chọn công cụ hiệu quả để thực thi các thuật toán song song: có thể dùng công cụ tƣơng tự hoặc công cụ số trên các mạch tổ hợp hoặc chọn công

Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên http://www.lrc-tnu.edu.vn

cụ máy tính. Đối với vấn đề xấp xỉ mạng, điều cơ bản đặt ra là cần bao nhiêu lớp mạng ẩn và mỗi lớp cần bao nhiêu phần tử nơron. Quan điểm lý thuyết chƣa thể cho chúng ta nhìn nhận đầy đủ để xấp xỉ chính xác và một số công trình lý thuyết đã đƣợc nghiên cứu. Nhƣng vấn đề đặt ra là, những lý thuyết đó cần phải đƣợc kiểm chứng khi ứng dụng mạng nơron trên thực tế.

Trong những thập niên vừa qua, đối với vấn đề học, một loạt các thuật học đã đƣợc nghiên cứu để xấp xỉ trọng liên kết, các thuật học có thể chia thành hai nhóm theo sự tồn tại của tín hiệu chỉ đạo là có hay không. Học có tín hiệu chỉ đạo (thầy giáo) hoặc không có tín hiệu chỉ đạo.

3.3. Tính chất kỹ thuật – Cơ chế của chẩn đoán trên cơ sở mạng nơron

Ý tƣởng căn bản của chẩn đoán lỗi trên cơ sở mạng nơron là phép ánh xạ phi tuyến. Với giả thiết là các mối quan hệ giữa véc tơ đầu vào X và véc tơ đầu ra Y đã đƣợc định nghĩa trƣớc bởi đặc tính vật lý tự nhiên của bài toán và những mối quan hệ này có thể đƣợc thể hiện lại bởi một số cặp vào/ra giới hạn (bộ dữ liệu mẫu).

Ứng dụng của mạng nơron trong chẩn đoán lỗi có 2 pha. Pha 1 là quá trình huấn luyện mạng. Trong suốt quá trình này, dữ liệu đƣợc cung cấp cho mạng, các hệ số bộ nhớ của mạng sẽ điều chỉnh tƣơng tác với “bộ nhớ” quan hệ vào/ra. Pha 2 là quá trình kiểm tra. Trong quá trình này, véc tơ đầu vào X đƣợc đƣa vào mạng và các hệ số “bộ nhớ” của mạng đƣợc gọi lại để “tìm” đầu ra Y tƣơng ứng.

Pha 1 thƣờng là một nhiệm vụ xử lý nặng nề và có thể mất rất nhiều các bƣớc lặp để đạt đƣợc độ chính xác theo yêu cầu (đƣợc cụ thể hóa trong các phần sau). Đây là pha mà các nghiên cứu ứng dụng thƣờng tập trung vào, nơi mà thuật toán mạng, véc tơ đầu vào và dạng sơ đồ cấu trúc có thể thay đổi một cách cố ý để có thể tối ƣu quá trình làm việc của mạng. Một khi pha này đƣợc thực hiện xong, các đặc điểm kỹ thuật của mạng sẽ đƣợc khớp với nhau và không thay đổi trong pha kiểm tra. Pha 2 là khá đơn giản, chỉ bao gồm các tính toán sau khi mạng nhận véc tơ đầu vào. Thời gian tính toán khá ngắn với đáp ứng của pha 1. Do vậy có thể ứng dụng thời gian thực cho pha này, ví dụ nhƣ chẩn đoán on-line MBA.

Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên http://www.lrc-tnu.edu.vn

3.4. Ứng dụng mạng nơron để chẩn đoán lỗi tiềm ẩn MBA lực

Nhƣ đã trình bày trong chƣơng 2, bản chất của kỹ thuật DGA là trong việc chẩn đoán lỗi tiềm ẩn trực tuyến là phân tích độ hoà tan của các khí trong dầu. Qua nghiên cứu và thực nghiệm nhiều năm, các chuẩn IEC 599, IEC 599R, C57.104, … là nền tảng cho việc chân đoán. Trong đó các khí đƣợc chuẩn hoá chủ yếu đã đƣợc xác định là H2, CH4, C2H6, C2H4, C2H2, CO và CO2.

Các phƣơng pháp tỉ lệ sử dụng tỉ lệ khí hoà tan của các khí nêu trên làm cơ sở chính của việc chẩn đoán lỗi. Bảng 2. 2. Một số các giám sát chỉ tập trung vào H2 (phƣơng pháp khí chính) trong khi một số khác thì tập trung vào nhiều loại khí khác nữa Bảng 2. 8.

Nhƣ các bảng Bảng 2. 3, Bảng 2. 5Bảng 2. 6 cho thấy đối với phƣơng pháp tỉ lệ theo chuẩn IEC 559 thì mỗi một lỗi tiềm ẩn của MBA có thể tƣơng ứng với nhiều bộ giá trị khác nhau. Chẳng hạn, với lỗi “Hồ quang” tƣơng ứng giá trị R2>0.75. Có thể giá trị thực tế đo đƣợc R2=0.8 hoặc R2=0.95, …

Hình 3. 10. Ví dụ về nhiều bộ giá trị cho một lỗi “Hồ quang điện”

Lỗi R1 R2 R3 R4 Hồ quang (PD cƣờng độ cao) 0.1 0.85 0.35 0.3 0.12 0.8 0.3 0.35 0.15 0.95 0.45 0.3 … … … …

Nhƣ vậy cho thấy với mỗi một lỗi cụ thể, giá trị các chất khí đo đƣợc có thể nằm trong một miền con giá trị. Điều này làm tăng tính phi tuyến đối với quan hệ vào – ra của mạng nơron xây dựng.

MLP là một mạng nơron thông dụng nhất trong các ứng dụng mẫu đƣợc ghi nhận. Ví dụ Hình 3. 11 chỉ ra một mạng MLP 2 lớp ẩn, với hình tròn là các nơron, hình chữ nhật là các khối đầu vào, các mũi tên thể hiện đƣờng truyền của hàm tín hiệu. Đây là một mạng kết nối đầy đủ. Nó có M đầu vào và N đầu ra. Các “bộ nhớ”

Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên http://www.lrc-tnu.edu.vn

là các trọng số giữa các lớp và không đƣợc chỉ ra trên hình nhƣng có thể đƣợc đại diện bởi wij trong quan hệ vào/ra của mạng nhƣ trong công thức (3.31).

Hình 3. 11. Sơ đồ cấu trúc của một mạng MLP 2 lớp ẩn

( ) ( ) ( ) ( ) 0 ( ) . p l l l l j j ij ij i y v w x            (3.31)

Với l: số lớp (l>0, lớp đầu ra là lớp thứ 3); ( )l j

y : đầu ra của nơron thứ j trong lớp thứ l; ( )l

j

v : tổng trọng số các đầu vào của nơron; ( )l ij (adsbygoogle = window.adsbygoogle || []).push({});

x : đầu vào thứ i của nơron (p

đầu vào từ lớp trƣớc và một đầu vào cố định hay còn gọi là hàm ngƣỡng); ( )

wl ij : trọng số gánh của đầu vào thứ i tới nơron; và (.): là hàm kích hoạt nơron.

Hàm (.) là một hàm phi tuyến trơn (là hàm có thể đạo hàm tại mội điểm) và có thẻ có nhiều dạng nhƣ dạng hàm logic (3.32) hay hàm tanghypecbol (3.33).

1 ( ) . 0; 1 exp( ) v a v av          (3.32) ( )v a.tang(bv)   (3.33)

Việc huấn luyện mạng của MLP thƣờng sử dụng thuật toán lan truyền ngƣợc, nó bao gồm 2 đƣờng: đƣờng truyền thẳng và đƣờng truyền ngƣợc. Trong đƣờng truyền thẳng, các trọng số của mạng đƣợc khớp với (3.31) và đƣợc sử dụng lặp đi

Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên http://www.lrc-tnu.edu.vn

lặp lại để thu đƣợc các đầu ra từ các đầu vào thông qua tất cả các lớp. Theo đƣờng phản hồi, tất cả các trọng số đƣợc điều chỉnh theo các hàm sửa sai đƣợc liệt kê dƣới đây: ( ) ( ) ( ) j j e nd ny n (3.34)   ( ) ( ) ( ) ' ( ) l L L j ej vj n

   for neuron j in output layer L (3.35)

  ( ) ( ) 1 l+1 kj ' ( ) ( )w ( ) l l l j j k k v n n n

     for neuron j in output layer l

(l) (l) (l) ( ) 1

ji ji ji

w (n 1) w ( )n w (n 1) jl ( )n yil( )n (3.36) Với n: số bƣớc lặp; e: sai số tín hiệu; d: tín hiệu yêu cầu; '(.) là một hàm vi phân; : thông số tốc độ học;  : hằng số xung lƣợng. Việc chọn  và  sẽ đƣợc đề cập tới ở phần sau của chƣơng này.

Trong quá trình huấn luyện mạng, các mẫu dữ liệu sẽ đƣợc thể hiện trong mạng một cách ngẫu nhiên. Việc thể hiện tất cả các mẫu dữ liệu cho mạng còn gọi là kỷ nguyên luyện mạng, thƣờng cần đến nhiều kỷ nguyên để huấn luyện một mạng.

Việc huấn luyện mạng kết thúc khi bình phƣơng mỗi sai số và/hoặc sai số trung bình hệ thống nhỏ hơn giá trị đặt. Các sai số đƣợc định nghĩa:

2 1 ( ) 2 squared j e  e n  (3.37) 2 1 1 ( ) 2 N averaged j j e e n N       (3.38)

Việc chọn một MLP trong nghiên cứu này là hết sức cơ bản. Trƣớc hết, bài toán chẩn đoán lỗi MBA giống nhƣ bài toán ánh xạ phi tuyến phức tạp cao vì cả đầu vào và ra là dạng đa biến và không có mối quan hệ tuyến tính nào đã biết. Thứ hai, thậm chí là với một mạng MLP 3 lớp (1 lớp ẩn) đã đƣợc chứng minh là có khả năng xấp xỉ hoá bất cứ các hàm nào mà không quan tâm tới tính phức tạp của nó. Các MLP có nhiều lớp ẩn sẽ mạnh hơn. Thứ ba, các mạng MLP có thuật toán huấn luyện lan truyền ngƣợc có giám sát sai số đã đƣợc ứng dụng một cách thành công

Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên http://www.lrc-tnu.edu.vn

để giải quyết các bài toán khó khăn và biến đổi khác nhau. Ngƣời ta hy vọng rằng MLP có thể đáp ứng mọi yêu cầu đặt ra.

Tuy nhiên việc ứng dụng MLP bao gồm nhiều kết quả và đã đƣợc nghiên cứu kỹ hơn trong tài liệu [4]. Các MLP nhiều đầu ra và nhiều lớp ẩn đã đƣợc chứng minh là không phù hợp cho công việc. Mặt khác một MLP một đầu ra và một lớp ẩn đã đƣợc nhìn nhận là khối tốt nhất của model mạng nơron.

Rất nhiều dạng sơ đồ cấu trúc MLP đã đƣợc nghiên cứu và kiểm tra độ chính xác (Atst tính theo phần trăm) đã đƣợc chỉ ra trong [4]. Với M là số đặc trƣng đầu vào của mạng nơron và cấu trúc MLP thể hiện số các lớp và các nút (nơron) trong mỗi lớp. Ví dụ: một sơ đồ cấu trúc MLP: “M-2M-3” có nghĩa là MLP có 3 lớp, số nút cho lớp đầu vào của nó, lớp ẩn và lớp đầu ra là M, 2M và 3.

Khi một MLP có 3 nút trong lớp đầu ra, 3 đầu ra đại diện cho điều kiện “bình thƣờng”, “quá nhiệt” và “phóng điện”. Khi một MLP chỉ có một đầu ra (single output), đầu ra thể hiện tình trạng: hoặc “bình thƣờng” hoặc “quá nhiệt” hoặc “phóng điện”.

3.5. Kết luận

Nội dung chƣơng 3 đã tập trung nghiên cứu về mạng nơron nhân tạo, các mô hình cấu trúc mạng và các vấn đề về luyện mạng. Nội dung chƣơng cũng đã giới thiệu đƣợc ứng dụng mạng nơron trong chẩn đoán sự cố tiềm ẩn của MBA lực dựa trên phƣơng pháp phân tích khí hoà tan trong dầu (DGA). Từ đó lựa chọn ra đƣợc cấu trúc mạng phù hợp cho bài toán chẩn đoán.

Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên http://www.lrc-tnu.edu.vn

CHƢƠNG IV: KẾT QUẢ THỰC NGHIỆM SỬ DỤNG MẠNG NƠRON TRONG CHUẨN ĐOÁN LỖI TIỀM ẨN MBA LỰC

4.1. Lựa chọn cấu trúc mạng tối ƣu

- Theo các tác giả [4] đã chỉ ra, việc lựa chọn MLP 3 lớp là tốt nhất, mặt khác giới hạn nội dung nghiên cứu, chúng tôi chỉ chẩn đoán một số lỗi tiềm ẩn cơ bản với 5 khí đầu vào là H2, CH4, C2H6, C2H4, C2H2, trong đó các lỗi đƣợc chẩn đoán nhƣ bảng Bảng 2. 3.

- Với cấu trúc MLP, thực tế có thể có hai phƣơng án là dùng mạng 1 đầu ra và mạng 3 đầu ra. Bằng các thực nghiệm trên máy tính, chúng tôi nhận thấy sử dụng mang có 3 đầu ra thì việc chẩn đoán lối là thuận tiện hơn cả. Vì vậy, trong luận văn chúng tôi chọn cấu trúc mạng cố định 5–M–3, tƣơng ứng 5 nơron trong lớp đầu vào, M nơron lớp ẩn, 3 nơron lớp ra. (adsbygoogle = window.adsbygoogle || []).push({});

- Vấn đề đặt ra M bằng bao nhiêu thì chất lƣợng quá trình chẩn đoán đƣợc tốt hơn cả. Để gải quyết câu hỏi này, nhóm nghiên cứu đã tiến hành thực nghiệm trên náy tính với các giá trị của M khác nhau. Quá trình chạy thực nghiệm trên máy tính với các điều kiện cho trƣớc nhƣ: kỷ nguyên luyện mạng (echops), đặc tính J, thời gian luyện mạng, … tƣơng ứng với số lớp ẩn M đƣợc thử nghiệm là M = 8, 10, 15, 16. Các kết quả cụ thể cho quá trình luyện mạng và chẩn đoán nhƣ sau:

4.2. Huấn luyện mạng nơron

Hiện nay để luyện mạng nơron có thể sử dụng Neural Network Toolbox trong MATLAB. Tuy nhiên để kiểm nghiệm thực tiễn và tăng tính học thuật chúng tôi đã tự viết một chƣơng trình luyện mạng dƣới dạng M-file, sau đó có sự so sánh kết quả.

Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên http://www.lrc-tnu.edu.vn

4.2.1.Ứng dụng Neural Network Toolbox để luyện mạng Neural MLP 3 lớp

Về thuật toán huấn luyện thì có rất nhiều thuật toán tuy nhiên trong phần mềm mô phỏng chủ yếu dùng thuật toán Levenberg – Marquardt. Ƣu điểm của thuật toán này là tối ƣu về mặt thời gian. Tuy nhiên nhƣợc điểm của nó là cần có bộ nhớ tạm lớn để tính toán.

Bên cạnh đó các thuật toán tính toán về độ sai lệch cũng rất quan trọng nó quyết định khi nào thì ngừng việc huấn luyện. Trong phần mềm Matlab dùng thuật toán MSE (trung bình bình phƣơng sai lệch).

Chương trình huấn luyện mạng:

%---

% The program creat by PPT – phuthiem@gmail.com % Direct contact with PPT

% The program save in PPTnơron.m –

C:\Program\Matlab\Work

% The program simulate train nơron to diagnose Power

tranformer incipient faults.

%---

function y = PPTnơron(p,t)

% Sample input = 300 % Target

% p, t are saved in file inoutDGA.m: -

C\Program\Matlab\Work

% Design Nơron

% Newff - Creat a feed forword backpropagation network

%--- %NEWFF(P,T,S,TF,BTF,BLF,PF,IPF,OPF,DDF) takes,

%P - RxQ1 matrix of Q1 representative R-element input vectors. %T - SNxQ2 matrix of Q2 representative SN-element target vectors. %Si - Sizes of N-1 hidden layers, S1 to S(N-1), default = [].

%(Output layer size SN is determined from T.)

%TFi - Transfer function of ith layer. Default is 'tansig' for %hidden layers, and 'purelin' for output layer.

%BTF - Backprop network training function, default = 'trainlm'. %BLF - Backprop weight/bias learning function, default = 'learngdm'.

%PF - Performance function, default = 'mse'.

%IPF - Row cell array of input processing functions.

%Default is {'fixunknowns','remconstantrows','mapminmax'}. %OPF - Row cell array of output processing functions.

Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên http://www.lrc-tnu.edu.vn (adsbygoogle = window.adsbygoogle || []).push({});

%DDF - Data division function, default = 'dividerand';

%---

Một phần của tài liệu ứng dụng mạng nơ ron chẩn đoán sự cố trong máy biến áp lực (Trang 76 - 101)