1. Trang chủ
  2. » Luận Văn - Báo Cáo

chương trình ứng dụng

25 311 0
Tài liệu được quét OCR, nội dung có thể không chính xác
Tài liệu đã được kiểm tra trùng lặp

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 25
Dung lượng 5,13 MB

Nội dung

báo cáo về chương trình ứng dụng

Trang 1

Chương 3 CHƯƠNG TRÌNH ỨNG DỤNG

3.1 Yêu cầu

Chương trình sau khi xây dựng phải giải quyết được các vấn để chính sau:

- _ Thiết lập được mối liên quan nhân quả giữa biến độc lập x và phụ thuộc y từ

dữ liệu thực nghiệm đưa vào (dựa trên mơ hình thực nghiệm)

-_ Dự đoán được giá trị biến phụ thuộc y từ các giá trị biến độc lập x

-_ Tối ưu các giá trị biến độc lập x theo biến phụ thuộc y (tính chất, giá trị của

biến phụ thuộc y do người dùng yêu câu)

Ngồi ra chương trình cịn có các tính tốn thống kê để đánh giá các giá trị xuất ra từ dữ liệu thực nghiệm ban đầu

3.2 Kỹ thuật trong cài đặt

Chương trình ứng dụng sử dụng kết hợp kỹ thuật mạng neuron, logic mờ và thuật toán di truyền giải quyết bài toán tối ưu hóa cơng thức và quy trình

Thiết lập mơ hình nhân - quả: sử dụng hai kỹ thuật: -_ Mơ hình mạng lan truyền ngược có sửa đổi, cải tiến

-_ Mơ hình ANFIS (mạng neuron kết hợp logic mờ)

Trang 2

65

Thuật toán di truyễn: thuật toán di truyền kết hợp logic mờ - tối ưu hóa cơng thức/ quy trình

Mạng neuron:

Thuật tốn lan truyền ngược cải tiến

Chương trình sử dụng mạng lan truyền ngược dạng 3 lớp: I lớp nhập - | lớp ẩn - 1 lớp xuất Tập N mẫu thử có dạng {(X,Y)} = {XỊ, Xa, ., Xự; Vp You os vị}, với n =1,2, ,N Mỗi giá trị biến phụ thuộc sẽ được luyện riêng biệt (1 nút mạng trong lớp xuất), mạng sẽ luyện I lần cho l biến phụ thuộc Các giá trị trọng số mạng sẽ tương ứng cho từng biến phụ thuộc

Thuật tốn chính là thuật toán lan truyền ngược với một số biến đổi: -_ Tốc độ học và các thông số mạng thay đổi theo quá trình luyện

-_ Thay đổi một số cách tính trong q trình lan truyền ngược nhằm ngăn lỗi

bão hịa [I1]

Thuật tốn Backpropagation cải tiến: (cài đặt trong chương trình)

Trong thuật toán backpropagation dùng kỹ thuật ngăn lỗi bão hòa - ngăn chận hiện tượng bão hòa sớm và cải tiến tốc độ - và kỹ thuật điều chỉnh tốc độ học bằng thay đổi tính hiệu gradient

Thuật tốn được trình bày với W mẫu luyện, 7s biến độc lap Uns nit nhap), Outs

biến phụ thuộc (để don gin cho Outs = 1, mỗi biến phụ thuộc tương ứng với một

tập trọng số luyện khác nhau, Øzs nút xuất) và Hids nút ẩn: Bước 1: khởi tạo các giá trị trọng số và thông số mạng

Trang 3

max min

V6i Vinax VA Vin 14 cc gid trị thô cực đại, cực tiểu của các biến số x, y Và Tmạy=

0.9; Trin = 0.4:

Bước 2: lan truyền tiến:

Với mang 3 I6p 1 in - 1 hid - 1 out tinh giá trị tại các nút dựa trên trọng số Giả sử tại một nút mạng có giá trị xuất là z¿, thi: z = f(u)

VỚI U = XI.WIj + Xa.W2j + + Xn.Wnj + Wọ (W: trọng số)

hàm truyền f: người sử dụng chọn một trong 3 hàm Ham logistic

f(u) = logistic(u) = the + Hàm hyperbol f(u) = hyperpol(u) = TS 1+e 7 Ham tang-hyperbol u ~u

f(u) = tanh(u)= Š——S— e+e

Bước 3: lan truyền ngược (sử dụng phương pháp ngăn lỗi bão hòa)

Cập nhật lại trọng số dựa trên sai số trung bình bình phương Quá trình lan truyền ngược dùng kỹ thuật ngăn lỗi bão hòa và điều chỉnh tốc độ học giúp tăng khả năng học, dự đoán và giảm thời gian hội tụ của quá trình học

Trang 4

67

Giảm tốc độ học xuống, nếu E, tăng liên tục vượt một số lần nhất định thì E, sẽ được lấy lại giá trị tốt nhất cùng với trọng số tương ứng (các hệ số tốc độ học được sử dụng tiếp tục)

Bước 5: nếu sai số trung bình bình phương E > 0.0001 hay số lần lặp chưa đến ngưỡng ấn định: lặp lại bước 2;

nếu khơng: thốt ra và xuất kết quả dự đoán trên dữ liệu luyện, kết quả xuất ra được ánh xạ trở về không gian ban đầu

EXp = Vin (fo (Vinax — Ve) công thức 3.2.2

với V„„„ và Vua là các giá trị thô cực đại, cực tiểu của biến, và T„a„=0.9, T„¡ạ = 0.1, Act là giá trị kết xuất thực của mạng và Exp là giá trị cần tìm của biến phụ

thuộc

ANFIS

Thuật toán cài đặt dựa trên kiến trúc mạng 5 lớp của mơ hình ANFIS, cho phép chọn số tập mờ (số tập mờ càng nhiều - số luật khởi tạo càng nhiều) trong lúc khởi tạo luật Mơ hình sử dụng trong hệ mờ là Sugeno (TSK), hàm thành viên:

triangular hoặc trapezoid (tùy chọn)

Thuật toán cài đặt chính

Thuật tốn dùng mạng 5 lớp, rút luật từ tập dữ liệu dùng kỹ thuật chọn trực tiếp

[trang 42]

Trang 5

oơ xo

o! a

Các tham số p, q, r được khởi tạo ngẫu nhiên

O,; = Wf = W\(px + gy +r)

Vi du: (vién nén Cafein) Số khoảng mờ: 3

Cho dữ liệu luyện (xị, xạ; y), với:

(min,¡ = 44.5, max,¡ = 47.5, min,¿= 0, maxx¿= l; miny = 3.84, max,= 13)

Trang 6

69 Cx2 0.5 0.75 1 Biến phụ thuộc y ay | 3.84 | 6.13 §.42 by | 6.13 | 8.42 | 10.71 cy | 842 | 10.71 13

Các đồ thị biểu dién twong ting x), x, y:

Trang 7

384 6.13 842 10.71 13

(c)

Bước 1: rút luật từ dữ liệu luyện: ý tưởng chính dựa trên rút luật trực tiếp từ dữ liệu luyện Tính tốn các giá trị dữ liệu luyện dựa trên các khoảng mờ Rút luật

từ dữ liệu dựa vào khoảng mờ và hàm thành viên tương ứng [trang 42], tính giá trị xuất lần lượt ở các nút mạng [trang 37, 38]

Bước 2: cập nhật lại khoảng mờ và hàm thành viên

Bao gồm các giá trị a, b, c, các khoảng mờ và p, q, r tính kết xuất Cơng thức tổng hợp ở lớp 1 (2.3.1): các giá trị a, b, c 0 x<a mm a<x<b O¿¡ = /(X) = ga —— bsxsc c-b 0 Gi4;X Công thức tổng hợp ở lớp 4 (2.3.4): p, 4, r

O,,; = Wif, = Wi(px+ gy +r)

Kỹ thuật cập nhật các tham số dựa trên phương pháp giầm đốc nhất Để đơn giản thuật toán, giả sử với dữ liệu luyện (x, y; z8:

Trang 8

71

Đưa về cách tính tương tự như thuật toán lan truyền ngược, f cập nhật ở bước

(t+1):

t(t+19=a{()—e Ẽ=af()—z(O-z)———W_——— công thức 3.2.3

af, W,+W, + +Wa

với m là số luật, œ là hằng số moment, e là tốc độ học

mà Í¡= p¡X + Q¡y + Tị

khi đó, các giá trị tham số p, q, r được cập nhật:

plt+1) =ap(t) eZ = ap,(9—z(o—z) 2Ð ap, ap, công thức 32.4

q,(t + 1) = aq,(t) - Se = aq,(t)- e(O- 22 công thức 3.2.5

i d9;

rte) = ant) = - anit) (0-2) = công thức 3.2.6

i i

Bước 3: nếu sai số trung bình bình phương E > 0.001 hay số lần lặp chưa đến ngưỡng ấn định: lặp lại bước 2;

nếu khơng: thốt ra và xuất kết quả dự đoán trên dữ liệu luyện Thuật tốn di truyền

Q trình tối ưu dùng thuật toán di truyền kết hợp logic mờ (hàm trapezoid),

Trang 9

mạng neuron Các giá trị thích nghỉ của từng cá thể là giá trị có được từ hàm thích nghi nhưng đã được xử lý làm mờ hóa

Thuật tốn cài đặt chính trong chương trình:

Bước 1: khởi tạo quần thể: một phần phát sinh trong giới hạn max, min của biến

độc lập cho phép; một phần dùng lại dữ liệu luyện có sẵn ban đầu (các giá trị biến độc lập) làm các các thể trong quần thể

Bước 2: tính giá trị thích nghỉ dựa trên mơ hình nhân quả thiết lập từ mạng

neuron

Bước 3: sao chép lại các nhiễm sắc thể dựa vào giá trị thích nghi của chúng và tạo ra những nhiễm sắc thể mới bằng việc kết hợp các nhiễm sắc thể hiện tại (dùng các toán tử lai ghép, đột biến, tái kết hợp)

Bước 4: loại bỏ những thành viên khơng thích nghỉ trong quần thể

Bước 5: chèn những nhiễm sắc thể mới vào quần thể để hình thành quần thể

mới _

Bước 6: quay lại bước 2 cho đến khi việc tối ưu chưa đạt điều kiện định trước (100%) hay số vòng lặp chưa đạt tối đa

Với việc kết hợp với logic mờ, khi xác định các giá trị biến phụ thuộc thơng qua

mơ hình nhân quả được thiết lập từ mạng neuron các giá trị này sẽ được ánh xạ

sang các giá trị mờ nhờ các hàm thành viên được xác định bởi người sử dụng Với cách định nghĩa tối ưu biến phụ thuộc, biến phụ thuộc được xem là tối ưu khi giá trị được ánh xạ qua hàm thành viên bằng 1 Như vậy:

Trang 10

B Các dạng hàm mờ dùng trong quá trình tối wu Ham mdi bang (Flat Tent): gid tri toi wu

được xác định trong khoảng từ Midl đến Mid2 Mức tối ưu giẩm từ Mid1 đến Min và Mid2 đến Max

Hàm lên dốc (Úp): giá trị tối ưu được

xác định trong khoảng từ Mid1 = Mid2 đến Max Mức tối ưu giảm từ Midl đến Min

Hàm xuống đốc (Down): giá trị tối ưu được xác định trong khoảng từ (Mid1 = Mid2) đến Min Mức tối ưu giảm từ Mid2 đến Max

Hàm phẳng (Flat): giá trị tối ưu được

xác định một cách linh hoạt là bất kỳ

điểm nào trong khoảng từ Min đến

Max

3.3 Kết quả

Trang 11

Giao diện chính của chương trình:

i fe vw, Teale vớ Họ Sis alex

nlelnl ø| x|eje| »|;|u| =|=|s|

[Given Suen PPX 15 455 455 4s Hs “6 465 us as 45 85 “ as 465 465 us H5 485 355 Hình 3.3.1 Màn hình chính của chương trình Ấn định biến độc lập và phụ thuộc FieldName | Flodtype | Mà Na 7 Joven ingredient 3 7 [2|penE — ngàn “ Hs

[xipzx Finder atin gedit Tớ 2 9 5 '

5 [Gnmeup — mgadem 0 1

[8 lHemhan — Pmmmg [2 [fmuUy - may 8 ]Dehiepins

Trang 12

73 An định thông số luyện mạng

ee

Maximal Epoch 6000 ~—=S*~*«~N Hidden Node fT ” : 0K

Enor Poor Learning rate = 03 only

| Tranfer function [Logistic =] Mememvm E7 ca

— ph 4

| Decimal Places Bo © ANFIS (Neuro-Fuzzy) | Test (%) io 7 FuNN (Fuzzy-Neural Nework

| Options jack Propagat Hình 3.3.3 Màn hình ấn định thơng số luyện mạng Kết quả luyện mạng allt

2: fi ES Yow tow, Wes io Sais

pieigl ø| 4 Iaj ala] ae

(rare eo ames

= Yo Seen Yon tan (lan eae t

[AA AT EAL RS

in a dea gone” Fray Fin oes Sua” Gai ene 301 sot 078% 202 39 e457 % sẽ

3e: an ane or rasa

1s i 7 ‘

fet as -I8lxt

re] HỊ 48 2 bist a) sll) ol rie) esis) NHI

eee Come se foe | ome |

BỊ ra

HH oS zs 5 seme |] 1mm T 1

na aan £ one et i t 1

rel as [T[Esmen Haines prodee RSSmea_ Fonbiny — Fraoiy_gadcied RSqusa Ormtegiim Oanleg iene pred Fe

tat se [2] sm “om? - DISD Aa] ASDSUET

Hs} 78 DỊ 6a s88 " 068979 ` [ef ww] t8 74 gat ai 105 ml 1m i El fIESEREEEEEI

Trang 13

Thí dụ cơng thức

Cơng thức pha chế viên nén cafein (xem phụ lục) Mục tiêu tối ưu hóa

Xác định nổng độ của các nguyên liệu và điều kiện pha chế gốc:

X, = loai ta dược rã

xạ = nông độ tá được rã (%)

Xạ= nồng độ tá dược dính PVP (%) Xa = cách thêm PVP

Xs = thiết bị làm cốm

sao cho viên nén cafein đạt các yêu cầu:

y¡ = độ cứng = 8 - 10 kP ya = độ mài mòn < 2%

Y¿ = thời gian tan rã < 900 giây (15 phút)

Kết quả

Thuật toán Backpropagation

Mẫu luyện:

Trang 14

77 12 9.4 8.28 0.3 0.63 1360 1251.36 13 7.48 8.23 0.63 0.43 1378 1327.61 14 7.44 8.21 0.49 0.17 1450 1320.02 15 9.41 9.69 0.22 0.63 442 495.08 16 10.78 10.19 0.15 0.43 626 483.06 17 10.5 10.56 01 0.15 713 524.42 18 10.08 10.39 0.08 0 750 695.83 19 7.17 7.35 0.92 0.8 161 304.66 20 6.93 6.5 0.73 0.62 326 320.8 21 6.87 6.59 0.71 0.37 327 445.83 22 6.96 7.21 0.35 0.06 590 674.39 23 9.84 10.02 0.24 0.76 647 681.06 24 12.44 12.38 0.12 0.59 1520 1149.39 25) 13 12.59 0.13 0.42 1422 1321.55 26 12.29 11.59 0.25 0.78 950 683.85 27 11.07 11.84 0.26 0.75 837 948.03 28 10.92 11.59 0.23 0.68 951 1133 29 11.28 10.78 0.22 0.54 1077 1166.7 Mẫu thử

Stt yi yi_predicted % y2_predicted y3 y3_predicted

1 3.84 4.78 3.72 2.86 827 835.05 2 5.56 4.56 2.89 1.98 550 613.57 3 11.46 11.53 0.15 0.7 1377 863.62 Thong ké: yt y2 33 RẺ luyện 93.56% 64.14% 84.42% R? thir 94.94% 83.64% 25.23%

Tối ưu hóa:

y, = Tent (8 — 10 kP)

Trang 15

y3 = Down (< 900 giây) điều kiện x; < 3 Int€ger: Xị, Xạ Và Xs XI X; X X Xs yi Y2 ¥3 Lần I 0 47.500 2.00 0 1 9.927 0.551 468.309 Lần 2 0 45.355 2.95 1 1 8.339 0.550 307.935 Lần 3 0 47.520 271 1 9.054 0.131 484.881 Lần 4 0 47.397 2.03 1 9.02 0.563 407.965

Thuật toán ANFIS

Mẫu luyện:

Trang 16

79 21 6.9 7.091 0.73 0.782 326 243.489 22 6.9 6.9 0.71 0.71 327 327 23 98 10.657 0.24 0.119 647 1011.996 24 11.5 10.604 0.15 0.245 1377 1011.994 25 12.4 12.716 0.12 0.16 1520 1470.973 26 13 12.78 0.13 0.135 1422 1471.025 27 12.3 11.756 0.25 0.233 950 893.482 28 111 117 0.26 0.193 837 893.551 29 113 113 0.22 0.22 1077 1077 Mẫu thử:

Stt yi yi_predicted % y; predicted y3 y3_predicted I 5 5.56 2.92 3.04 633 549.86 2 10.9 11.175 0.23 0.146 951 1077.058 3 7 6.839 0.35 0.728 590 326.951 Thong ké: yt ya Ys RẺ luyện 97.24% 99.6% 98.21% R? thử 97.68% 99.87% 94.32%

Tối ưu hóa:

Trang 17

Lân 3 0 46.96 2.935 0 i 10.095 0.179 534.066

Lần 4 0 47.35 2.890 0 1 10.083 0.168 534.070

Lần 5 0 4136 23 0 1 9.4 0.22 441.99

Thi du quy trinh

Chiết xuất saponin toàn phần từ hạt gấc M cochinchinensis (xem phụ lục) Mục tiêu tối ưu hóa

Xác định điều kiện chiết xuất:

x, = cách chế biến hạt gấc x; = nồng độ cồn (dung môi) x; = nhiệt độ chiết xuất

xạ = tỷ lệ dược liệu/ dung môi sao cho sản phẩm đạt các yêu cầu: y¡ = tỷ lệ saponin = tối đa (%)

y; = tỷ lệ tạp chất = tối thiểu (%)

Với quy trình này dùng thuật tốn BackPropagation, ANFIS không dùng được vì q ít mẫu luyện

Trang 18

81 5 0.075 0.075 0.014 0.015 6 0.055 0.055 0.024 0.025 a 0.023 0.022 0.001 0.002 8 0.033 0.035 0.003 0.004 9 0.038 0.030 0.02 0.018 10 0.021 0.029 0.023 0.025 11 0.031 0.029 0.003 0.004 12 0.066 0.067 0.004 0.002 13 0.078 0.075 0.014 0.015 14 0.051 0.052 0.031 0.029 Mẫu thử:

Stt 9 yi_predicted Yo y¿ predicted

1 0.034 0.036 0.001 0.016 2 0.026 0.025 0.001 0.019 Thong ké: yt y2 R? luyện 95.28% 98.1% R’ thit 81.68% 100%

Tối ưu hóa: yi = Up (> 0.05) y2 = Down (< 0.016) integer: x), X3 Va X4 Xt % %3 X4 yi Ya Lần 1 1 48.367 1 1 0.067 0.003 Lần 2 1 61.780 1 1 0.068 0.001

Điều kiện quy trình chiết xuất tối ưu:

Trang 19

x; = nồng độ côn (dung môi) = 61.78 xạ = nhiệt độ chiết xuất = 80 °C (1)

xạ = tỷ lệ dược liệu/ dung môi = I:5 (1)

tính chất dự đốn của sản phẩm: y¡ = tỷ lệ saponin = 0.068 (%) y; = tỷ lệ tạp chất = 0.001 (%)

3.4 Đánh giá kết quả thử nghiệm 3.4.1 Phương pháp thống kê

Một vài phương pháp thống kê thường được dùng đánh giá độ đúng và độ chính xác của một phương pháp:

Đánh giá chéo

Khi luyện, kiểm tra mạng với nhóm luyện và nhóm thử, mơ hình được thiết lập

từ nhóm luyện sẽ được dùng để dự đoán các tính chất của cơng thức trong nhóm thử Thơng thường phương pháp dùng đánh giá khả năng của mạng là dùng giá

tri R’, hai giá trị R” luyện và RŸ thử được tính theo công thức:

Xữ,~0)

R? - (1-33 }100 = 1-+ |100 công thức 3.4.1.1

>;0,—y) 7

y: giá trị thực nghiệm

Trang 20

83

Thông thường giá trị R” luyện > 90% và giá trị R”thử > 70% thì mơ hình có thể chấp nhận được Giá trị RŸ thử càng tiến tới 100 thì khả năng dự đốn của mơ hình càng tốt

Phương pháp này được chọn trong quá trình cài đặt để đánh giá độ chính xác của chương trình

Thử từng trường hợp

Cho n công thức, mỗi lân có n-1 cơng thức được dùng để luyện mạng và sau đó mơ hình sẽ được dùng để dự đốn tính chất của cơng thức cịn lại Quá trình thử được tiếp tục cho đến khi nào tất cả công thức đều được dự đoán về tính chất

-_ Lần l: cơng thức 1 được loại khỏi nhóm đữ liệu, n-1 cơng thức còn lại được dùng luyện mạng, có được giá trị dự đoán Ệ¡

-_ Lần 2: công thức 2 được loại khỏi nhóm dữ liệu, n-l cơng thức cịn lại được dùng luyện mạng, có được giá trị dự đoán 9z

- Lần n: công thức n được loại khỏi nhóm dữ liệu, n-1 cơng thức cịn lại được

dùng luyện mạng, có được giá trị dự đoán Ÿạ

Sau cùng, biểu đổ phân tán giữa các giá trị thực nghiệm và các giá trị dự đốn

được trình bày:

Trang 21

AX IDI) 400 công thức 3.4.1.2

PB sÌ' ——C `“

dy? - (Syl F - (I

Giá trị của hệ số tương quan (Ry;) càng gần 100 thì khả năng dự đốn của mơ hình càng chính xác

3.4.2 So sánh với chương trình INForm 3.0 [Phụ lục] Thí dụ cơng thúc

Kết quả tối tu với chương trình INForm 3.0

xị = loại tá dược rã Lactose (0)

x; = nông độ tá được rã (%) = 47.50% x; = nồng độ tá dược dính PVP (%) = 2.70% xạ = cách thêm PVP = phun dung dịch (0)

x; = thiết bị làm cốm = máy sấy tầng sơi (1) tính chất dự đoán:

y¡ = độ cứng = 9.62 kP

y2 = độ mài mòn = 0.19%

y3 = thời gian tan rã = 395.04 giây

So sánh thống kê giữa thuật toán cài đặt và INForm 3.0

Kiểm tra chéo giữa INForm 3.0 và các thuật toán trong chương trình Kết quả tối ưu cla INForm 3.0:

XI X2 Xã Xq Xs v1 Y2 ¥3

Trang 22

§5

Ding gid trị độc lập của INForm 3.0 để ước tính giá trị phụ thuộc với hai thuật

toán BackProp cải tiến và ANFIS

YI Ÿ› ¥3 BackProp 8.576 0.859 569.437 ANFIS 9.459 0.158 441.948

INForm 3.0 9.62 0.19 395.04

Kết quả thống kê phân tích phương sai hai yếu tố không lặp cho từng cặp kết quả: ANEIS và BackProp F = 0.996 < Foos = 18.512 ANFIS va INForm 3.0 F = 0.988 < Foo5 = 18.512 BackProp va INForm 3.0 F = 0.993 < Foos = 18.512

Dùng giá trị độc lập (trong trường hợp tối ưu) của BackProp để ước tính giá trị

phụ thuộc với INForm 3.0 va ANFIS

Kết quả tối ưu BackProp:

XI X2 X3 Xã Xs Nv y2 y3 0 47.397 2.03 0 1 9.02 0.563 407.965 Yi Yo Ys BackProp 9.02 0.563 407.965 ANFIS 9.4 0.22 441.99 INForm 3.0 9.577 0.342 374.914

Trang 23

ANFIS va BackProp F=1.001 < Foos = 18.512 ANFIS va INForm 3.0 F = 0.986 < Foos = 18.512 BackProp va INForm 3.0 F =0.969 < Fos = 18.512

Dùng giá trị độc lập (trong trường hợp tối ưu) của ANFIS để ưóc tinh giá trị phụ thuộc với INForm 3.0 và BackProp

Kết quả tối ưu ANFIS:

Xị X2 X3 X Xs yi Ỳ ¥3 0 47.36 23: 0 1 9.4 0.23 442 yi yz ¥3 BackProp 10.17 1.43 562.86 ANFIS 9.4 0.23 442 INForm 3.0 9.594 0.246 386.099

Trang 24

§7

Như vậy, với kết quả phân tích phương sai hai yếu tố không lặp, giá trị dự đoán

bởi hai thuật toán được cài đặt và chương trình INForm 3.0 khơng có sự khác

nhau về mặt thống kê Œ < Foos) Thí dụ quy trình

Kết quả tối ưu với chương trình INForm 3.0 xị = cách chế biến hạt gấc = B (1)

x; = nồng độ cồn (dung môi) = 67.65 X3 = nhiệt độ chiết xuất = 80 °C

xạ = tỷ lệ dược liệu/ dung môi = 1:5 (1)

Tính chất dự đoán của sản phẩm: y¡ = tỷ lệ saponin = 0.1 (%) yo = ty lệ tạp chất = 0.01 (%)

So sánh thống kê giữa thuật toán cài đặt và INForm 3.0

Kiểm tra chéo giữa INForm 3.0 và các thuật tốn trong chương trình Kết quả tối ưu của INForm 3.0:

Xi X2 x Xq yi ¥2

J 61.65 1 1 0.10 0.01

Dàng giá trị độc lập của INForm 3.0 để ước tính giá trị phụ thuộc với thuật toán

BackProp cải tiến

Ba y2

BackProp 0.068 0.001

INForm 3.0 0.10 0.01

Trang 25

BackProp và INForm 3.0

E=3.177 < Foos = 161.446

Dùng giá trị độc lập (trong trường hợp tối wu) của Backprop để ước tính giá trị

phụ thuộc với INForm 3.0 Kết quả tối ưu BP:

XI x2 X3 X4 yt y2 } 61.778 1 1 0.068 0.001 ĐÁ y2 Backprop 0.068 0.001 INForm 3.0 0.086 0.0046

Kết quả thống kê phân tích phương sai hai yếu tố không lặp:

BackProp và INForm 3.0

F=2.25 < Foo5 = 161.446

Như vậy, với kết quả phân tích phương sai hai yếu tố không lặp, giá trị dự đoán

Ngày đăng: 10/04/2013, 10:47

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w