1. Trang chủ
  2. » Luận Văn - Báo Cáo

Bài Tiểu Luân Thứ 3.Docx

21 5 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 21
Dung lượng 534,38 KB

Nội dung

CHƯƠNG 2 MỘT SỐ PHƯƠNG PHÁP ĐIỀU KHIỂN 1 Điều khiển mờ 1 1 Khái nhiệm cơ bản Để hiểu rõ khái niệm “MỜ” là gì ta hãy thực hiện phép so sánh sau Trong toán học phổ thông ta đã học khá nhiều về tập hợp,[.]

CHƯƠNG 2: MỘT SỐ PHƯƠNG PHÁP ĐIỀU KHIỂN Điều khiển mờ 1.1 Khái nhiệm Để hiểu rõ khái niệm “MỜ” ta thực phép so sánh sau : Trong tốn học phổ thơng ta học nhiều tập hợp, ví dụ tập số thực R, tập số nguyên tố P={2,3,5, }… Những tập hợp gọi tập hợp kinh điển hay tập rõ, tính “RÕ” hiểu với tập xác định S chứa n phần tử ứng với phần tử x ta xác định giá trị y=S(x) Giờ ta xét phát biểu thông thường tốc độ xe mơtơ : chậm, trung bình, nhanh, nhanh Phát biểu “CHẬM” không rõ km/h, từ “CHẬM” có miền giá trị khoảng đó, ví dụ 5km/h – 20km/h chẳng hạn Tập hợp L={chậm, trung bình, nhanh, nhanh} gọi tập biến ngôn ngữ Với thành phần ngôn ngữ x k phát biểu nhận khả μ( x k ) tập hợp F gồm cặp (x, m(xk)) gọi tập mờ 1.1.1 Khái niệm mờ Tập mờ F xác định tập kinh điển B tập mà phần tử cặp giá trị (x,mF(x)), với x ∈ X μ X ( x) ánh xạ : mF(x) : B ® [0 1] : mF gọi hàm thuộc , B gọi tập 1.1.2 Độ cao miền xác định miền tin cậy tập mời Hình 2.1  Độ cao tập mờ F giá trị h = ¿ μ F ( x ), ¿ μ F ( x )chỉ giá trị nhỏ tất chặn hàm μ F ( x )  Miền xác định tập mờ F, ký hiệu S tập thoả mãn : S=Supp μ F ( x )={ x ∈ B∨μ F ( x )> }  Miền tin cậy tập mờ F, ký hiệu T tập thoả mãn : T ={ x ∈ B∨μ F ( x )=1 }  Các dạng hàm thuộc (membership function) logic mờ Có nhiều dạng hàm thuộc : Gaussian, PI-shape, S-shape, Sigmoidal, Z-shape … 1.1.3 Các phép toán tập mờ Cho X,Y hai tập mờ không gian B, có hàm thuộc tương ứng mX, mY , : - Phép hợp hai tập mờ : X  Y + Theo luật Max μ X ∪Y (b)=Max{ μ X ( b), μY (b) } + Ttheo luận Sum μ X ∪Y (b)=Min{1, μ X (b)+ μY (b)} + Tổng trực tiếp μ X ∪Y (b)=μ X (b)+ μ Y (b)−μ X (b) μY (b) - Phép giao hai tập mờ : X  Y + Theo luật Min μ X ∪Y (b)(b)=Min{ μ X (b), μY (b) } + Theo luật Lukasiewicz μ X ∪Y (b)=Max {0, μ X (b)+ μY (b)−1} + Theo luật Prod μ X ∪Y (b)=μ X ( b), μY (b) - Phép bù mờ μ X (b)=−1 μ X ( b) c 1.1.4 Các phép toán tập mờ 1- Phép giao Định nghĩa (theo Zadeh) ~ Giao hai tập mờ ~ A B có sở X tập mờ xác định sở X có hàm liên thuộc xác định biểu thức: ~ A ∪~ B : μ~A ∪ ~B (x )=mac=x { μ~A ( x ) , μ~B ( x ) } Hình: Hợp hai tập mờ Tổng quát hợp hai tập mờ biểu điễn bở S (S-nom)  A B ( x) S   A  x  ,  B  x   Chuẩn S ánh xạ (0,1] × (0,1} → (0,1] thỏa mãn tính chất: - S(a,0) = a - S(a,b) ≤ S(c,d) a < c, b ≤ d - S(a,b) = S(b, a) (tính giao hốn) - S(S(a,b),c) = S(a,S(b,c)) (tính kết hợp) Các cơng thức sau thường sử dụng để lấy hợp hai tập mờ Trong điều khiển mờ, chuẩn S thường sử dụng MAX (công thức Zadeh) 2- Phép bù Đĩnh nghĩa Bù tập mờ ~ A định nghĩa tập sở X tâp mờ xác định sơ X có hàm liên thuộc xác định biểu thức : A :  A ( x) 1   A ( x) Hình :Phép bù tập mờ 1.1.5 Biến ngôn ngữ giá trị ngôn ngữ Con người suy nghĩ giao tiếp với ngôn ngữ tự nhiên Vì muốn thiết kế điều khiển bắt chước suy nghĩ, xử lý thông tin định người, trước tiên cần phải biểu diễn ngôn ngữ tự nhiên mơ hình tốn học Đặc điểm ngơn ngữ tự nhiên chứa thông tin mơ hồ, không chắn, mà tập hợp mờ chứa thông tin mơ hồ không chắn nên rõ ràng thấy dùng tập mờ để biểu diễn ngôn ngữ tự nhiên Trong mục xét khái niệm biến ngôn ngữ Trước tiên xét khái niệm biến mờ Biến mờ Biến mờ biến đặc trưng phần tử (a, X, p(x)), a tên biến, X tập hợp sở, μα ( x ) tập mờ định nghĩa sở X biểu diễn hạn chế mờ (fuzzy restriction) ngụ ý a Biến ngôn ngữ Biến ngôn ngữ biến mà giá trị từ (word) Ví dụ “mực chất lỏng” biến ngơn ngữ có giá trị từ “cao”, “thấp” Trong lý thuyết tập mở biến ngôn ngữ định nghĩa sau: Biến ngôn ngữ biến bậc cao biến mờ, lấy biến mờ làm giả trị Theo định nghĩa này, biến ngơn ngữ “mực chất lỏng" nhận giá trị (cao, X , μcao ( x ) ¿ (thấp, X , μThap ( x ) ¿ Dễ thấy định nghĩa rõ ràng hơn, “mực chất lỏng” nhận giá trị “cao” (hoặc "thấp"), từ “cao” (hoặc "thấp") mô tả tập mờ X , μcao ( x )(hoặc hấp μThap ( x ) ¿xác định sở X Vì biến mờ giá trị biến ngơn ngữ nên cịn gọi giá trị ngôn ngữ (linguistis term) 2.1.6 Mệnh đề mờ Đinh nghĩa Mệnh đề mờ, ký hiệu P , phát biểu có chứa thơng tin khơng rõ ràng Các phát biểu diễn tả ý tưởng chủ quan mô tả chiều cao trọng lượng người thường mệnh để mở Trong kỳ thuật, phát biểu có dạng sau mệnh đề mở: - “Nhiệt độ” “cao” - “Mực chất lỏng” “thấp” - “Vận tốc” “trung bình” Như vậy, mệnh đề mờ phát biểu có dạng: "biến ngơn ngữ" “giá trị ngơn ngữ” Về mặt tốn học, mệnh đề mở biểu thức: P : x  A Tập mờ Ã đặc trưng cho giá trị ngôn ngữ mệnh đề mờ Khác với mệnh đề kinh điển có hai khả sai (0 1), giá trị thật mệnh đề mờ giá trị nằm đoạn (0,1] Gọi T( P ) giá trị thật mệnh để mờ P , T( P ) ánh xạ: T  P  : X   0,1 x   A  x  Trong X tập sơ mờ Ã Nói cách khác : T (~ P ) =μ~A ( x )với ≤ μ~A ( x ) ≤ ~ Biểu thức cho thấy “độ đúng” mệnh đề P : x ∈ A độ phụ thuộc x vào tập mờ Ã 1.1.7 Các phép toán mệnh đề Các mệnh đề mờ kết hợp với qua phép toán luận lý Gọi ~ P mệnh đề ~ mờ tương ứng với tập mờ Ã, ~ Q mệnh đề mờ tương ứng với tập mờ B Tương tự với mệnh đề kinh điển, có phép tốn sau mệnh đề mờ Phép phủ định (Negation), Phép hợp (Disjunction), Phép giao (Conjunction), Phép kéo theo (Implication) 1.1.8 Quy tắc mờ Quy tắc mờ phát biểu thì, mệnh đề điều kiện mệnh đề kết luận mệnh đề mờ Trong mệnh đề điều kiện có phép giao, phép hợp phép phủ định 1.1.9 Hệ quy tắc mờ 1-Tính liên trục (Continuity) Định nghĩa Hệ quy tắc mờ gọi liên tục quy tắc mờ có mệnh đề điều kiện kề mệnh đề kết luận phải kề Để làm rõ điều trước hết xét khái niệm tập mờ kề tập mờ có thứ tự: A1  A   Ai   Ai  Ai 1  ~ ~ ~ ~ Trong A i−1… A i hai tập mờ kề nhau, A ivà A i+1 hai tập mờ kề Hai tập mờ kề chồng lên Ví dụ phân hoạch mờ, có tập mờ kề chồng Chúng ta biết mệnh đề điều kiện quy tắc sư giao hay hợp nhiều mệnh đề mờ Do đó, hai mệnh đề điều kiện gọi kề chúng khác mệnh đề thành phần, mệnh đề thành phần khác phải tương ứng với hai tập mờ kề 2- Tính quán (Consitency) Tính quản hệ quy tắc mờ thể thống tri thức biểu diễn quy tắc mờ Ví dụ, hệ quy tắc mờ điều khiển lị nhiệt sau khơng qn: nhiệt độ thấp cơng suất đốt nóng tăng nhiệt độ thấp cơng suất đốt nóng giảm Chúng ta cho hệ quy tắc thiết kế khơng tốt Điều đúng, nhiên khơng qn xảy hệ quy tắc phức tạp Việc sử dụng liên từ (OR) dẫn đến khơng qn 3- Tính hồn chỉnh (Completeness) Tinh hoàn chỉnh hệ quy tắc mờ thể hoàn chỉnh tri thức biểu diễn quy tắc mờ Một hệ quy tắc mờ khơng hồn chỉnh có điểm trống (blank spots), nghĩa có số trường hợp tín hiệu ngõ vào dẫn đến không xác định tác động ngõ Điều khơng có nghĩa hệ quy tắc khơng hồn chỉnh kết suy diễn khơng tồn Tính hồn chỉnh hệ quy tắc mờ phụ thuộc nhiều vào hình dạng vị trí tập mờ sử dụng mệnh đề điều kiện quy tắc Độ hoàn chỉnh (Completeness Measure) hệ quy tắc mờ gồm k quy tắc n tín hiệu vào xác định bởi:  n  CM ( x )    Aij ( xi )  j i  i 1  k ~ Trong A ij ( x) hàm liên thuộc tập mờ tương ứng với giá trị ngôn ngữ biến ngôn ngữ thứ i quy tắc thứ j; x vector tín hiệu vào Độ hồn chỉnh CM(x) hệ quy tắc mờ có giá trị lớn vector tín hiệu vào x nằm miền xác định mệnh đề điều kiện quy tắc mờ hệ Dùng hàm CM(x), đánh giá độ hồn chỉnh hệ quy tắc mờ vector tín hiệu vào sau: CM(x) = : hệ quy tắc mờ khơng hồn chỉnh (incompleteness) < CM(x) < hệ quy tắc mờ thiếu hoàn chỉnh (subcompleteness) CM(x) = : hệ quy tắc mờ hoàn chỉnh (strict completeness) CM(x) > : hệ quy tắc mờ hoàn chỉnh (overcompleteness) Sự thiếu hoàn chỉnh, hoàn chỉnh hoàn chỉnh hệ quy tắc mờ mức độ hồn chỉnh trái ngược với khơng hồn chỉnh Dễ thấy hệ quy tắc mờ có tính chất khác miền khác khơng gian tín hiệu vào Ví dụ, số miền hệ quy tắc q hồn chỉnh, trong miền khác hệ quy tắc thiếu hồn chỉnh 1.1.10 Hệ mờ 1.1.10.1 Các khái niệm điều khiển mờ Hệ mờ gồm ba thành phần: khối mờ hóa, hệ quy tắc khối giải mờ (H000) Chú ý hệ mờ hệ tĩnh, điều có nghĩa giá trị ngõ hệ mờ thời điểm phụ thuộc vào giá trị ngõ vào thời điểm Hình000 : sơ đồ khối hệ mờ Mặt đặc tính (Surface) Hệ mờ có nhiều ngõ vào nhiều ngõ Đồ thị biểu diễn mối quan hệ ngõ theo hai ngõ vào gọi mặt đặc tính Trường hợp đặc biệt hệ mờ có ngõ vào mặt đặc tính trở thành đường đặc tính Tổng quát mặt đặc tính hệ mờ mặt phi tuyến, nhiên số trường hợp mặt đặc tính mặt tuyến tính (mặt phẳng) Hình 2.21 minh họa mặt đặc tính phi tuyến tuyến tính Hình 1111: Mặt đặt tính biểu diễn mối quan hệ vào hệ mờ a) Mặt đặt tính phi tuyến; b) Mặt đặt tính tuyến tính 1.1.11.2 Cấu trúc điều khiển mờ Một điều khiển mờ gồm khâu bản: + Khâu mờ hoá + Thực luật hợp thành +Khâu giải mở Xét điều khiển mờ MISO sau, với véctơ đầu vào X =[ u1 u un ] Hình: Một điều khiển mờ 1.1.12.3 Phân loại điều khiển mờ • Phân loại BĐK mở i Điều khiển Mamdani (MCFC) ii Điều khiển mở trượt (SMFC) ii Điều khiển tra bảng (CMFC) iv Điều khiển Tagaki/Sugeno (TSFC) 1.1.12.3Các bước tổng hợp điều khiển mờ Hình: T * Các bước thiết kế hệ thống điều khiển mờ + Giao diện đầu vào gồm khâu: mờ hóa khâu hiệu tỷ lệ, tích phân, vi phân + Thiếp bị hợp thành : triển khai luật hợp thành R + Giao diện đầu gồm : khâu giải mờ khâu giao diện trực tiếp với đối tượng * Các bước thiết kế: B1: Định nghĩa tất biến ngôn ngữ vào/ra B2: Xác định tập mờ cho biến vào/ra (mờ hoá) + Miền giá trị vật lý biến ngôn ngữ + Số lượng tập mờ + Xác định hàm thuộc + Rời rạc hoá tập mờ B3: Xây dựng luật hợp thành B4: Chọn thiết bị hợp thành B5: Giải mờ tối ưu hoá Mạnh thần kinh 2.1 Các khái niệm mạng thần kinh Bộ não người (H.2.1) hệ thống xử lý thơng tin phức hợp, phi tuyến song song có khả học, ghi nhớ, tổng quát hóa xử lý lỗi Bộ não người gồm khoảng 10 tế bào thần kinh liên kết với thành mạng (H.3.2a) Tế bào thần kinh sinh học có cấu tạo hình 3.2b, tế bào thần kinh sinh học gồm ba thành phần thân tế bào (soma), hệ thống hình đầu dây thần kinh vào (dendrite) trục (axon) dẫn đến đầu dây thần kinh Tại đầu dây thần kinh có khớp thần kinh (synapse) để kết nối với tế bào thần kinh khác Mỗi tế bào thần kinh não người có khoảng 10 khớp thần kinh Có hai loại khớp nối: khớp nối kích thích (excitatory) khớp nối ức chế (inhibitory) Tín hiệu truyền dây thần kinh vào dây thần kinh tế bào thần kinh tín hiệu điện phát sinh thơng qua q trình phản ứng giải phóng chất hữu Các chất phát từ khớp nối dẫn tới dây thần kinh vào làm tăng hay giảm điện nhân tế bào Khi điện đạt đến ngưỡng đó, tạo xung điện dẫn đến trục dây thần kinh Xung truyền theo trục, tới nhánh rẽ chạm tới khớp nối với tế bào thần kinh khác giải phóng chất truyền điện Q trình lan truyền tín hiệu tiếp tục đến đầu cuối Mạng thần kinh nhân tạo mơ hình tốn học đơn giản não người, chất mạng thần kinh nhân tạo mạng tính tốn phân bố song song Trái với mơ hình tính tốn thơng thường, hầu hết mạng thần kinh phải huấn luyện trước sử dụng Các nghiên cứu mạng thần kinh nhân tạo thập niên 1940 Hình: Bộ não người Hình: a) Mạng thần kinh sinh học; b) Tế bào thần kinh sinh học 2.2 Tế bào thần kinh Mạng thần kinh nhân tạo (gọi ngắn gọn mạng thần kinh) xem mơ hình tốn học đơn giản não người Mạng thần kinh gồm tế bào thần kinh (đơn vị xử lý) kết nối với liên kết Mỗi liên kết kèm theo trọng số, đặc trưng cho đặc tính kích thích hay ức chế tế bào thần kinh Hình: Mạng thần kinh nhân tạo Mỗi tế bào thần kinh nối với tế bào thần kinh khác nhận tín hiệu x, từ chúng với trọng số Wj Đặt: x = đ x ] : vector tín hiệu vào tế bào thần kinh (3.1) X2 [w ₁ w₂ w = wm 17: : vector w ₂ w = wm 17: : vector w = wm 17: : vector trọng số tế bào thần kinh Q trình xử lý thơng tin tế bào thần kinh chia thành hai phần: xử lý ngõ vào xử lý ngõ Hàm xử lý ngõ vào hàm tổng có dạng sau Hình : Các dạng hàm tác động thường dùng a) Hàm nấc; b) Hàm dấu; c) Hàm dốc; d) Hàm tuyến tinh bão hòa e) Hàm dạng S đơn cực; f) Hàm dạng S lưỡng cực 2.3 Các loại mơ hình cấu trúc mạng thần kinh Có ba kiểu học chính, kiểu mẫu tương ứng với nhiệm vụ học trừu tượng Đó học có giám sát, học khơng có giám sát học củng cố Thông thường, loại kiến trúc mạng dùng cho nhiệm vụ 2.3.1 Học có giám sát (Supervised Learning) Trong phương pháp học có giám sát, liệu huấn luyện mạng thần kinh tập mẫu (dữ liệu vào—dữ liệu ra) mong muốn Giả sử có K mẫu liệu huấn luyện mạng: {(x(1), d(1)); (x(2), d(2); ; (x(K), d(K))} Ban đầu trọng số mạng khởi động giá trị Lần lượt liệu vào x(k) đưa vào ngõ vào mạng, mạng thần kinh tính liệu ngõ y(k) Dữ liệu y (k) so sánh với liệu mong muốn d(k) Sai số e(k) = d(k) – y(k) sử dụng để cập nhật trọng số mạng (H.3.7) Hình: Học có giám sát 2.3.2 Học củng cố (Reinforcement Learning) Trong phương pháp học có giám sát, biết liệu ngõ mạng tương ứng với mẫu tín hiệu vào Tuy nhiên thực tế, lúc có thơng tin đầy đủ Ví dụ, số trường hợp biết ngõ thực mạng “đúng” hay “sai” so với ngõ mong muốn Phương pháp học dựa thông tin đánh gọi học củng cố Thông tin đánh giá cho biết mức độ “đúng” hay “sai” ma trận trọng số mà không dẫn phải thay đổi ma trận trọng số để đến kết (H.3.8) Hình: Học củng cố 2.3.3 Học khơng có giám sát (Unsupervised Learning) Trong phương pháp học khơng có giám sát, khơng có thơng tin phản hồi cho biết ngõ mạng hay sai Mạng thần kinh phải tự phát đặc điểm, mối tương quan, hay nhóm tập mẫu liệu vào mã hóa chúng thành liệu mạng Trong phát đặc điểm này, mạng thần kinh thay đổi thơng số nó, q trình gọi tự tổ chức (H.3.9) Hình : Học khơng có giám sát 2.4 Các tính chất mạng thần kinh 2.6 C ác mạng thân kinh truyền thẳng sử dụng luận học giám sát 2.6.1 Mạng Perceptron Ta biết Perceptron đơn giản sử dụng hàm tác động hàm giới hạn cứng (hàm nấc hay hàm dấu), mà hàm giới hạn cứng lại không khả vi điểm nên ta áp dụng thuật toán học tối ưu Để khắc phục khuyết điểm trên, ta thay hàm giới hạn cứng hàm giới hạn mềm Hình: Tế bào thần kinh nhân tạo với hàm tác động hàm giới hạn mềm 2.6.2 Mạng Adaline tuyến tính Mạng tuyến tính (Linear Network) mạng truyền thẳng lớp gồm phần tử thích nghi tuyến tính Adaline (Adaptive Linear Element) Adaline tương tự Perceptron, khác chỗ hàm tác động Adaline hàm tuyến tính khơng phải hàm giới hạn cứng Điều cho phép ngõ Adaline nhận giá trị Trong mục xét thuật toán học Widrow-Hoff để huấn luyện Adaline Thuật toán học Widrow-Hoff, chất thuật tốn trung bình bình phương tối thiểu (LMS–Least Mean Squares) nên hiệu thuật toán học Perceptron di chuyển giới hạn phân loại xa so với mẫu phân loại Vì ngõ Adaline nhận giá trị nên sử dụng Adaline tốn điều khiển Hình: (a) Mạng tuyến tính (b) Adaline 2.6.3 Mạng thần kinh truyền thẳng nhiều lớp Mạng truyền thẳng nhiều lớp mạng truyền thẳng có từ hai lớp tế bào thần kinh xử lý trở lên Lớp tế bào thần kinh nối với ngõ vào gọi lớp vào (thường lớp vào không thực phép toán xử lý), lớp tế bào thần kinh nối với ngõ gọi lớp ra, lớp tế bào thần kinh không nối trực tiếp với ngõ vào ngõ gọi lớp ẩn Kết nối tế bào thần kinh lớp đầy đủ không đầy đủ Khác với mạng truyền thẳng lớp, mạng truyền thẳng nhiều lớp giải tốn khơng khả phân tuyến tính Thuật tốn huấn luyện mạng truyền thẳng nhiều lớp thuật toán lan truyền ngược Thuật toán lan truyền ngược thực hai bước truyền thông tin Thứ nhất, mẫu liệu vào x(k) truyền từ ngõ vào đến ngõ ra, kết việc truyền liệu theo hướng thuận tạo tín hiệu y(k) ngõ mạng Sau sai số sai lệch d(k) y(k) truyền ngược từ lớp trở lớp trước để cập nhật trọng số mạng Do thuật toán huấn luyện mạng truyền thẳng thuật tốn lan truyền ngược nên mạng cịn gọi mạng lan truyền ngược Hình : Mạng truyền thẳng nhìu lớp 2.6.4 Các yếu tố ảnh hưởng đến trình huấn luyện mạng 1- Trọng số khởi động Trọng số ban đầu mạng truyền thẳng nhiều lớp ảnh hưởng nhiều đến lời giải thuật toán lan truyền ngược Thường trọng số ban đầu khởi động giá trị ngẫu nhiên nhỏ Nếu khởi động trọng số ban đầu khơng thể huấn luyện mạng trường hợp lời giải trọng số khác Trọng số ban đầu phải nhỏ trọng số lớn làm cho hàm tác động dạng S bão hòa từ đầu thuật toán rơi vào cực trị cục Nên chọn trọng số ω i j ban đầu ngẫu nhiên nằm đoạn [−3 / √k i , 3/ √ k i ] , k i số tín hiệu vào tế bào thần kinh thứ i 2- Hệ số học Một yếu tố quan trọng khác ảnh hưởng mạnh đến tốc độ học tính hội tụ thuật toán lan truyền ngược hệ số học η Khơng có cách chọn η thích hợp cho trường hợp khác nhau, thường η chọn dựa vào kinh nghiệm cho toán Giá trị η lớn làm tăng tốc độ học, lớn làm cho thuật tốn khơng hội tụ, ngược lại giá trị n nhỏ bảo đảm thuật toán hội tụ tốc độ học lại chậm Thực nghiệm cho thấy giá trị η nằm khoảng 0,001 đến 10 thích hợp nhiều trường hợp huấn luyện mạng Tiêu chuẩn huấn luyện mạng Tiêu chuẩn huấn luyện mạng thường dùng chuẩn toàn phương L2 (tổng bình phương sai số, tổng quát ta sử dụng chuẩn Lp n E= ∑ ¿ ¿ p i=1 ( ≤ p>M, với M số nhóm liệu cần phân loại Số nút ẩn Số lượng tế bào thần kinh lớp ẩn ảnh hưởng lớn đến tính hội tụ thuật toán lan truyền ngược chất lượng mạng Thường số lượng tế bào thần kinh lớp ẩn chọn dựa vào kinh nghiệm Nên bắt đầu với mạng có tế bào lớp ẩn, thuật tốn khơng hội tụ tăng dần số tế bào đến thuật toán hội tụ Mạng truyền thẳng với thuật toán huấn luyện lan truyền ngược ứng dụng để giải nhiều toán Tuy nhiên, bên cạnh thành cơng thực tế, thuật tốn lan truyền ngược có khuyết điểm khó huấn luyện, chậm hội tụ Mặc dù việc tối ưu hóa hệ số học hệ số moment cải thiện chất lượng mạng lan truyền ngược cịn hiệu tốn nhiều thời gian, khơng phù hợp để giải số toán thời gian thực,

Ngày đăng: 16/10/2023, 10:50

w