1. Trang chủ
  2. » Kỹ Thuật - Công Nghệ

Slide bài giảng điều khiển mờ và mạng nơ ron (ts nguyễn hoài nam)

189 17 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Điều Khiển Mờ Và Mạng Nơ Ron
Tác giả Ts. Nguyễn H. Nam
Năm xuất bản 2016
Định dạng
Số trang 189
Dung lượng 4,59 MB

Nội dung

Chương 1 Tập mờ và logic mờ • 1.1 Tập mờ và hàm liên thuộc • 1.2 Các phép tính cơ bản của tập mờ • 1.3 Biến ngôn ngữ, mệnh đề hợp thành • 1.4 Các phương pháp giải mờ 1282016 10:28 PM Ts. Nguyễn H. Nam 3 Chương 2 Thiết kế bộ điều khiển mờ • 2.1 Quan hệ vào ra • 2.2 Các bước thiết kế bộ điều khiển mờ • 2.3 Bộ điều khiển mờ tĩnh • 2.4 Bộ điều khiển mờ động 1282016 Dr. Nam H. Nguyen 4 Chương 3 Mạng nơron • 3.1. Tổng quan về mạng nơron • 3.2. Phương pháp huấn luyện mạng nơron. • 3.3. Sử dụng Matlab huấn luyện mạng nơron. • 3.4. Ứng dụng mạng nơron.

Trang 1

Điều khiển mờ và mạng nơ ron

Ts Nguyễn H Nam

Trang 2

Tài liệu tham khảo

• [1] Lý thuyết điều khiển mờ, Phan Xuân Minh và Nguyễn

Doãn Phước

• [2] Fuzzy Logic Toolbox User’s Guide, R2014b

• [3] Fuzzy set theory and its applications, H -J Zimmermann

• [4] Neural network design, Martin Hagan

• [5] Neural Network Toolbox User’s Guide

1/28/2016 10:28 PM Ts Nguyễn H Nam 2

Trang 4

Chương 2 Thiết kế bộ điều khiển mờ

Trang 5

Chương 3 Mạng nơ-ron

• 3.1 Tổng quan về mạng nơ-ron

• 3.2 Phương pháp huấn luyện mạng nơron

• 3.3 Sử dụng Matlab huấn luyện mạng nơron

• 3.4 Ứng dụng mạng nơron

Trang 8

1.1.1 Lịch sử

• Michio Sugeno đã đưa ra mô hình mờ Takagi-Sugeno

• Fuzzy Identification of Systems and Its Applications to

Modeling and Control [1985]

1/28/2016 10:28 PM Ts Nguyễn H Nam 8

Trang 9

Ứng dụng

• Điều khiển cần trục (94):

• - Đầu vào: vị trí, tốc độ, độ dài và góc, khối lượng của vật

• - Các giai đoạn: Tăng tốc, chuyển động đều, giảm tốc

• - Mục tiêu: Tránh dao động, làm việc tự động

• Điều khiển ô tô mô hình (85):

Trang 10

Ứng dụng

• Điều khiển động cơ Diesel:

• - Mục tiêu là tối thiểu hóa tốc độ tiêu thụ nhiên liệu

• - Dùng tập mờ để đánh giá độ tin cậy của các kết quả được

tính toán

1/28/2016 10:28 PM Ts Nguyễn H Nam 10

Trang 11

Ứng dụng

• Điều khiển lò xi măng (81):

• - Đất sét, đá vôi, cát và quặng sắt

• - Xi măng: Ca2Si, Ca3Si, Ca4AlFe

• - Đầu vào: Nhiệt độ khí thải, nhiệt

độ RT, nhiệt động vùng cháy, phần

trăm O2, chất lượng clinker

• Đầu ra: Nhiên liệu than, tốc độ quạt, tốc độ quay của lò

Trang 12

 Hàm đặc tính (hàm phụ thuộc, hàm liên thuộc)

• Giả sử A là một tập hợp đã cho, nếu một phần tử a thuộc tập

hiệu là 𝒂 ∉ 𝑨

1/28/2016 10:28 PM Ts Nguyễn H Nam 12

Trang 13

1.1.2 Tập hợp

Là tập hợp không chứa phần tử nào

Ví dụ 1.3: Tập hợp các bạn sinh viên trong lớp có tuổi nhỏ hơn

Trang 19

0, 𝑐á𝑐 𝑡𝑟ườ𝑛𝑔 ℎợ𝑝 𝑘ℎá𝑐

Hình 1.6 Hàm liên thuộc cho F

Trang 23

1.1.4 Tập mờ

𝜇𝐹 𝑥 = 𝑒−12

𝑥−𝑐 𝜎

2

= 𝑔𝑎𝑢𝑠𝑠𝑚𝑓(𝑥, [𝜎; 𝑐])

c – là tâm của hàm liên thuộc

𝜎 – độ rộng

Trang 24

1.1.4 Tập mờ

• Gauss2mf

1 2

Trang 27

1.2 Các phép tính cơ bản của tập mờ

• Phép bù của một tập mờ

Một toán tử η được định nghĩa là phép bù của tập mờ A nếu thỏa

mãn các điều kiện sau:

Trang 29

1.2 Các phép tính cơ bản của tập mờ

• Phép hợp của hai tập hợp mờ

Một toán tử U được định nghĩa là phép hợp của hai tập hợp mờ A

và B nếu thỏa mãn các điều kiện sau:

Trang 31

1.2 Các phép tính cơ bản của tập mờ

• Phép giao của hai tập mờ

thỏa mãn các điều kiện sau:

Trang 32

1.2 Các phép tính cơ bản của tập mờ

• Một số toán tử giao thông dụng

Ví dụ 1.12:

1/28/2016 10:28 PM Ts Nguyễn H Nam 32

Trang 33

1.3 Biến ngôn ngữ, mệnh đề hợp thành

• Biến ngôn ngữ

Biến ngôn ngữ được định nghĩa bởi bộ 5 thành phần như sau:

𝐵𝑖ế𝑛 𝑛𝑔ô𝑛 𝑛𝑔ữ = (𝑦, 𝑇 𝑦 , 𝑈, 𝐺𝑟, 𝑅𝑢) Trong đó:

- y: tên biến ngôn ngữ

- T(y): tập hợp các thuật ngữ, là giá trị của biến

- U: tập vũ trụ

- Gr: Qui tắc cú pháp, tạo ra các thuật ngữ

- Ru: Qui tắc ngữ nghĩa, gắn các thuật ngữ với các tập mờ trong

U

Trang 35

- Mệnh đề hợp thành mờ còn được gọi là suy luận mờ

- 𝜒 là A: mệnh đề điều kiện, hay tiên đề

- 𝛾 là B: mệnh đề kết luận, hay kết quả

- Mệnh đề hợp thành có thể được ký hiệu như sau:

𝑅: 𝐴 ⟶ 𝐵

Trang 36

1.3 Biến ngôn ngữ, luật hợp thành

• R có thể được coi như một tập mờ với hàm liên thuộc:

Trang 37

1.3 Biến ngôn ngữ, luật hợp thành

Trang 38

1.3 Biến ngôn ngữ, luật hợp thành

• Khi hàm suy luận mờ là phép nhân (PROD) của Larsen

1/28/2016 10:28 PM Ts Nguyễn H Nam 38

Trang 39

1.3 Biến ngôn ngữ, luật hợp thành

μ𝑅 𝑥, 𝑦 = μ𝑅𝑖 𝑥, 𝑦

𝑛

𝑖=1

1/28/2016 10:28 PM Ts Nguyễn H Nam 39

Trang 40

1.3 Biến ngôn ngữ, luật hợp thành

Phép hợp ở đây có thể là hàm MAX hoặc SUM

Như vậy, các phương pháp thực hiện luật hợp thành:

1/28/2016 10:28 PM Ts Nguyễn H Nam 40

Trang 41

1.3 Biến ngôn ngữ, luật hợp thành

Trang 42

1.3 Biến ngôn ngữ, luật hợp thành

Trang 43

1.3 Biến ngôn ngữ, luật hợp thành

0.5 1

0.5 1

0.5 1

0 1 2 3 4 5 6 7 8 0

0.5 1

A2

Do thoa man

Mu2B2

MuR

Trang 44

1.3 Biến ngôn ngữ, luật hợp thành

0.5 1

0.5 1

0.5 1

0 1 2 3 4 5 6 7 8 0

0.5 1

Mu

R

Trang 45

1.3 Biến ngôn ngữ, luật hợp thành

• Mệnh đề hợp thành hai đầu vào và một đầu ra

Trang 46

1.3 Biến ngôn ngữ, luật hợp thành

Đặt 𝛼1,1 = μ𝐴1,1 𝑥1,0 𝑣à μ𝐵′1,1 𝑦 = μ𝑅1,1 𝑥1,0, 𝑦

μ𝐵′1,1 𝑦 = 𝛼1,1 μ𝐵1 𝑦 PROD Đặt 𝛼1,2 = μ𝐴2,1 𝑥2,0 𝑣à μ𝐵′1,2 𝑦 = μ𝑅1,2 𝑥2,0, 𝑦

Trang 47

1.3 Biến ngôn ngữ, luật hợp thành

 Trường hợp các đầu vào là mờ, độ thỏa mãn vẫn được tính

theo CT (1.1)

Trang 48

1.3 Biến ngôn ngữ, luật hợp thành

• Hệ mờ nhiều đầu vào và một đầu ra

Trang 49

1.3 Biến ngôn ngữ, luật hợp thành

Trang 50

1.3 Biến ngôn ngữ, luật hợp thành

Trang 51

1.3 Biến ngôn ngữ, luật hợp thành

Trang 52

1.3 Biến ngôn ngữ, luật hợp thành

Trang 53

1.3 Biến ngôn ngữ, luật hợp thành

-5 -4 -3 -2 -1 0 0

0.2 0.4 0.6 0.8

1

A21 alpha12

0 1 2 3 4 5 6 7 8 0

0.2 0.4 0.6 0.8

1

Mu1B1

-5 -4 -3 -2 -1 0 0

0.2 0.4 0.6 0.8

1

A22 alpha22

0 1 2 3 4 5 6 7 8 0

0.2 0.4 0.6 0.8

1

Mu1B2

0.2 0.4 0.6 0.8 1

MuR

Trang 54

1.4 Các phương pháp giải mờ

trình giải mờ

• Có ba phương pháp giải mờ chính:

Phương pháp cực đại (Maximum)

Phương pháp điểm trọng tâm (Centroid)

Phương pháp đường phân tích (Bisector)

Trang 60

-5 -4 -3 -2 -1 0 0

0.2 0.4 0.6 0.8

1

A21 alpha12

0 1 2 3 4 5 6 7 8 0

0.2 0.4 0.6 0.8

1

Mu1B1

-5 -4 -3 -2 -1 0 0

0.2 0.4 0.6 0.8

1

A22 alpha22

0 1 2 3 4 5 6 7 8 0

0.2 0.4 0.6 0.8

1

Mu1B2

0 1 2 3 4 5 6 7 8 0

0.2 0.4 0.6 0.8 1

MuR

Trang 62

1.4 Các phương pháp giải mờ

• = 0,5 ∗ 0,5 ∗ 0,25 + 2 ∗ 0,25 + 0,5 ∗ 0,25 + 0,5 ∗ 0,5 + 2 ∗0,5 + 0,5 ∗ 0,5 = 2

Trang 63

1.5 Mô hình mờ Sugeno (Takagi-Sugeno-Kang)

Trang 64

1.5 Mô hình mờ Sugeno (Takagi-Sugeno-Kang)

Trang 65

1.5 Mô hình mờ Sugeno (Takagi-Sugeno-Kang)

Trang 66

1.5 Mô hình mờ Sugeno (Takagi-Sugeno-Kang)

Trang 67

Chương 2

Thiết kế bộ điều khiển mờ

TS Nguyễn H Nam

Trang 69

2.1 Quan hệ truyền đạt

• 2.1.1 Hệ mờ

• 2.1.2 Quan hệ vào ra của mệnh đề hợp thành

• 2.1.3 Quan hệ vào ra của khâu giải mờ

• 2.1.4 Quan hệ truyền đạt

Trang 70

2.1.1 Hệ mờ

Hệ mờ Fuzzy System

𝑥1

𝑥2

𝑥𝑚 ⋮

𝑦

 Biến ngôn ngữ đầu ra: 𝛾

 𝑖 = 1, 2, … , 𝑚

 𝑗 = 1, 2, … , 𝑛

Trang 72

2.1.2 Quan hệ vào ra của mệnh đề hợp thành

(2.3-a) (2.3-b)

(2.4-a) (2.4-b) (2.5-a) (2.5-b)

Trang 73

2.1.3 Quan hệ vào ra của khâu giải mờ

• Có ba phương pháp giải mờ:

Phương pháp cực đại (Maximum)

Phương pháp điểm trọng tâm (Centroid)

Phương pháp đường phân tích (Bisector)

2.8

Trang 74

2.1.3 Quan hệ vào ra của khâu giải mờ

Trang 75

2.1.3 Quan hệ vào ra của khâu giải mờ

• Phương pháp điểm trọng tâm

2.14

Trang 76

Độ thỏa mãn: MIN, PROD (2.2)

Phép HOẶC: MAX, SUM (2.4)

Phép VÀ: MIN, PROD (2.5)

Phương pháp cực đại 2.9 - 11 Phương pháp điểm trọng tâm 2.13 Phương pháp đường phân tích 2.14

2.5-a 2.5-b

Trang 77

Mô hình mờ Sugeno (Takagi-Sugeno-Kang)

• Nhiều đầu vào và một đầu ra

Trang 78

Mô hình mờ Sugeno (Takagi-Sugeno-Kang)

Weighted average – wtaver

Trang 79

2.2 Các bước thiết kế bộ điều khiển mờ

• 2.2.1 Tại sao lại dùng hệ mờ

• 2.2.2 Các bước thiết kế bộ điều khiển mờ

Trang 80

2.2.1 Tại sao lại dùng hệ mờ

 Dễ hiểu về mặt nhận thức

 Các khái niệm toán học của suy luận mờ là rất đơn giản

 Lô gíc mờ là một phương pháp tiếp cận trực quan hơn

 Linh hoạt

 Dễ dàng thêm hoặc bớt tính năng mà không phải làm lại từ đầu

 Có thể chứa đựng dữ liệu không chính xác

 Mọi dữ liệu đều không chính xác

 Suy luận mờ xây dựng quan niệm này vào quá trình thay vì đưa nó vào cuối quá trình

Trang 81

2.2.1 Tại sao lại dùng hệ mờ

 Có thể mô hình hóa hàm phi tuyến bất kỳ với độ chính xác tùy

ý

 Có thể được phát triển từ kinh nghiệm của các chuyên gia

 Có thể kết hợp với các phương pháp điều khiển kinh điển

 PID – tỉ lệ, tích phân, vi phân

 Mạng nơ-ron (Neural networks)

 Dựa trên ngôn ngữ tự nhiên

Trang 82

2.2.2 Các bước thiết kế bộ điều khiển mờ

 Đầu vào của đối tượng

• Mờ hóa đầu vào:

 Xác định khoảng tín hiệu đầu vào (tập vũ trụ)

 Chọn hàm liên thuộc (dạng hàm, số lượng)

Trang 83

2.2.2 Các bước thiết kế bộ điều khiển mờ

 Chọn các thuật ngữ

 Gắn các thuật ngữ với hàm liên thuộc

 Đặt tên biến ngôn ngữ

• Chọn mô hình mờ: Mamdani hay Sugeno

• Mờ hóa đầu ra: (Mamdani)

 Xác định khoảng tín hiệu đầu vào (tập vũ trụ)

 Chọn hàm liên thuộc (dạng hàm, số lượng)

 Chọn các thuật ngữ

 Gắn các thuật ngữ với hàm liên thuộc

 Đặt tên biến ngôn ngữ

Trang 84

2.2.2 Các bước thiết kế bộ điều khiển mờ

• Mờ hóa đầu ra: (Sugeno)

Trang 85

2.2.2 Các bước thiết kế bộ điều khiển mờ

Trang 86

2.2.2 Các bước thiết kế bộ điều khiển mờ

• Chọn thiết bị thực hiện:

 Máy tính

 Vi xử lý, vi điều khiển, DSP

Điều khiển ổ cứng, khử nhiễu, phân loại tín hiệu sonar, điều khiển động cơ servo …

 Microchip Technologies (PIC) - fuzzyTECH MCU-MP

Điều khiển động cơ DC, lò, điều khiển máy điều hòa, điều

khiển cửa điện ô tô, dò thẻ tín dụng giả

Trang 87

2.2.2 Các bước thiết kế bộ điều khiển mờ

 Intel

Hệ thống chống bó cứng phanh ABS, điều khiển vị trí CNC,

Lò nung kim loại, điều khiển các thiết bị gia dụng, hệ thống ra lệnh bằng tiếng nói, nhận dạng chữ viết

Trang 88

2.2.2 Các bước thiết kế bộ điều khiển mờ

• Thử nghiệm hệ thống

• Chỉnh định và hoàn thiện hệ thống

Trang 90

Y: đầu ra của đối tượng

U: tín hiệu điều khiển

E = r-y: sai lệch điều

Trang 91

2.3.2 Xấp xỉ hàm

𝑛 𝑘=1

Trang 93

• in_fis = genfis1([x y],5,'gbellmf');

• out_fis = anfis([x y],in_fis,epoch_n);

• plot(x,y,x,evalfis(x,out_fis));

• legend('Training Data','anfis Output');

Trang 97

u

1

Trang 100

• Dạng hàm liên thuộc: tam giác – trimf

• Tên biến ngôn ngữ: Sai lệch

• Giá trị của biến ngôn ngữ: âm, không, dương

• 𝜇𝑘ℎô𝑛𝑔 𝑒 = 𝑡𝑟𝑖𝑚𝑓 𝑒, −6; 0; 6

• 𝜇𝑑ươ𝑛𝑔 𝑒 = 𝑡𝑟𝑖𝑚𝑓 𝑒, 0; 6; 7

Trang 101

2.3.4 Ví dụ

• Chọn mô hình Mamdani

• Số tập mờ đầu ra: 3

• Dạng hàm liên thuộc: tam giác – trimf

• Tên biến ngôn ngữ: đầu ra

• Giá trị của biến ngôn ngữ: âm, không, dương

• 𝜇𝑘ℎô𝑛𝑔 𝑢 = 𝑡𝑟𝑖𝑚𝑓 𝑢, −3; 0; 3

• 𝜇𝑑ươ𝑛𝑔 𝑢 = 𝑡𝑟𝑖𝑚𝑓 𝑢, 0; 3; 4

Trang 102

2.3.4 Ví dụ

• Luật hợp thành

• PHÉP SUY LUẬN: MIN

• HOẶC: MAX

• Giải mờ: Điểm trọng tâm

Trang 103

2.4 Hệ thống điều khiển mờ động

• 2.4.1 Cấu trúc hệ thống điều khiển mờ động

• 2.4.2 Bộ điều khiển mờ PD

• 2.4.3 Ví dụ

Trang 104

2.4.1 Cấu trúc hệ thống điều khiển mờ động

De: đạo hàm của e(t)

Ie: tích phân của e(t)

 Mờ động PD

 Mờ động PI

 Mờ động PID

Trang 111

2.4.2 Bộ điều khiển mờ PD

Đạo hàm của sai số 𝑒

Sai số

Trang 112

Điều khiển cánh tay máy

Trang 113

Chương 3 Mạng nơ-ron

Ts Nguyễn Hoài Nam

Trang 114

Mạng nơ-ron

• 3.1 Tổng quan về mạng nơ-ron

• 3.2 Phương pháp huấn luyện mạng nơron

• 3.3 Sử dụng công cụ Matlab huấn luyện mạng nơron

• 3.4 Ví dụ ứng dụng mạng nơron cho nhận dạng

2

Ts Nguyễn H Nam

Trang 116

3.1.1 Sự phát triển của mạng nơ-ron

• Warren McCulloch và Walter Pitts [1943] đã chỉ ra rằng mạng

nơ ron nhân tạo có thể thực hiện bất kỳ hàm lô gíc hoặc hàm

số nào

• Donald Hebb [1949] đã đề xuất ra một cơ chế học của các ron sinh học

nơ-• Rosenblatt [1958] và các đồng nghiệp đã xây dựng mạng

Perceptron cùng với luật học tương ứng và chứng tỏ khả năng

thực hiện việc phân loại mẫu

• Widrow và Hoff đã đưa ra thuật toán huấn luyện mới và dùng

nó để huấn luyện mạng tuyến tính thích nghi, mạng này có cùng cấu trúc và khả năng như mạng perceptron

4

Ts Nguyễn H Nam

Trang 117

3.1.1 Sự phát triển của mạng nơ-ron

• Mạng của Rosenblatt và Widrow đều có chung những hạn chế Các tác giả này đã đưa ra mạng mới khắc phục được các hạn chế đó, tuy nhiên họ đã không cải tạo được luật học để huấn luyện mạng phức tạp hơn

• Teuvo Kohonen [1972] và James Anderson [1972] đã phát triển mạng nơ-ron có thể hoạt động như bộ nhớ

• Stephen Grossberg [1976] đã rất tích cực nghiên cứu mạng nơ ron tự tổ chức

• John Hopfield [1982] đã đưa ra mạng nơ-ron hồi qui

• Một số tác giả (David Rumelhart và James McClelland) đã đưa ra thuật toán lan truyền ngược để huấn luyện mạng Perceptron nhiều lớp

Trang 118

3.1.1 Sự phát triển của mạng nơ-ron

• Martin Hagan [1994] đưa ra phương pháp huấn luyện mạng sử

6

Ts Nguyễn H Nam

Trang 119

3.1.2 Ứng dụng của mạng nơ-ron

• Điện tử: Sự bố trí chíp IC, điều khiển quá trình, phân tích lỗi

chíp, thị lực máy, tổng hợp tiếng nói, mô hình hóa phi tuyến

• Rô bốt: Điều khiển quỹ đạo, xe nâng hàng, các bộ điều khiển

tay máy,, các hệ thống thị giác, xe tự hành

• Ô tô: Các hệ thống dẫn hướng tự động, điều khiển bơm nhiên

liệu, các hệ thống phanh tự động, dò động cơ không nổ, các cảm biến dò sự phát khí ảo

Trang 120

3.1.2 Ứng dụng của mạng nơ-ron

• Sản xuất: Điều khiển quá trình sản xuất, phân tích và thiết kế

sản phẩm, chuẩn đoán máy và quá trình, nhận dạng hạt thời gian thực, các hệ thống kiểm tra chất lượng, thử bia, phân tích chất lượng hàn, dự đoán chất lượng giấy, phân tích chất lượng chíp máy tính, phân tích các hoạt động nghiền, phân tích thiết

kế sản phẩm hóa học, phân tích bảo dưỡng máy, đấu thầu dự

án, quản lý và kế hoạch hóa, mô hình động của các quá trình hóa học

• Vũ trụ, ngân hàng, quốc phòng, giải trí, tài chính, bảo hiểm, y

tế, dầu khí, an ninh, giao thông và truyền thông

8

Ts Nguyễn H Nam

Trang 122

3.1.3 Mô hình nơ-ron

• Một phần của bộ não được hình thành khi sinh ra

• Những phần khác sẽ phát triển thông qua học, do có những liên kết mới được hình thành và các liên kết khác mất đi

• Cấu trúc mạng nơ-ron tiếp tục thay đổi theo thời gian trong đời Những thay đổi sau nay có xu hướng chủ yếu làm mạnh hoặc yếu đi các khớp thần kinh

• Có 2 sự giống nhau giữa mạng ron sinh học và mạng ron nhân tạo:

nơ- Các khối tạo ra mạng nơ-ron là những thiết bị tính toán đơn giản

 Các liên kết giữa các nơ-ron tạo ra chức năng của mạng

10

Ts Nguyễn H Nam

Trang 123

Mô hình nơ-ron nhân tạo

• Nơ ron một đầu vào

 p – đầu vào của nơ-ron

 w – trọng số

 b – ngưỡng (bias)

 n – đầu vào net (net input)

 a – đầu ra của nơ-ron

 f – hàm truyền

• Ví dụ: (nnd2n1)

𝑝 = 0,4; 𝑤 = 1; 𝑏 = 0,6; 𝑓 𝑙à ℎà𝑚 𝑡𝑢𝑦ế𝑛 𝑡í𝑛ℎ

• 𝑛 = 𝑤𝑝 + 𝑏 = 1 ∗ 0,4 + 0,6 = 1; 𝑎 = 𝑓 𝑛 = 1

Trang 125

Nơ-ron nhiều đầu vào

• 𝒑 =

𝑝1

𝑝2:

𝑝𝑅

; 𝑾 =

𝑤1,1

𝑤1,2:

𝑤1,𝑅

𝑇

; 𝑛 = 𝑏 + 𝑅𝑖=1 𝑤1,𝑖𝑝𝑖 = 𝑾𝒑 + 𝑏

Trang 126

Lớp nơ-ron

𝒃 =

𝑏1

𝑏2: :

𝑏𝑆

14

Ts Nguyễn H Nam

Trang 127

Mạng nhiều lớp

Trang 128

Mạng nhiều lớp

16

Ts Nguyễn H Nam

Trang 129

Mạng hồi qui

Trang 130

Luật học

• Luật học: Là một thủ tục dùng để thay đổi các trọng số và bias

nhằm mục đích huấn luyện mạng để thực hiện một số nhiệm

 Luật học sẽ điều chỉnh các trọng số và bias sao cho đầu ra

của mạng nơ-ron bám lấy đầu ra mẫu

18

Ts Nguyễn H Nam

Trang 131

3.1.4 Các loại mạng nơ-ron

• Mạng perceptron

• Ứng dụng: Có thể giải quyết các bài toán phân loại với đường biên tuyến tính

Trang 133

3.1.4 Các loại mạng nơ-ron

• Mạng nơ-ron động

• Ứng dụng: Nhận dạng và điều khiển các hệ thống động học và phi tuyến

Trang 135

Ví dụ

• Phân loại táo và cam dùng mạng perceptron (nnd3pc)

• Các cảm biến:

 Hình dáng: 1 nếu gần như tròn, -1 nếu gần như e líp

 Bề mặt: 1 nếu như trơn, -1 nếu gồ ghề

 Khối lượng: 1 nếu khối lượng lớn hơn 1 pound (0,45kg), -1 nếu nhỏ hơn 1 pound

• Ta có thể chọn đầu ra của mạng perceptron là 1 khi đầu vào là quả táo và đầu ra là -1 khi đầu vào là quả cam

• Vì chỉ phân loại 2 sản phẩm, ta có thể dùng mạng perceptron

có 1 nơ-ron Ở đây dùng 3 cảm biến, do đó sẽ có 3 đầu vào

Trang 136

3.1.5 Quan hệ giữa mờ và nơ-ron

• Mờ và mạng nơ-ron là hai kỹ thuật bổ sung cho nhau:

Mạng nơ-ron có thể học từ dữ liệu, nhưng tri thức biểu diễn bởi nó thì khó hiểu

Ngược lại, hệ mờ thì dễ hiểu nhưng không có thuật toán học

• Sự liên hợp giữa mờ và nơ-ron có thể được phân thành 4 loại:

 Điều chỉnh hệ mờ sử dụng các luật học của mạng nơ-ron (ANFIS)

Trang 137

3.2 Phương pháp huấn luyện mạng nơron.

• 3.2.1 Ví dụ

• 3.2.2 Luật học perceptron

• 3.2.3 Thuật toán lan truyền ngược

Trang 139

3.2.2 Luật học perceptron

Đầu vào Lớp nơ-ron

𝒘

𝑖 𝒎ớ𝒊 = 𝒘𝑖 𝒄ũ + 𝑒𝑖𝒑 𝑏

𝑖 𝒎ớ𝒊 = 𝑏𝑖 𝒄ũ + 𝑒𝑖

𝑾𝒎ớ𝒊 = 𝑾𝒄ũ + 𝒆𝒑𝑻

𝒃𝒎ớ𝒊 = 𝒃𝒄ũ + 𝒆

Trang 140

3.2.3 Thuật toán lan truyền ngược

Trang 141

Mạng perceptron nhiều lớp

Trang 147

3.2.3.5 Lan truyền ngược độ nhạy

Ngày đăng: 15/03/2024, 10:30

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w