1. Trang chủ
  2. » Công Nghệ Thông Tin

Bài giảng Trí tuệ nhân tạo: Chương 6 - PGS.TS. Lê Thanh Hương

14 54 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 14
Dung lượng 430,54 KB

Nội dung

Bài giảng "Trí tuệ nhân tạo - Chương 6: Học máy" cung cấp cho người học các kiến thức: Các phương pháp học, học, học có giám sát - qui nạp, học cây quyết định, học dựa trên mẫu, mạng nơron nhân tạo,... Mời các bạn cùng tham khảo.

6.1 Học “Học Học đề cập đến thay đổi hệ thống theo hướng thích nghi: chúng cho phép hệ thống thực công việc môi trường hiệu từ lần thực thứ 2” Chương Học máy Lê Thanh Hương Bộ môn ô HTTT HTTT, Kh Khoa CNTT Đại học Bách khoa Hà Nội Các phương pháp học Những cần học? • Học có giám sát: biết trước câu trả lời • Học khơng giám sát: khơng biết trước câu trả lời • Học tăng cường: đơi có thưởng/phạt cho hành động • • • • Mẹo tìm kiếm Hàm đánh giá trị chơi Tri thức khai báo (các mệnh đề logic) Các phân loại – Cấu trúc phân loại – Ngữ pháp Học có giám sát: qui nạp Coi học việc tìm kiếm • Trường hợp tổng qt: • Đoán hàm phù hợp với đầu vào = xác định giả thiết • Khơng gian giả thiết = tập tất giả thiết • Học việc tìm kiếm giả thiết phù hợp không gian giả thiết – Cho tập cặp (x, f(x)), tìm hàm f • Phân loại: – Cho tập cặp (x, y) với y nhãn, tìm hàm cho phép gán x với giá trị • Phân loại đơn giản: – Cho tập cặp (x, y) với x đối tượng y = + x thuộc lớp - ngược lại Tìm hàm cho phép gán nhãn xác 6.2 Học định Các phương pháp phân loại • • • • • • • Bài tốn: định có đợi bàn quán ăn không, dựa thông tin sau: Lựa chọn khác: có quán ăn khác gần khơng? Qn rượu: có khu vực phục vụ đồ uống gần khơng? Fri/Sat: hơm thứ sáu hay thứ bảy? Đói: đói chưa? Khách hàng: số khách qn (khơng có, vài người, đầy) Giá cả: khoảng giá ($,$$,$$$) Mưa: ngồi trời có mưa khơng? Đặt chỗ: đặt trước chưa? Loại: loại quán ăn (Pháp, Ý, Thái, quán ăn nhanh) 10 Thời gian đợi: 0-10, 10-30, 30-60, >60 Học qui nạp Láng giềng gần Xác suất Cây định Mạng nơron Giải thuật di truyền … Phép biểu diễn dựa thuộc tính • Các mẫu miêu tả dạng giá trị thuộc tính (logic, rời rạc, liên tục) ụ, tình g đợi ợ bàn ăn • Ví dụ, • Các loại (lớp) mẫu khẳng định (T) phủ định (F) Patrons, WaitEstimates, Alternative, Hungry, Rain Cây định 10 Không gian giả thiết … cách biểu diễn giả thiết Khi có ó n th thuộc ộ tí tính h Boolean, B l số ố llượng â ết đị định h là? = số hàm Boolean = số giá trị khác bảng ví dụ mẫu với 2n hàng n = 22 Ví dụ, với thuộc tính Boolean, có 18,446,744,073,709,551,616 11 12 Thuật tốn ID3 Thuật tốn ID3 Mục đích: tìm thoả mãn tập mẫu Ý tưởng: (lặp) chọn thuộc tính quan trọng làm gốc cây/cây ID3(Examples, Target_attribute, Attributes) /* Examples: mẫu luyện Target_attribute: thuộc tính cần đốn giá trị Attributes: thuộc tính kiểm tra qua phép học định */ • Tạo nút gốc Root cho • If ∀ Examples +, trả có nút Root, với nhãn + • If ∀ Examples -, trả có nút Root, với nhãn – • If Attributes rỗng, trả có nút Root, với nhãn = giá trị thường xuất Target_attribute Examples 13 • Otherwise Begin: – A ← thuộc tính Attributes cho phép phân loại tốt Examples – Thuộc tính định nút gốc ← A – Với giá trị vi có A, • Thêm nhánh gốc, ứng với phép kiểm tra A = vi • Đặt Examplesvi = tập Examples với giá trị thuộc tính A = vi • If Examplesvi rỗng – Then, nhánh này, thêm với nhãn = giá trị thường xuất ấ ấ ủ Target_attribute Examples – Else, nhánh thêm ID3(Examplesvi, Target_attribute, Attributes - {A})) • End 14 • Return Root Entropy tập mẫu Thuộc tính tốt nhất? •S tập mẫu tập luyện p+ tỷ lệ mẫu dương S •p •p- tỷ lệ mẫu âm S •Entropy đo độ nhiễu S = số bit cần thiết để mã hoá lớp + - thành viên ngẫu nhiên S Sử dụng lượng thơng tin đạt Information Gain Ư xác định thơng qua độ đo Entropy •Entropy(S) = - p+*log2p+ - p-*log2p15 16 Entropy Information Gain Entropy H(X) biến ngẫu nhiên X: Gain(S, A) = độ giảm entropy việc phân loại A Gain(S,A) = Entropy(S) – ∑ v ∈ Values Sv S ( A ) Entropy ( Sv ) Ví dụ, với S gồm mẫu dương mẫu âm, kí hiệu S([9+,5-]) Entropy([9+ 5-]) Entropy([9+,5-]) = - (9/14)log2(9/14) – (5/14)log2(5/14) = 0.940 17 Ví dụ: tập luyện Day 18 Thuộc tính phân loại tốt nhất? D1 Sunny Hot High Weak No D2 Sunny Hot High Strong No D3 Overcast Hot High Weak Yes D4 Rain Mild High Weak Yes D5 Rain Cool Normal Weak Yes S = [[9+,5-] , ] Humidity ={High,Normal}: Shigh=[3+,4-]; Rain Cool Normal Strong No Snormal=[6+,1-] D7 Overcast Cool Normal Strong Yes Wind ={Weak,Strong}: Sunny Mild High Weak No D9 S Sunny C l Cool N Normal l W k Weak Y Yes D10 Rain Mild Normal Weak Yes D11 Sunny Mild Normal Strong Yes D12 Overcast Mild High Strong Yes D13 Overcast Hot Normal Weak Yes D14 Mild High Strong No Rain Wind Humidity D6 D8 S:[9+,5-] E=0.940 S:[9+,5-] E=0.940 Outlook Temperature Humidity Wind PlayTennis High [3+,4-] E=0.985 Weak Normal [3+,3-] E=1.000 [6+,2-] E=0.811 [6+,1-] E=0.592 Gain(S,Wind) = Entropy(S) – Strong Sv ∑ v ∈ Values ( A ) S Entropy ( Sv ) = Entropy(S) – (8/14)Entropy(SWeak) – (6/14)Entropy(SStrongg) = 0.940 – (8/14)*0.811 – (6/14)*1.00 = 0.048 Sweak = [6+,2-]; Sstrong = [3+,3-] Gain(S,Humidity) = 0.940 – (7/14)*0.985 – (7/14)*0.592 = 0.151 Gain(S,Outlook)=0.246; Gain(S,Humidity)=0.151 Gain(S,Wind)=0.048; Gain(S,Temperature)=0.029 19 20 Cây định sử dụng nào? SSunny = {D1,D2,D8,D9,D11} Gain(SSunny, Humidity ) = 970 – (3/5)*0.0 – (2/5)*0.0 = 970 Các tốn với đặc tính sau thích hợp với học định: • • • • Thuộc tính tiếp? Các mẫu ẫ mơ tả ả cặp thuộc tính-giá trị Hàm đích có giá trị rời rạc Cần có giả thiết rời rạc Các liệu luyện có nhiễu • Dữ liệu luyện thiếu giá trị thuộc tính G i (SSunny, Temperature Gain(S T t ) Ví dụ: = 970 –(2/5)*0.0– (2/5)*1.0– (1/5)*0.0=.570 Gain(SSunny, Wind ) = 0.970 – (2/5)*1.0 – (3/5)*0.918 = 0.019 • Chẩn đốn y tế • Phân tích nguy tín dụng • Mơ hình hố việc lập lịch 21 Đo độ xác 22 6.3 Học dựa mẫu • • Làm để biết h ≈ f ? Sử dụng lý thuyết tính tốn Thử giả thiết h tập ví dụ (tập thử) (sử dụng mức độ phân bố ố mẫu tập luyện) Learning curve = % xác tập thử, sử dụng hàm xây dựng tập luyện Ý tưởng: lưu tất mẫu luyện Láng giềng gần nhất: • Cho mẫu hỏi xq, trước tiên định vị mẫu luyện gần xn, sau đánh giá fˆ(x q ) ← f(x n ) K láng giềng gần nhất: • Cho xq, định dựa k láng giềng gần (nếu hàm đích có giá trị rời rạc) • Lấy trung bình giá trị f k láng giềng gần (nếu giá trị thực) k fˆ(x q ) ← 23 ∑ f(x ) i i =1 k 24 kNN Phương pháp láng giềng gần • Tổ chức liệu dạng bảng bảng • Xây dựng ma trận cho phép tính khoảng cách cặp đối tượng • Khi có đối tượng chưa có kết luận, ậ , lấyy kết luận ậ láng gg giềng gg gần gán cho a2 Ví dụ: d mẫu K=4 S2 S3 S6 S7 Sx S1 (0,0) S4 S8 S5 25 S1 S2 S3 S4 S5 S6 S7 S8 Sx a1 -2 -1 1.5 0.4 1.5 3.2 4.5 4.7 a2 1.8 -1 -0.2 1.5 -0.2 0.5 a1 26 kNN T B B R R B R B B X • Để định nghĩa độ tương tự TH, ta dùng ma trận • Giả sử mẫu điểm không gian n chiều Rn dùng khoảng cách Euclidean • Cho Xi Xj ví dụ Khoảng cách chúng [ d ( X i , X j ) = ∑ xik − x jk ] k xik giá trị thuộc tính k ví dụ Xi 27 28 Thuật toán kNN cho giá trị rời rạc kNN cho hàm giá trị thực Thuật toán (tham số k) Thuật toán (tham số k) Với mẫu luyện (X, f(X)), bổ sung mẫu vào tập luyện Khi có mẫu Xq, gán lớp: f(Xq) = lớp đa số thành viên k láng gg giềng gg gần Xq q k fˆ(Xq) = argmax ∑ δ (v, f(Xi)) v∈V Với mẫu luyện (X, f(X)), bổ sung mẫu vào tập luyện Khi có mẫu Xq, gán lớp: f(Xq) = giá trị trung bình k láng giềng gần ấ Xq f (Xi) fˆ ( X q ) = ∑ k i =1 với δ(a,b) = a = b ngược lại 29 Đánh trọng số khoảng cách kNN Có thể muốn láng giềng gần có trọng số cao fˆ(X q ) = argmax ∑ϖ iδ (v, f(X i )) v∈V i =1 ϖi = ∑ i fˆ ( xq ) ← i =1 k k k ω f ( xi ) ∑ i =1 ωi 30 Khi nên dùng láng giềng gần • Các mẫu tương ứng với điểm Rn • Mỗi mẫu có 20 thuộc tính • Nhiều Nhiề mẫu ẫ luyện l ệ Ưu điểm: • Luyện nhanh • Học hàm đích phức tạp • Khơng thơng tin d ( x q , xi ) d(x d( q, xi) khoảng kh ả cách h iữ xq xi Chú ý: từ thấy lý dùng tất mẫu luyện thay có k → phương pháp Shepard Nhược điểm: • Chậm truy vấn • Dễ bị ảnh hưởng thuộc tính khơng liên quan 31 32 6.4 Mạng nơron nhân tạo Ảnh hưởng số chiều nghiên cứu mơ tiến trình xử lý song song phân tán khổng lồ diễn não người Giả thiết mẫu mô tả 20 thuộc tính, có thuộc tính liên quan đến hàm đích Ảnh hưởng số chiều: phương pháp kNN thường bị phương hướng X nhiều chiều Một số giải pháp: • Giãn chiều thứ j trọng số zj, z1,…,zn chọn để tối thiểu hố lỗi dự tính • Sử dụng cross-validation để tự động chọn trọng số z1,…,zn Các vấn đề: • Tốc độ não nhận dạng hình ảnh • Rất nhiều nơron não • Tốc độ nơron truyền liệu 33 34 Ví dụ Biểu diễn mạng nơron Lái xe Luyện phận điền khiển xe lái xe xác nhiều địa hình khác Giữa Phải Tầng Tầng ẩn máy tính (thuật tốn học) lớp sang trái Trái Tầng vào lớp sang phải lớp thẳng 35 36 Định nghĩa Khi sử dụng mạng nơron? • Là hệ thống gồm nhiều phần tử xử lý đơn đ giản iả hoạt h t động độ song song • Tính năng: phụ thuộc vào – cấu trúc hệ thống – mức độ liên kết phần tử – ttrình ì h xử lý bên bê ttrong phần hầ tử • Có thể học từ số liệu tổng qt hố từ số liệu Mạng nơron thích hợp với tốn có đặc điểm sau: • Các mẫu luyện thể nhiều cặp giá trị-thuộc tính (ví dụ, điểm ảnh) • Các mẫu luyện có lỗi • Chấp nhận thời gian huấn luyện dài • Cần đánh g giá nhanh hàm mục ụ tiêu ợ học ọ • Khơng cần hiểu giả thiết cuối NN coi hộp đen 37 38 Perceptron Khả Perceptron Mỗi perceptron tạo mặt phân cách siêu phẳng không gian đầu vào n chiều o(x1, ,xn) = + w0 + w1x1 + w2x2 +……+wnxn >0 -1 trường hợp ngược lại hay: r r r o( x ) = sgn( w x ) sgn(y) = y >0 -1 ngược lại Nhiệm vụ học: tìm giá trị w Khơng gian giả thiết: không gian vectơ trọng số + Mặt phân cách (WX = 0) + - 39 - - 40 10 Khả Perceptron – – Mạng nơron biểu diễn hàm XOR học hàm ¬, ∧, ∨, NAND, NOR không biểu diễn hàm khơng phân tách ằ đường tuyến ế tính, vd XOR x1 v1 (x1 ∨ x2) ∧ (¬x1 ∨ ¬x2) y (x1 ∨ x2) ∧ (¬x1 ∨ ¬x2) v = x1 ∨ x2 x2 y = v1 ∧ v2 v2 v2 = ¬x1 ∨ ¬ x2 ¾ Mọi hàm logic biểu diễn mạng perceptron có tầng tầng vào tầng ẩn tầng 41 Học trọng số mạng 42 Luật huấn luyện Perceptron • Khởi tạo vector có trọng số ngẫu nhiên • Lặp Lặ llạii hà hàm perceptron t cho h ỗi mẫu ẫ luyện l ệ đế đến hà hàm perceptron phân loại tất mẫu luyện: • Luật perceptron: dùng tập luyện – phân tách đường tuyến tính • Các trọng số sửa đổi bước dựa vào luật huấn luyện perceptron: – đủ nhỏ • Luật delta: wi ← ⎯⎯ wi + Δwi Δwi ← ⎯⎯ Δwi + η (t − o) xi với r – t = c( x ) hàm đích – o đầu perceptron – η = tốc độ học, số nhỏ dùng tập luyện không phân thể tách tuyến tính 43 44 11 Ví dụ Biểu diễn g(x1,x2) = AND(x1,x2) x1 W1 {0; 1} Σ W2 i =0 x1 0 x2 g 0 1 W0 x2 x0=1 o(x) = Khởi tạo giá trị đầu: ầ Δw0 = 0, Δw1 = 0, Δw2 = w0 = -1.5, w1 = -0.5, w2 = 0.5, η = 0.1 = Δw0 + η*(t-o)*x0 == 01.w0+0.w1+0.w2 + 0.1*(0-0)*1 = 0= w0 = -1.5 ∑Δw0 = x0.w0+x1.w1+x2.w2 w0 = w0 + Δw0 = -1.5 + = -1.5, w1 = -0.5, w2 = 0.5 45 i =0 wi ← ⎯⎯ wi + Δwi x0 x1 x2 t ∑ o Δw0 Δw1 0 -1.5 1.5 0 Δw2 1 -1 0 0 1 0 -2 0 0 1 1 -1.5 0.1 0.1 0.1 Δw0 = Δw0 + η*(t-o)*x0 = + 0.1*(1-0)*1 = 0.1 w0 = w0 + Δw0 = -1.5 + 0.1 = -1.4, w1 = -0.4, w2 = 0.6 46 Ứng dụng mạng nơron Nhận dạng mặt Ví dụ rr w.x = ∑ wi * xi Δwi ← ⎯⎯ Δwi + η (t − o) xi wi ← ⎯⎯ wi + Δwi w0 + 1.w1 + 1.w2 >0 w0 + 1.w1 + 0.w2 < w0 + 0.w1 + 1.w2 < w0 + 0.w1 + 0.w2 < Öw0 = -0.8; w1= 0.5; w2 = 0.5 rr w.x > 0 ngược lại Ví dụ rr w.x = ∑ wi * xi Δwi ← ⎯⎯ Δwi + η (t − o) xi Δw0 = 0.1, Δw1 = 0.1, Δw2 = 0.1 w0 = -1.4, w1 = -0.4, w2 = 0.6, η = 0.1 ∑ = x0.w0+x1.w1+x2.w2 = 1.w0+0.w1+0.w2 = w0 = -1.4 Δw0 = Δw0 + η*(t-o)*x0 = 0.1 + 0.1*(0-0)*1 = 0.1 w0 = w0 + Δw0 = -1.4 + 0.1 = -1.3, w1 = -0.3, w2 = 0.7 x0 x1 x2 t ∑ o Δw0 Δw1 Δw2 0 -1.4 0.1 0.1 0.1 1 -0.6 0.1 0.1 0.1 1 0 1 1 47 48 12 Ứng dụng mạng nơron Nhận dạng mặt Ứng dụng mạng nơron Nhận dạng mặt • Nhiệm vụ học: phân loại hình ảnh camera mặt người với nhiều g góc độ ộ khác • CSDL hình ảnh • Các hình ảnh với 624 grayscale: 20 người, người khoảng 32 ảnh • Nhiều cách biểu cảm (vui, buồn, giận, bình thường) • Các hướng khác (trái, phải, thẳng, hướng lên) • Độ phân giải 120x128 • Có nhiều hàm đích học việc nhận dạng ảnh: – xác định người – hướng quay (trái, phải, thẳng, ) – giới tính – có đeo kính hay khơng 49 • Học hướng quay mặt người: – không cần lựa chọn tối ưu, phương pháp cho kết tốt – sau luyện 260 hình ảnh, việc phân loại đạt độ xác tập thử 90% 50 Mã hố đầu vào Các lựa chọn • Thiết kế lựa chọn • Tiền xử lý hình ảnh để rút hướng, vùng có mật ậ độ giống iố nhau, h h ặ đặ đặc tính í h hình hì h ảnh ả h cục khác • Khó khăn: số cạnh thay đổi, NN có số lượng cố định đầu vào • Các hình mã hố tập cố định giá trị mật độ 30x32 điểm ảnh (tóm tắt độ phân giải ảnh ban đầu) từ đến 255 đầu), Mã hoá đầu vào: hình ảnh hay đặc tính Mã hoá đầu ra: số lượng đầu ra, hàm đích cho đầu Cấu trúc mạng: số lượng nút mạng liên kết chúng Các tham số thuật toán học – Tốc ố độ học – giá trị momentum 51 52 13 Cấu trúc mạng Mã hố đầu • Mỗi đầu ra: giá trị xác định hướng mà người nhìn (trái, phải, thẳng, hướng lên) • Mỗi đơn vị: phân loại sử dụng đầu ra, gán 0.2, 0.4, 0.6 0.8 cho giá trị • Chọn n đầu mã hoá: – cung cấp ấ nhiều hiề mức ứ độ ttự d để biể biểu diễ diễn hà hàm đích (n lần số trọng số tầng ra) – độ khác giá trị cao nhì dùng để đo độ tin cậy 53 mạng 960 x x 54 14 ... x2 t ∑ o Δw0 Δw1 0 -1 .5 1.5 0 Δw2 1 -1 0 0 1 0 -2 0 0 1 1 -1 .5 0.1 0.1 0.1 Δw0 = Δw0 + η*(t-o)*x0 = + 0.1*( 1-0 )*1 = 0.1 w0 = w0 + Δw0 = -1 .5 + 0.1 = -1 .4, w1 = -0 .4, w2 = 0 .6 46 Ứng dụng mạng nơron... Rain Wind Humidity D6 D8 S:[9+, 5-] E=0.940 S:[9+, 5-] E=0.940 Outlook Temperature Humidity Wind PlayTennis High [3+, 4-] E=0.985 Weak Normal [3+, 3-] E=1.000 [6+ , 2-] E=0.811 [6+ , 1-] E=0.592 Gain(S,Wind)... 1.w0+0.w1+0.w2 = w0 = -1 .4 Δw0 = Δw0 + η*(t-o)*x0 = 0.1 + 0.1*( 0-0 )*1 = 0.1 w0 = w0 + Δw0 = -1 .4 + 0.1 = -1 .3, w1 = -0 .3, w2 = 0.7 x0 x1 x2 t ∑ o Δw0 Δw1 Δw2 0 -1 .4 0.1 0.1 0.1 1 -0 .6 0.1 0.1 0.1 1

Ngày đăng: 27/06/2020, 08:38

HÌNH ẢNH LIÊN QUAN

Phép biểu diễn dựa trên thuộc tính • Các  mẫu được mi êu tả dưới dạng các giá trị thuộc tính  - Bài giảng Trí tuệ nhân tạo: Chương 6 - PGS.TS. Lê Thanh Hương
h ép biểu diễn dựa trên thuộc tính • Các mẫu được mi êu tả dưới dạng các giá trị thuộc tính (Trang 3)
= số các giá trị khác nhau trong bảng ví dụ mẫu với 2n hàng = 22n - Bài giảng Trí tuệ nhân tạo: Chương 6 - PGS.TS. Lê Thanh Hương
s ố các giá trị khác nhau trong bảng ví dụ mẫu với 2n hàng = 22n (Trang 3)
9• Các  lo ạ i (l ớ p) c ủ a m ẫ u là kh ẳ ng  đị nh (T) ho ặ c ph ủ đị nh (F) - Bài giảng Trí tuệ nhân tạo: Chương 6 - PGS.TS. Lê Thanh Hương
9 • Các lo ạ i (l ớ p) c ủ a m ẫ u là kh ẳ ng đị nh (T) ho ặ c ph ủ đị nh (F) (Trang 3)
• Tổ chức dữ liệu dưới dạng bảng• Tổ chức dữ liệu dưới dạng bả ng.  • Xây  dựng ma trận cho phép tính  - Bài giảng Trí tuệ nhân tạo: Chương 6 - PGS.TS. Lê Thanh Hương
ch ức dữ liệu dưới dạng bảng• Tổ chức dữ liệu dưới dạng bả ng. • Xây dựng ma trận cho phép tính (Trang 7)
• Tốc độ bộ não nhận dạng hình ảnh • Rất nhiều nơron trong một bộ não • Tốc độ một nơron truyền dữ liệu - Bài giảng Trí tuệ nhân tạo: Chương 6 - PGS.TS. Lê Thanh Hương
c độ bộ não nhận dạng hình ảnh • Rất nhiều nơron trong một bộ não • Tốc độ một nơron truyền dữ liệu (Trang 9)
Ảnh hưởng của số chiều - Bài giảng Trí tuệ nhân tạo: Chương 6 - PGS.TS. Lê Thanh Hương
nh hưởng của số chiều (Trang 9)

TỪ KHÓA LIÊN QUAN