1. Trang chủ
  2. » Thể loại khác

HỌC MÁY. Lê Thanh Hương.Viện CNTT & TT - ĐHBK HN

101 3 0
Tài liệu đã được kiểm tra trùng lặp

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 101
Dung lượng 1,76 MB

Nội dung

Chương - Học máy Lê Thanh Hương Viện CNTT & TT - ĐHBK HN Nội dung môn học Chương Tổng quan Chương Tác tử thông minh Chương Giải vấn đề Chương Tri thức suy diễn Chương Học máy ▪ ▪ ▪ ▪ Tổng quan Học định K láng giềng gần Mạng nơron Giới thiệu Học máy ◼ Định nghĩa “Học đề cập đến thay đổi hệ thống theo hướng thích nghi: chúng cho phép hệ thống thực công việc môi trường hiệu từ lần thực thứ 2” Biểu diễn toán học máy [Mitchell, 1997] Học máy = Cải thiện hiệu công việc thông qua kinh nghiệm • Một cơng việc (nhiệm vụ) T • Đối với tiêu chí đánh giá hiệu suất P • Thơng qua (sử dụng) kinh nghiệm E Các ví dụ học máy (1) Bài tốn lọc trang Web theo sở thích người dùng Dự đoán (để lọc) xem trang Web mà người dùng cụ thể thích đọc ◼T: ◼ P: Tỷ lệ (%) trang Web dự đoán ◼ E: Một tập trang Web mà người dùng định thích đọc tập trang Web mà định không thích đọc Interested? Các ví dụ học máy (2) Bài toán phân loại trang Web theo chủ đề ◼T: Phân loại trang Web theo chủ đề định trước ◼P: Tỷ lệ (%) trang Web phân loại xác Một tập trang Web, trang Web gắn với chủ đề ◼E: Which cat.? Các ví dụ học máy (3) Bài toán nhận dạng chữ viết tay Nhận dạng phân loại từ ảnh chữ viết tay ◼T: ◼ P: Tỷ lệ (%) từ nhận dạng phân loại ◼ E: Một tập ảnh chữ viết tay, ảnh gắn với định danh từ Which word? we in the right way Các ví dụ học máy (4) Bài tốn robot lái xe tự động Robot (được trang bị camera quan sát) lái xe tự động đường cao tốc ◼T: Khoảng cách trung bình mà robot lái xe tự động trước xảy lỗi (tai nạn) ◼P: Một tập ví dụ ghi lại quan sát người lái xe đường cao tốc, ◼E: Which steering command? Go straight Move left Move Slow Speed right down up ví dụ gồm chuỗi ảnh lệnh điều khiển xe Các phương pháp học • Học có giám sát: biết trước câu trả lời • Học khơng giám sát: khơng biết trước câu trả lời • Học tăng cường: đơi có thưởng/phạt cho hành động Quá trình học máy Tập học (Training set) Huấn luyện hệ thống Tập liệu (Dataset) Tập tối ưu (Validation set) Tối ưu hóa tham số hệ thống Tập thử nghiệm (Test set) Thử nghiệm hệ thống học Học có vs khơng có giám sát ◼ Học có giám sát (supervised learning) ❑ ❑ Mỗi ví dụ học gồm phần: mô tả (biểu diễn) ví dụ học, nhãn lớp (hoặc giá trị đầu mong muốn) ví dụ học Bài tốn học phân lớp (classification problem) D_train = {(, )} ❑ Bài toán học dự đoán/hồi quy (prediction/regression problem) D_train = {(, )} ◼ Học khơng có giám sát (unsupervised learning) ❑ ❑ Mỗi ví dụ học chứa mơ tả (biểu diễn) ví dụ học - mà khơng có thơng tin nhãn lớp hay giá trị đầu mong muốn ví dụ học Bài tốn học phân cụm (Clustering problem) Tập học D_train = {()} 10 So sánh luật học Perceptron Gradient Descent Perceptron đảm bảo thành cơng • Tập mẫu khả tách tuyến tính • Hằng số học  đủ nhỏ Huấn luyện với Gradient Descent • Đảm bảo hội tụ với lỗi nhỏ • Hằng số học  nhỏ • Có thể sử dụng mẫu có nhiễu • Dữ liệu học chí khơng khả tách tuyến tính 87 Mạng nơ ron nhiều lớp Lớp Lớp ẩn Lớp vào 88 Hàm Sigmoid x1 x2 xn w1 w2 wn x0=1  w0 net=i=0n wi xi o=(net)=1/(1+e-net) o (x) gọi hàm sigmoid: 1/(1+e-x) d(x)/dx= (x) (1- (x)) Sử dụng luật học Gradient Descent: •E/wi = -d(td-od) od (1-od) • Mạng nhiều lớp thường sử dụng hàm Sigmoid làm hàm truyền 89 Giải thuật lan truyền ngược sai số • Khởi tạo wi với giá trị ngẫu nhiên nhỏ • Lặp đạt điều kiện dừng – Với mẫu huấn luyện • Đưa (x1,…,xn) vào mạng để tính tốn giá trị ok • Với đầu k k – k=ok(1-ok)(tk-ok) • Với nút ẩn h – h=oh(1-oh) k wh,k k • Với trọng số wi,j – wi,j=wi,j+wi,j với wi,j=  j xi h i 90 Giải thuật lan truyền ngược sai số • Sử dụng Gradient Descent tồn trọng số • Chỉ tìm tối ưu cục • Thường bổ sung hệ số quán tính : wi,j(n)=  j xi +  wi,j (n-1) • Tối ưu hàm lỗi tập mẫu chưa liệu thực tế ( hiệu ứng overfitting) • Thời gian học lâu ( 1000-10000 vịng) • Sử dụng mơ hình nhanh 91 8-3-8 mã hoá giải mã đầu vào ẩn đầu Giá trị nút ẩn 89 04 08 01 11 88 01 97 27 99 97 71 03 05 02 22 99 99 80 01 98 60 94 01 92 Thống kê lỗi cho nút 93 Sự hội tụ giải thuật lan truyền ngược sai số • Có thể khơng phải cực trị tồn cục • Cải thiện hệ số quán tính • Kết hợp với giải thuật tối ưu toàn cục khác Điều kiện hội tụ • Khởi tạo trọng số gần • Mạng khởi tạo gần mang tính chất tuyến tính • Tính chất phi tuyến mạng xuất trình học 94 Ứng dụng mạng nơron Nhận dạng mặt 95 Ứng dụng mạng nơron Nhận dạng mặt • Có nhiều hàm đích học việc nhận dạng ảnh: – xác định người – hướng quay (trái, phải, thẳng, ) – giới tính – có đeo kính hay khơng 96 Ứng dụng mạng nơron Nhận dạng mặt • Nhiệm vụ học: phân loại hình ảnh camera mặt người với nhiều góc độ khác • CSDL hình ảnh • Các hình ảnh với 624 grayscale: 20 người, người khoảng 32 ảnh • Nhiều cách biểu cảm (vui, buồn, giận, bình thường) • Các hướng khác (trái, phải, thẳng, hướng lên) • Độ phân giải 120x128 • Học hướng quay mặt người: – không cần lựa chọn tối ưu, phương pháp cho kết tốt – sau luyện 260 hình ảnh, việc phân loại đạt độ 97 xác tập thử 90% Các lựa chọn Mã hoá đầu vào: hình ảnh hay đặc tính Mã hố đầu ra: số lượng đầu ra, hàm đích cho đầu Cấu trúc mạng: số lượng nút mạng liên kết chúng Các tham số thuật toán học – Tốc độ học – giá trị momentum 98 Mã hố đầu vào • Thiết kế lựa chọn • Tiền xử lý hình ảnh để rút hướng, vùng có mật độ giống nhau, đặc tính hình ảnh cục khác • Khó khăn: số cạnh thay đổi, NN có số lượng cố định đầu vào • Các hình mã hố tập cố định giá trị mật độ 30x32 điểm ảnh (tóm tắt độ phân giải ảnh ban đầu), từ đến 255 99 Mã hố đầu • Mỗi đầu ra: giá trị xác định hướng mà người nhìn (trái, phải, thẳng, hướng lên) • Mỗi đơn vị: phân loại sử dụng đầu ra, gán 0.2, 0.4, 0.6 0.8 cho giá trị • Chọn n đầu mã hoá: – cung cấp nhiều mức độ tự để biểu diễn hàm đích (n lần số trọng số tầng ra) – độ khác giá trị cao nhì dùng để đo độ tin cậy 100 Cấu trúc mạng mạng 960 x x 101 ... = [6+, 2-] ; Sstrong = [3+, 3-] 33 Thuộc tính phân loại tốt nhất? S:[9+, 5-] E=0.940 S:[9+, 5-] E=0.940 Wind Humidity High [3+, 4-] E=0.985 Weak Normal [3+, 3-] E=1.000 [6+, 2-] E=0.811 [6+, 1-] E=0.592... ngược (Back-propagation) … 12 Các vấn đề Học máy (1) ◼ Giải thuật học máy (Learning algorithm) • Những giải thuật học máy học (xấp xỉ) hàm mục tiêu cần học? • Với điều kiện nào, giải thuật học máy.. . phưc tạp giải thuật q trình học • Các giới hạn khả học giải thuật học máy? • Khả khái quát hóa hệ thống từ ví dụ học? ❑ Để tránh vấn đề “over-fitting” (đạt độ xác cao tập học, đạt độ xác thấp tập

Ngày đăng: 18/11/2020, 18:43

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w