Bộ đề cương câu hỏi ôn tập Trí tuệ nhân tạo và ứng dụng AI

25 118 0
Bộ đề cương câu hỏi ôn tập Trí tuệ nhân tạo và ứng dụng AI

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

PHẦN TÌM KIẾM Phần 1: Breadth – first search Phần 2: Uniform-Cost Search Phần 3: Depth-First search .5 Phần 4: Deep-Limited search Phần 5: Iterative deepning search Phần 6: Greedy search Phần 7: A* Astar search PHẦN ML .10 Phần 1: Decision Trees 10 Phần 2: Linear Regression 14 Phần 3: Logistic Regression 18 Phần 4: SVM 21 PHẦN TÌM KIẾM Phần 1: Breadth – first search Câu 1: Nêu ưu điểm nhược điểm thuật tốn Breadth-first search Ưu điểm: Hồn chỉnh duyệt qua tất đỉnh, chắn tìm đường qua nút Nhược điểm: Độ phức tạp nhớ cao có lưu lại hàng đợi Câu 2: Tính độ phức tạp thời gian thuật toán Breadth-First search b = d = 10 Độ phức tạp thời gian: 𝑂 ሺ𝑏 𝑑+1 ሻ= 𝑂ሺ311 ሻ Độ phức tạp nhớ: 𝑂ሺ𝑏 𝑑+1 ሻ= 𝑂 ሺ311 ሻ Câu 3: Mơ tả thuật tốn Breadth-First search để tìm Goal (Bắt đầu A, Goal điểm F) hình đây: Khởi tạo Q=[A] Lấy A, A chưa F, đưa vào nút kề Q=[B, C, D] Lấy B, B chưa F, đưa vào nút kề Q=[C, D, E, F] Lấy C, C chưa F, đưa vào nút kề, Q=[ D, E, F] Lấy D, D chưa F, đưa vào nút kề, Q=[ E, F] Lấy E, E chưa F, đưa vào nút kề, Q=[F] Lấy F, F đích ->Kết thúc Câu 4: Sửa code phần “Breath-first tree search": Thành phố qua lần khơng mở rộng đến thành phố (khơng xét thành phố bước tiếp theo) Câu 5: Sửa code phần “1 Breath-first tree search": ban đầu, mở rộng, không kiểm tra node goal hay chưa -> sửa thành kiểm tra node goal dừng trả đường từ gốc đến goal Phần 2: Uniform-Cost Search Câu 1: Trình bày điểm khác thuật toán Uniform-Cost Search Bread-First Search? Điểm giống nhau: Đều sử dụng hàng đợi để lưu danh sách nút duyệt Điểm khác nhau: UCS: Việc tìm kiếm bắt đầu nút gốc tiếp tục cách duyệt nút với trọng số hay chi phí thấp tính từ nút gốc Dùng cho đồ thị có trọng số Hàng đợi sử dụng hàng đợi ưu tiên BFS: Việc tìm kiếm bắt đầu nút gốc tiếp tục cách duyệt nút kề không theo thứ tự định Câu 2: Với điều kiện Thuật tốn Uniform-Cost Search tương đương với thuật toán Breadth-First Search Khi trọng số đồ thị tương đương với số bước di chuyển nút = Thì thuật tốn tương đương Câu 3: Giải thích cách hoạt động Uniform-cost search hình vẽ với điểm xuất phát Zerind đíchCraiova? Lay Zenind, Q=[ (Oradas, 71), (Arad, 75) ] Lay Oradas, Q=[(Arad,75), (Sibiu,222) ] Lay Arad, Q[ (Timisoara, 193), (Sibiu, 222) ] Lay Timisoara, Q=[ (Sibiu, 222), (Lugoj, 304) ] Lay Sibiu, Q[ (Rimnicu, 295), (Lougoj, 304), (Faragas ,314) ] Lay Rimnicu, Q=[ (Lougoj, 304), (Faragas, 314), (Pitesti, 392), (Cairova, 441)] Lay Lougoj, Q=[ (Faragas, 314), (Mehadia, 374), (Pitesti, 392), (Cairova, 441)] Lay Faragas, Q=[ (Mehadia, 374), (Pitesti, 392), (Cairova, 441)(Bucharest, )] Lay Mehadia, Q=[ (Pitesti, 392), (Cairova, 441), (Bucharest, ), …] Lay Pitesti, Q=[ (Cairova,441), ] Lay Cairova Ket thuc Câu 4: Sửa code để phần “6 Uniform-cost search" code “search.ipynb" để ưu tiên mở rộng node có khoảng cách từ gốc đến node xa trước Câu 5: Sửa code để phần “6 Uniform-cost search" code “search.ipynb" để tìm đường đến đích qua thành phố Nhận xét sau sửa giống thuật toán Phần 3: Depth-First search Câu Nêu ưu điểm nhược điểm thuật toán Depth-first search Ưu điểm: Độ phức tạp nhớ thấp, chiếm Nếu hướng tới nút đích nhanh Nhược điểm: Dễ mắc vào vịng lặp vơ hạn Câu 2: Trong trường hợp thuật tốn Depth_First search khơng thể tìm Goal? Khi tồn chu trình làm xảy vịng lặp vơ hạn, có độ sâu vơ hạn Câu 3: Tính tốn độ phức tạp Space cua thuật tốn Depth-First search b = 5, m = 16 d = Độ phức tạp nhớ DFS: 𝑂(𝑏𝑚)=𝑂(5∗16)=𝑂(80) Câu Sửa code phần “2 Depth-first tree search": thành phố qua lần khơng mở rộng đến thành phố Phần 4: Deep-Limited search Câu 1: Thuật toán depth-limited search đưa để giải vấn đề thuật tốn depth-first search? Tìm kiếm giới hạn chiều sâu khắc phục vấn đề vịng lặp vơ hạn, sâu đến độ sâu tối đa, quay lại nên vịng lặp dừng Câu 2: Thuật tốn Deep-Limited search có trường hợp khơng tìm Goal hay khơng? Nếu có nêu VD Khi nút goal nằm độ sâu > độ sâu tối đa khơng tìm Câu 3: Trình bày khác thuật tốn Deep-Limited search thuật tốn Uniform-Cost search? Tiêu chí đánh giá Uniform-Cost search Deep-Limited search Độ ổn định Độ phức tạp thời gian Độ phức tạp không gian Tối ưu Có Có l≥d 𝑑 𝑏 𝑏𝑑 Có 𝑏𝑙 b.l Khơng Phần 5: Iterative deepning search Câu 1: Trinh bày điểm tối ưu thuật toán Iterative Deepning search so với thuật toán Deep-Limited search? Liệu Thuật tốn Iterative Deepning search có trường hợp khơng tìm Goal hay khơng? Tìm kiếm sâu dần khắc phục nhược điểm thuật tốn tìm kiếm giới hạn độ sâu, nút đích q độ sâu giới hạn t khơng tìm Bằng cách tăng dần độ sâu giới hạn t đến tìm đích Như ln tìm được, vấn đề thời gian Phần 6: Greedy search Câu 1: Trình bày điểm khác thuật toán Greedy search Breadth-First search? Thứ tự nút hàng đợi Tìm kiếm tham lam xếp theo trọng số giá trị hàm h(n), khơng phải thứ tự duyệt Tìm kiếm theo chiều rộng Câu 2: Hãy tìm đường từ thành phố Oradea đến thành phố Bucharest sử dụng thuật toán Greedy search Kết quả: Ban dau Q=[(Oradea, 363)] Lay Oreda, Q=[ (Sibiu, 232), (Zenind, )] Lay Sibiu, Q=[ (Faragas, 154), (Zenind,…), (Rimi, )] Lay Faragas, Q= [ (Burcharest, 0), ] Lay Burcharest Ket thuc Câu 3: Tính tốn hàm heuristic function cho tốn theo hai cách: (h1) number of misplaced tiles ; (h2) total Manhattan distance So sánh hai hàm h1, h2, hàm tốt cho tốn tìm kiếm? h1(S)= number of misplaced tiles = h2(S) = total manhattan distance = + + + + + + + = 14 Câu 4: Tại gọi thuật toán Greedy search thuật tốn tham vọng(Greedy)? Greedy search có tối ưu hay khơng? Gọi tham lam khơng xét đến tối ưu tồn cục mà tính trạng thái Do kết cuối khơng phải kết tối ưu Phần 7: A* Astar search Câu Chứng minh breadth-first search, depth-first search, uniform-cost search trường hợp đặc biệt best-first search Tùy ta đánh giá “best” mà có thuật tốn khác: BFS: duyệt độ sâu từ nhỏ trước (dùng hàng đợi) DFS: duyệt độ sâu lớn trước (dùng ngăn xếp) UCS: duyệt theo cost nhỏ nhất/lớn (dùng hàng đợi ưu tiên) Câu 2: So sánh hàm đánh giá hai phương pháp A* search gready search Tìm kiếm tham lam tính tối ưu cục chi phí ước tính đường ngắn từ đến trạng thái đích đích Cịn A* xét thêm chi phí từ trạng thái khởi tạo tới trạng thái Nên A* chắn quãng đường tối ưu Câu Chứng minh Uniform-cost search trường hợp đặc biệt A* search f(n)= g(n) + h(n) Khi h(n) = , f(n) = g(n) A* trở thành UCS Do thuật toán UCS xét khoảng cách từ nút gốc đến nút PHẦN ML Phần 1: Decision Trees Câu 1: Cho bảng liệu đây: Áp dụng thuật toán ID3 cho liệu huấn luyện cung cấp bảng Tính tốn mẫu cho nút (root) Entropy(Root)=−𝑝ሺ𝐻ሻ 𝑙𝑜𝑔2 𝑝ሺ𝐻ሻ − 𝑝ሺ𝐼ሻ 𝑙𝑜𝑔2 𝑝ሺ𝐼ሻ − 𝑝ሺ𝑆ሻ 𝑙𝑜𝑔2 𝑝ሺ𝑆ሻ − 1 2 2 2 𝑝ሺ𝐵ሻ 𝑙𝑜𝑔2 𝑝ሺ𝐵ሻ = − log ( ) − log ( ) − log ( ) − log ( ) = 𝟏, 𝟗𝟓𝟎 7 7 7 7 • Xét Thuộc tính Fever IG(fever) = Entropy ሺ𝑅𝑜𝑜𝑡ሻ − ∑𝑣∈ ሺ fever ሻ   |𝑆𝑣 | |𝑆| 7 = Entropy ሺ𝑅𝑜𝑜𝑡ሻ − [ Entropy ሺ no ሻ + Entropy ሺ𝑆𝑣 ሻ Entropy ሺ average ሻ + Entropy ሺ high ሻ] = 1,950-(2/7 * + 3/7 * 1.585 + 2/7 * 1)= 0,699 • Xét thuộc tính Vomiting IG(vomiting) = Entropy ሺ𝑅𝑜𝑜𝑡ሻ − ∑𝑣∈ ሺ vomiting ሻ   7 = Entropy ሺ𝑅𝑜𝑜𝑡ሻ − [ Entropy ሺ yes ሻ + |𝑆𝑣 | |𝑆| Entropy ሺ𝑆𝑣 ሻ Entropy ሺ no ሻ ] = 1,950 - (3/7 * 0.918 + 4/7 * 1.5)= 0,699 • Xét thuộc tính Diarrhea IG(diarrhea) = Entropy ሺ𝑅𝑜𝑜𝑡ሻ − ∑𝑣∈ ሺ diarrhea ሻ   10 |𝑆𝑣 | |𝑆| Entropy ሺ𝑆𝑣 ሻ 7 = Entropy ሺ𝑅𝑜𝑜𝑡ሻ − [ Entropy ሺ yes ሻ + Entropy ሺ no ሻ ] = 1,950 - (4/7 * + 3/7 * 0.918)= 0,965 • Xét thuộc tính Shivering IG(diarrhea) = Entropy ሺ𝑅𝑜𝑜𝑡ሻ − ∑𝑣∈ ሺ shivering ሻ   7 = Entropy ሺ𝑅𝑜𝑜𝑡ሻ − [ Entropy ሺ yes ሻ + |𝑆𝑣 | |𝑆| Entropy ሺ𝑆𝑣 ሻ Entropy ሺ no ሻ ] = 1,950 - (1/7 * + 6/7 * 1.918)= 0,306 • Vậy thuộc tính Diarrhea có IG lớn nhất, tối ưu hóa thơng tin thu -> lấy làm ROOT Entropy: Đo độ bất ngỡ tập liệu IGain: lượng thơng tin trung bình chứa đoạn mã, =Entropy mẫu – entropy trung bình Câu 2: Liệt kê loại node Decision Tree: - Root node: gốc định bao gồm tất tập hợp thuộc tính - Decision node: thuộc tính phân tách thành thuộc tính nhỏ - Leaf node: đầu cuối định mà không cần phân tách thêm 11 Câu 3: Trình bày bước tính tốn thuật tốn ID3? Tính tốn Entropy dataset nhờ vào liệu classification Với thuộc tính, tính Entropy thuộc tính thơng qua tập giá trị Nhờ tình IGain(S) = Ent(S) − Ent(S|atrib) Chọn thuộc tính A có IGain lớn để làm gốc Đối với giá trị v thuộc tính A Thêm nhánh nốt root tương ứng với A = v 3.1 Nếu tất đối tượng x thuộc D có lớp label classification, trả nốt gốc Root với nhãn classification Kết thúc 3.2 Gọi D(v) tập đối tượng thuộc D có v giá trị cho thuộc tính A 3.3 Nếu D(v) = rỗng, thêm nốt (leaf node) nhánh với nhãn ck phổ biến D Ngược lại nhánh thêm ID3(D(v), Target − Attribute, Attributes - {A}) Câu 4: Giả sử trường hợp có thuộc tính có Information Gain lớn data set thuật tốn ID3 xử lý nào? Chúng ta chọn thuộc tính nào, khơng có đảm bảo việc đưa lựa chọn tham lam cục cấp thiết mang lại cho bạn mức tối ưu tồn cục Trọng tâm phương pháp heuristic làm cho việc xây dựng định trở nên hiệu quả, khơng cần phải thử tất trường hợp có để đánh giá Ngồi ra, IG nhau, ta chuyển sang tính Gain Ratio Câu 5: Decision Tree mơ hình supervised learning hay unsupervised learning? Decision Tree áp dụng cho tốn nào? Supervised learning tạo mơ hình dựa tập liệu huấn luyện với kết đúng, kết mơ hình dựa kiến thức mà thu q trình đào tạo Áp dụng cho taspm Hồi quy (cây hồi quy) phân loại (cây phân loại) Câu 6: Decision Tree sử dụng thuật tốn Search nào? 12 Tìm kiếm theo kiểu tham lam Vì chọn thuộc tính tối ưu hóa thơng tin thu bước Câu 7: Nêu số ưu/nhược điểm thuật toán định Ưu điểm: - Dễ hiểu giải thích, xây dựng dựa liệu thành quy tắc tồn diện - Khơng cần thiết phải chuẩn hóa liệu Khơng u cầu tiền sử lý Nhược điểm: - Thường tương đối khơng xác, dễ bị overfiting - Không ổn định, thay đổi liệu cho cấu trúc khác - Độ phức tạp nhớ thời gian lớn Tính tốn phức tạp, tốn nhiều nhớ - Khơng thích hợp tốn cần dự đốn giá trị có tính liên tục Câu 8: Điều kiện dừng để tránh overfitting thuật toán Decision Tree Xây dựng cuối cùng, sau ta sử dụng cắt tỉa, đánh giá hiệu việc cắt bỏ nút thông qua cross-vadilation, sau cắt bỏ đến độ xác tập test tăng dần đến tiệm cận tập train 13 Phần 2: Linear Regression Câu 1: Khi tối ưu hàm mát sử dụng phương pháp Gradient Descents, tham số θ (θ1, θ2, , θd) qua vòng lặp cập nhật đồng thời hay lần lượt? Việc lựa chọn Learning rate (alpha) ảnh hưởng tới trình tối ưu thuật tốn Gradient Descents nào? - Thuật toán GD cho hàm nhiều biến bắt đầu điểm dự đoán 𝜃0 , sau đó, vịng lặp, cập nhật 𝜃 từ d đồng thời cthuc - Với α, việc lựa chọn quan trọng, giá trị phụ thuộc nhiều vào toán phải làm vài thí nghiệm để chọn giá trị tốt α nhỏ làm cho toán hội tụ chậm, ảnh hưởng tới tốc độ thuật toán nhiều, chí khơng tới đích Tuy nhiên α lớn khiến tiến 14 nhanh tới đích sau vài vịng lặp, khơng hội tụ được, bước nhảy lớn Câu 2: Gradient descents for Linear Regression: Giải thích tất ký hiệu cơng thức cho biết data có tổng mẫu (samples), mẫu có đặc trưng? 𝜃 tham số mơ hình cần tìm α tốc độ học, bước nhảy giá trị 𝜃 h() hàm mục tiêu cần học y() output thực tế từ đầu vào Bộ data n mẫu, mẫu có d đặc trưng từ đến d Câu 3: Trình bày số hạn chế Linear Regression? Hạn chế Linear Regression nhạy cảm với nhiễu (sensitive to noise) Trong ví dụ mối quan hệ chiều cao cân nặng bên trên, có cặp liệu nhiễu (150 cm, 90kg) kết sai khác nhiều Xem hình đây: 15 Vì vậy, trước thực Linear Regression, nhiễu (outlier) cần phải loại bỏ Bước gọi tiền xử lý (pre-processing) Các mơ hình tuyến tính thường khơng tốt hiệu suất dự đốn , mối quan hệ học hạn chế thường đơn giản hóa mức thực tế phức tạp Hạn chế thứ ba Linear Regression khơng biễu diễn mơ hình phức tạp Mặc dù phần trên, thấy phương pháp áp dụng quan hệ outcome input không thiết phải tuyến tính, mối quan hệ đơn giản nhiều so với mơ hình thực tế Như làm sin, cos Câu 4: Có thể áp dụng Logistic Regression cho toán phân loại nhiều lớp (Multiclass classification) hay không? Logistic regression sử dụng toán binary classification, với phân loại nhiều lớp có nhiều cách - Sử dụng One-vs.-rest (1 phần lại), Softmax function: 16 - Sử dụng Multinomial logistic regression Câu 5: Giả sử, toán dự đốn giá th phịng trọ Hà Nội, liệu thu thập có dạng bảng 5a: Hãy xác định (input, label) cho mơ hình bạn định xây dựng? Tại bạn lại lựa chọn thuộc tính input cho mơ hình bạn? Label = Giá Thuê Input = Diện tích, Trang bị điều hịa 17 5b: Trong thực tế, có liệu khơng đầy đủ thơng tin (thiếu diện tích phòng) bảng Cách giải trường hợp gì? Trong thực tế xóa ln hàng liệu thứ 3, xóa ln cột liệu khơng ảnh hưởng đến mơ hình Tuy nhiên nhiều giữ lại tốt loại bỏ nó, chuyển sang tốn hồi quy với biết phụ thuộc biến bị thiếu (Diện tích) thơng qua biến độc lập biến cịn lại (Trang bị điều hịa, Giá th) để dự đốn giá trị bị thiếu Câu 6: Linear Regression gì? Đầu tốn? Mơ hình hồi quy mơ hình mà đầu số thực Mơ hình tuyến tính mơ hình có giả thuyết hàm Y=f(X) có dạng tuyến tính f(X)= 𝜃0+ 𝜃1.x1+…+ 𝜃n.xn "Hồi quy tuyến tính" hàm học có dạng tuyến tính đầu số thực Câu 7: Trình bày thuật toán Gradient descent Các điểm local minimum nghiệm phương trình đạo hàm Tuy nhiên, hầu hết trường hợp, việc giải phương trình đạo hàm bất khả thi Nguyên nhân đến từ phức tạp dạng đạo hàm, từ việc điểm liệu có số chiều lớn, từ việc có nhiều điểm liệu Hướng tiếp cận phổ biến xuất phát từ điểm mà coi gần với nghiệm tốn, sau dùng phép tốn lặp để tiến dần đến điểm cần tìm, tức đến đạo hàm gần với Gradient Descent (viết gọn GD) biến thể phương pháp dùng nhiều Phần 3: Logistic Regression 18 Câu 1: Giả dụ bạn train phân loại Logistic Regression có hàm giả thuyết H là: hθ(x) = g(θ0 + θ1x1 + θ2x2) với θ0 = 6, θ1 = 1, θ2= -1 Vẽ hình thể decision boundary phân loại (ví dụ: ) Câu 2: Trình bày số cách xử lý Logictis regression xảy tượng Overfitting? Sử dụng kỹ thuật Regularization, tức thêm vào hàm loss đại lượng nữa: 19 Đại lượng thêm vào sau hàm loss để điều chỉnh penalty (phạt) thành phần bậc cao model bị overfit Khi mơ hình tối ưu, thành phần bậc cao tiến đến 0, trừ bỏ qua thơi tính sử dụng norm2 với Một vài phương pháp khác nâng chất lượng số lượng data dùng để trainning Câu 3: Gradient Descent dừng local minimum training mơ hình Logistic Regression khơng? Gradient descent dừng local minimum, hàm cost làm hàm lõm Câu 4: Lợi ích việc Vectorizaion? Vectorization cách để loại bỏ vòng lặp code Vectorization tức thay dùng vịng lặp hàng hàng một, chúng 20 ta tiến hành phương thức mà thực tất giá trị lúc Một Dataframe có 12 triệu hàng cần phút để duyệt qua hàng cộng giá trị, sử dụng vectorization chưa đến 1s Câu 5: Hàm mát dựa vào phân phối xác suất thống kê? Tuân theo phân phối chuẩn Câu 6: Tại hàm sigmoid chọn toán logistic regression? Sigmoid hàm phi tuyến với đầu vào số thực cho kết nằm khoảng [0,1] xem xác xuất số toán Trong hàm Sigmoid, thay đổi nhỏ input dẫn đến kết output ko thay đổi Vì vậy, đem lại đầu "mượt" liên tục so với input Hàm sigmoid hàm liên tục đạo hàm đơn giản, dẫn đến việc áp dụng hàm vào mơ hình mạng đem lại dễ dàng việc xây dựng mô hình cập nhật tham số Câu 7: Các bước xây dựng toán logistic regression? - Xác định Biến phụ thuộc phải biến nhị phân - Các biến độc lập cần phải độc lập với nhau, có ý nghĩa tác động đến biến phụ thuộc Số lượng mẫu cần phải đủ lớn tùy theo toán, việc lấy cỡ mẫu tối thiểu 500 cần thiết để thu số liệu thống kê đại diện cho tham số Từ phát biểu kết toán dựa kết 0(no, failure, …) 1(yes, success,…) (dự đoán P(Y=1) hàm dựa X.) Phần 4: SVM 21 Câu hỏi 1: Thuật ngữ margin SVM có nghĩa gì? Margin khoảng cách hyperlane đến điểm liệu gần tương ứng với phân lớp Điều quan trọng phương pháp SVM ln cố gắng cực đại hóa margin này, từ thu hyperlane tạo khoảng cách xa Nhờ vậy, SVM giảm thiểu việc phân lớp sai (misclassification) điểm liệu đưa vào Câu 3: Vai trò C thuật tốn SVM Tham số C đại diện cho cân việc giảm thiểu lỗi tập huấn tối đa hóa margin Đối với giá trị lớn C, việc tối ưu hóa chọn hyperlane có lợi margin nhỏ hyperlane thực tốt việc phân loại xác Ngược lại, giá trị nhỏ C khiến trình tối ưu hóa tìm kiếm hyperlane phân tách có margin lớn hơn, hyperlane phân loại sai nhiều điểm Đối với giá trị nhỏ C, bạn nhận ví dụ bị phân loại sai, thường xuyên liệu đào tạo bạn phân tách tuyến tính 22 Câu hỏi 2: Overfitting gì? Khi mơ hình huấn luyện gặp tượng overfiting, ta cần điều chỉnh tham số C nào? Tăng dần C 23 Giảm dần C Câu 4: “Kernel trick” việc sử dụng có hiệu cho toán SVM? Với liệu class khơng có phân biệt tuyến tính, cần tìm phép biến đổi cho liệu ban đầu khơng phân biệt tuyến tính biến sang khơng gian Ở không gian này, liệu trở nên phân biệt tuyến tính SVM có kỹ thuật gọi kernel trick ( kỹ thuật hạt nhân), tính có khơng gian đầu vào có chiều sâu thấp biến đổi thành khơng gian có chiều cao hơn, tức khơng phân chia vấn đề thành vấn đề riêng biệt, tính gọi kernel Nói cách đơn giản thực số biết đổi liệu phức tạp, sau tìm q trình tách liệu dựa nhãn đầu mà chúng xác định trước VD: 24 Rất khó phân tách Do ta thêm chiều sâu z = x^2+ y^2 Bây liện biến đổi theo trục x z Câu 5: Kể tên số thư viện hỗ trợ SVM thực code? Thư viện SVC sklearn.svm Libsvm (ngôn ngữ C) 25 ... learning tạo mơ hình dựa tập liệu huấn luyện với kết đúng, kết mơ hình dựa kiến thức mà thu trình đào tạo Áp dụng cho taspm Hồi quy (cây hồi quy) phân loại (cây phân loại) Câu 6: Decision Tree sử dụng. .. hyperlane tạo khoảng cách xa Nhờ vậy, SVM giảm thiểu việc phân lớp sai (misclassification) điểm liệu đưa vào Câu 3: Vai trị C thuật tốn SVM Tham số C đại diện cho cân việc giảm thiểu lỗi tập huấn... đến 0, trừ bỏ qua thơi tính sử dụng norm2 với Một vài phương pháp khác nâng chất lượng số lượng data dùng để trainning Câu 3: Gradient Descent dừng local minimum training mơ hình Logistic Regression

Ngày đăng: 20/09/2021, 12:13

Từ khóa liên quan

Tài liệu cùng người dùng

Tài liệu liên quan