BÁO cáo đồ án PYTHON CHO máy học đề tài k nearest neighbors (k NN) classifier

20 75 0
BÁO cáo đồ án PYTHON CHO máy học đề tài k nearest neighbors (k NN) classifier

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

ĐẠI HỌC QUỐC GIA THÀNH PHỐ HỒ CHÍ MINH TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN -—□&□-— BÁO CÁO ĐỒ ÁN PYTHON CHO MÁY HỌC Đề tài: K-Nearest Neighbors (K-NN) classifíer Giảng Viên Hướng Dẫn: TS Nguyễn Vinh Tiệp Sinh viên thực hiện: STT Họ tên Huỳnh Phạm Việt Pháp Hoàng Anh Tú Nguyễn Lộc Linh MSSV 19522571 19522449 19521754 MỤC LỤC I Giới thiệu chung Trong Machine Learning có thuật tốn gọi máy lười học hay dân gian gọi “nước đến chân nhảy” Bởi lẻ ý tưởng thuật tốn khơng học điều từ tập liệu học, tính tốn thực cần dự đốn nhãn liệu Lớp (nhãn) đối tượng liệu dự đốn từ lớp (nhãn) k hàng xóm gần Vì có tính chất nên thuật toán gọi K-Nearest Neighbors (KNN) I \ou &6T V0U LooK Ạ5 vrs Mts NỄI&HMS AM To CLAÍS1VY THÍUS NtMỉss-r ' Liniíorm' ) score ■ cross_val_score(knn_nodel, X, y, cv=kf) print('accuracy: score.mean()) accuracy: 0.9663492063492063 Nhóm dùng đến GridSearchCV để tìm tham số tốt Độ xác tăng lên 0.9719 với tham số sau: grỉd_s.best_params_ {■algorithm': 'auto', 'leaf_size': 30, ■n_neighbors': 7, 'p,; 2, 'neights': 'unifor«'} knnmodel = KNeighborsClassifier(n_neighbors=7, algorithm='auto', leaf_size=30, p=2, weights='uniform') score = cross_val_score(knn_iỉiodel, X, y, cv=kf) print('accuracy: score.meanO) accuracy: 0.9719047619047618 5.4 Đánh giá kết Ưu điểm nhược điểm Ưu điểm • • Dễ sử dụng cài đặt Dự đốn kết liệu Nhược điểm • Nhạy cảm với liệu nhiễu dễ dàng • Độ phức tạp tính tốn nhỏ, thời gian chạy ngắn • • • • • Không tốt sử dụng với tập liệu lớn, nhiều chiều Khá phụ thuộc vào feature scaling 6.1 Ưu điểm Dễ sử dụng cài đặt: Chỉ có hai tham số yêu cầu sử dụng thuật toán KNN giá trị k hàm khoảng cách đa dạng sử dụng linh hoạt số liệu khoảng cách phù hợp Dự đoán kết liệu dễ dàng: nhờ vào phương pháp tiếp cận dựa nhớ, cho phép thích ứng nhanh với liệu Độ phức tạp tính tốn nhỏ, thời gian chạy ngắn: thuật toán thuộc loại lazy learning, thuật toán khơng học điều từ liệu training tính tốn thực cần dự đốn kết liệu, Chính điều làm thời gian học thuật toán KNN ngắn so với thuật toán khác “siêng năng” 6.2 Nhược điểm • Nhạy cảm với liệu nhiễu: KNN nhiễu dễ đưa kết với độ xác thấp k nhỏ • Khơng tốt sử dụng với tập liệu lớn, nhiều chiều: Cần thời gian lưu training set, liệu training test tăng lên nhiều cần nhiều thời gian tính tốn Như nói, KNN thuật tốn mà tính tốn nằm khâu test Trong việc tính khoảng cách tới điểm liệu training set tốn nhiều thời gian, đặc biệt với sở liệu có số chiều lớn có nhiều điểm liệu Với K lớn độ phức tạp tăng lên Ngoài ra, việc lưu toàn liệu nhớ ảnh hưởng tới hiệu KNN • Khá phụ thuộc vào feature scaling: Việc tiêu chuẩn hoá liệu trước dùng KNN Classifier giúp tăng độ xác dự đốn lên nhiều III Kết luận Trí tuệ nhân tạo (AI) giúp máy móc học hỏi kinh nghiệm, điều chỉnh theo đầu vào thực tác vụ giống người Mọi người lĩnh vực khác cố gắng áp dụng AI để làm cho nhiệm vụ họ dễ dàng nhiều Bài báo cáo cung cấp thơng tin thuật tốn máy học KNN classifier khái niệm, thành phần, ưu khuyết điểm xây dựng ví dụ tìm hiểu thuật tốn cách trực quan giúp dễ dàng nắm bắt thơng tin quan trọng thuật tốn K-Nearest Neighbors IV Tài liệu tham khảo [1] KNN Algorithm In Machine Learning | KNN Algorithm Using Python | K Nearest Neighbor | Simplilearn - YouTube [2] Analytics Vidhya: KNN - The Distance Based Machine Learning Algorithm (analyticsvidhya.com) [3] sklearn.neighbors.KNeighborsClassifier — scikit-learn 1.0.1 documentation [4] UCI Machine Learning Repository: Wine Data Set [5] 20 ... nhiên nội dung đề cập tới KNeighborsClassifier KNeighborsClassifier phương pháp phân loại thơng dụng Q trình học KNeighborsClassifier dựa k neighbors gần điểm truy vấn (query point), k giá trị số... chỉnh Hàm KNN Classifier thư viện sklearn 4.1 Giới thiệu hàm KNN Classifier Thư viện scikit-learn xây dựng hai mơ hình phân loại dựa nearest neighbors KNeighborsClassifier RadiusNeighborsClassifier,... Classifier KNN viết tắt K- Nearest Neighbors, thuật tốn supervised learning Thuật tốn sử dụng để giải toán phân lớp lẫn toán hồi quy Ở báo cáo thuật toán chủ yếu sử dụng cho toán phân lớp, gọi K- Nearest

Ngày đăng: 15/01/2022, 17:59

Từ khóa liên quan

Mục lục

  • MỤC LỤC

  • I. Giới thiệu chung

  • II. Nội dung

    • 1. Giới thiệu KNN Classifier.

    • 2. Cách thức hoạt động của KNN.

    • 3. Khi nào nên dùng KNN Classifier.

      • Ứng dụng:

    • 4. Hàm KNN Classifier của thư viện sklearn.

      • 4.1. Giới thiệu hàm KNN Classifier.

      • 4.2. Các tham số của hàm KNN classifier.

      • 4.3. Tuning hyperparameter (Điều chỉnh siêu tham số).

    • 5. Thử nghiệm.

      • 5.1. Đặt vấn đề.

      • 5.2. Mô tả dữ liệu.

      • 5.3. Áp dụng hàm KNN classifier vào bài toán.

      • 5.4. Đánh giá kết quả.

    • 6. Ưu điểm và nhược điểm

  • III. Kết luận

  • IV. Tài liệu tham khảo

Tài liệu cùng người dùng

Tài liệu liên quan