Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống
1
/ 37 trang
THÔNG TIN TÀI LIỆU
Thông tin cơ bản
Định dạng
Số trang
37
Dung lượng
5,43 MB
Nội dung
TRƯỜNG ĐẠI HỌC ĐIỆN LỰC KHOA CÔNG NGHỆ THÔNG TIN BÁO CÁO CHUYÊN ĐỀ HỌC PHẦN DEEP LEARNING ĐỀ TI: Phân tích quan điểm đánh giá sản phẩm Shopify cách sử dụng phương pháp tiếp cận TF-IDF & Chi^2 Sinh viên thực : PHẠM ĐỨC LONG TRỊNH ĐẶNG PHƯƠNG NAM TRẦN NGỌC ĐỨC Giảng viên hướng dẫn : NGÔ HONG HUY Ngành : CÔNG NGHỆ THƠNG TIN Chun ngành : TRÍ TUỆ NHÂN TẠO & THỊ GIÁC MÁY TÍNH Lớp : D14TTNT&TGMT Khóa : 2019-2024 Hà Nội, tháng năm 2022 PHIẾU CHẤM ĐIỂM STT Họ tên sinh viên Phạm Đức Long Nội dung thực Điểm (19810000175) Trịnh Đặng Phương Nam Trần Ngọc Đức Họ tên giảng viên Giảng viên chấm 1: Giảng viên chấm 2: Chữ ký Ghi Chữ ký MỤC LỤC LỜI CẢM ƠN LỜI MỞ ĐẦU CHƯƠNG TỔNG QUAN VỀ HỌC MÁY, HỌC SÂU V MƠ HÌNH MẠNG NƠ-RON TÍCH CHẬP 1.1 Khái niệm học máy: 1.2 Học giám sát học không giám sát: 1.2.1 Học có giám sát (Supervised Learning)-SL 1.2.2 Học không giám sát (Unsupervised Learning) - UL: 1.3 Ứng dụng học máy: 11 1.4 Mạng nơ-ron tích chập .12 1.4.1 Giới thiệu chung mạng CNN………………………………………… 1.4.2 Sự phát triển mạng CNN………………………………………… 1.4.3 Đặc trưng chung mạng CNN………………………………… 1.5 Các mạng CNN tiêu biểu ………………………………………………… 1.5.1 LeNet-5 ……………………………………………………………… 1.5.2 AlexNet………………………………………………………………… 1.5.3 VGG-16………………………………………………………………… 1.5.4 GoogleNet - Inception-V1……………………………………………… 1.5.5 GoogleNet - Inception-V3……………………………………………… 1.5.6 ResNet-50……………………………………………………………… 1.5.7 DenseNet……………………………………………………………… 1.6 Tổng kết………………………………………………………………… CHƯƠNG THỬ NGHIỆM V ĐÁNH GIÁ KẾT QUẢ 18 2.1 Bài toán .18 2.1.1 Phát biểu toán: 18 2.1.2 Chuẩn bị liệu: 18 2.1.3 Xử lý liệu: 19 2.1.4 Code chạy liệu .19 KẾT LUẬN 25 TI LIỆU THAM KHẢO .26 LỜI CẢM ƠN Lời đầu tiên, em xin chân thành gửi lời cảm ơn tới thầy giáo Trường Đại học Điện Lực nói chung thầy cô giáo Khoa Công nghệ thơng tin nói riêng tận tình giảng dạy, truyền đạt cho chúng em kiến thức kinh nghiệm quý báu suốt trình học Đặc biệt, em gửi lời cảm ơn đến Giáo viên hướng dẫn Ngơ Hồng Huy, thầy tận tình theo sát giúp đỡ, trực tiếp bảo, hướng dẫn suốt trình nghiên cứu học tập chúng em Trong thời gian học tập với thầy, chúng em tiếp thu thêm nhiều kiến thức bổ ích mà cịn học tập tinh thần làm việc, thái độ nghiên cứu khoa học nghiêm túc, hiệu Đây điều cần thiết cho chúng em trình học tập công tác sau Chúng em muốn gửi lời cảm ơn đặc biệt nhất, sâu sắc nhất, thân thương đến thầy chúc thầy dồi sức khỏe, tiếp tục giảng dạy hết tâm huyết cho lứa học trị sau để đất nước ta ngày có nhiều nhân tài, người giỏi doanh nghiệp, xây dựng đất nước phát triển Em xin chân thành cảm ơn! LỜI MỞ ĐẦU Tính cấp thiết đề tài Cơng nghệ ngày phổ biến khơng phủ nhận tầm quan trọng hiệu mà đem lại cho sống Bất kỳ lĩnh vực nào, góp mặt trí tuệ nhân tạo giúp người làm việc hồn thành tốt cơng việc Và gần đây, thuật ngữ “machine learning” nhiều người quan tâm.Thay phải code phần mềm với cách thức thủ cơng theo hướng dẫn cụ thể nhằm hồn thành nhiệm vụ đề máy tự “học hỏi” cách sử dụng lượng lớn liệu thuật tốn cho phép thực tác vụ Đây lĩnh vực khoa học khơng mới, cho thấy lĩnh vực trí tuệ nhân tạo ngày phát triển tiến xa tương lai Đồng thời, thời điểm xem lĩnh vực “nóng” dành nhiều mối quan tâm để phát triển cách mạnh mẽ, bùng nổ Hiện nay, việc quan tâm machine learning ngày tăng lên nhờ có machine learning giúp gia tăng dung lượng lưu trữ loại liệu sẵn, việc xử lý tính tốn có chi phí thấp hiệu nhiều Những điều hiểu thực tự động, nhanh chóng để tạo mơ hình cho phép phân tích liệu có quy mơ lớn phức tạp đồng thời đưa kết cách nhanh xác Cùng với phát triển mạng internet loại hình thương mại trực tuyến phát triển nhanh, tiêu biểu hệ thống Amazon, Yelp Tripadvisor Đặc điểm chung hệ thống thương mại cho phép khách hàng thể ý kiến đánh giá sản phẩm, dịch vụ Những ý kiến đánh giá phần quan trọng hệ thống cung cấp thơng tin tới khách hàng khác giúp họ có hiểu biết định sản phẩm hay dịch vụ hệ thống để đưa định có nên sử dụng dịch vụ hay không Mục tiêu nghiên cứu Báo cáo xây dựng mơ hình TF-IDF & Chi^2 nhằm phân tích quan điểm đánh giá sản phẩm web thương mại điện tử Shopify Đối tượng phạm vi nghiên cứu - Đối tượng nghiên cứu: Phạm vi nghiên cứu: Đồ án nghiên cứu phạm quy nhu cầu thực tế Phương pháp nghiên cứu - Sử dụng thuật toán TF-IDF để lọc kết thuật toán Chi^2 để xác định mức độ chuẩn xác liệu Kết cấu báo cáo: Báo cáo gồm chương: + Chương 1: Tổng quan học máy mơ hình TF-IDF & Chi^2 + Chương 2: Thử nghiệm đánh giá kết CHƯƠNG TỔNG QUAN VỀ HỌC MÁY V MƠ HÌNH MẠNG NƠ-RON 1.1 Khái niệm học máy: Học máy (Machine learning) lĩnh vực Trí tuệ nhân tạo(Artificial Intelligence) sử dụng thuật tốn cho phép máy tính học từ liệu để thực cơng việc thay lập trình cách rõ ràng, cung cấp cho hệ thống khả tự động học hỏi cải thiện hiệu suất, độ xác dựa kinh nghiệm từ liệu đầu vào Học máy tập trung vào việc phát triển phần mềm, chương trình máy tính truy cập vào liệu tận dụng nguồn liệu để tự học Học máy địi hỏi đánh giá người việc tìm hiểu liệu sở lựa chọn kĩ thuật phù hợp để phân tích liệu Đồng thời, trước sử dụng, liệu phải sạch, khơng có sai lệch khơng có liệu giả Các mơ hình học máy yêu cầu lượng liệu đủ lớn để "huấn luyện" đánh giá mơ hình Trước đây, thuật toán học máy thiếu quyền truy cập vào lượng lớn liệu cần thiết để mơ hình hóa mối quan hệ liệu Sự tăng trưởng liệu lớn (big data) cung cấp thuật toán học máy với đủ liệu để cải thiện độ xác mơ hình dự đốn Học máy có loại Học có giám sát ( Supervised Learning) Học khơng có giám sát(Unsupervised Learning) 1.2 Học giám sát học không giám sát: 1.2.1 Học có giám sát (Supervised Learning)-SL Là phương pháp sử dụng liệu gán nhãn từ trước để suy luận quan hệ đầu vào đầu Các liệu gọi liệu huấn luyện chúng cặp đầu vào-đầu Học có giám sát xem xét tập huấn luyện để từ đưa dự đoán đầu cho đầu vào chưa gặp Mỗi liệu có cấu trúc theo cặp {x, y} với x xem liệu thô (raw data) y nhãn liệu Nhiệm vụ SL dự đốn đầu mong muốn dựa vào giá trị đầu vào Dễ nhận ra, học có GIÁM SÁT tức máy học dựa vào trợ giúp người, hay nói cách khác người dạy cho máy học giá trị đầu mong muốn định trước người Tập liệu huấn luyện hoàn toàn gán nhãn dựa vào người Tập nhỏ máy tính học SL áp dụng cho nhóm tốn tốn dự đoán (regression) toán phân lớp (classification), dự đoán giá nhà, phân loại email dựa tập liệu mẫu - tập huấn luyện (training data) Học có giám sát hướng tiếp cận Máy học để làm cho máy tính có khả "học" Trong hướng tiếp cận này, người ta "huấn luyện" máy tính dựa quan sát có dán nhãn Ta hình dung quan sát câu hỏi, nhãn chúng câu trả lời Ý tưởng học có giám sát là: việc ghi nhớ tổng quát hóa số quy tắc từ tập câu hỏi có đáp án trước, máy tính trả lời câu hỏi dù chưa gặp phải, có mối liên quan Ví dụ ta dạy máy tính "1 + = 2" hy vọng học phép tính cộng x + trả lời "2 + = 3" Học có giám sát mơ việc người học cách đưa dự đoán cho câu hỏi, sau đối chiếu với đáp án Sau người rút phương pháp để trả lời không câu hỏi đó, mà cho câu hỏi có dạng tương tự Trong học có giám sát, quan sát bắt buộc phải dán nhãn trước Đây nhược điểm phương pháp này, khơng phải lúc việc dán nhãn xác cho quan sát dễ dàng Ví dụ dịch thuật, từ câu ngơn ngữ gốc dịch thành nhiều phiên khác ngôn ngữ cần dịch sang Tuy nhiên, việc quan sát dán nhãn lại ưu điểm học có giám sát thu thập liệu lớn dán nhãn chuẩn xác, việc huấn luyện trở nên dễ dàng nhiều so với liệu không dán nhãn 1.2.2 Học không giám sát (Unsupervised Learning) - UL: Unsupervised Learning nhóm thuật tốn hay phương pháp kỹ thuật cho phép máy tự học hỏi tìm mơ hình hay cấu trúc ẩn liệu không gắn nhãn trước Điều đồng nghĩa với việc có liệu đầu vào hồn tồn khơng biết comeout Ứng dụng phổ biến học khơng giám sát gom cụm (cluster) Trong thuật toán này, liệu đầu hay nhãn mà có liệu đầu vào Thuật tốn Học không giám sát dựa vào cấu trúc liệu để thực cơng việc đó, ví dụ phân nhóm giảm số chiều liệu để thuận tiện việc lưu trữ tính tốn Một cách tốn học, Học khơng giám sát có liệu vào X mà khơng biết nhãn Y tương ứng Hình 8: Kiến trúc VGG-16 Source: Illustrated: 10 CNN Architectures - Raimi Karim Paper VGG-16 - Very Deep Convolutional Networks for Large-Scale Image Recognition Author: Karen Simonyan, Andrew Zisserman University of Oxford, UK Với VGG-16, quan điểm mạng nơ ron sâu giúp ích cho cải thiện độ xác mơ hình tốt Về kiến trúc VGG-16 đặc điểm AlexNet có cải tiến: Kiến trúc VGG-16 sâu hơn, bao gồm 13 layers tích chập chiều (thay so với AlexNet) layers fully connected Lần VGG-16 xuất khái niệm khối tích chập (block) Đây kiến trúc gồm tập hợp layers CNN lặp lại giống Kiến trúc khối khởi nguồn cho dạng kiến trúc hình mẫu thường gặp mạng CNN kể từ VGG-16 kế thừa lại hàm activation ReLU AlexNet VGG-16 kiến trúc thay đổi thứ tự block xếp nhiều layers CNN + max pooling thay xen kẽ layer CNN + max pooling Một bạn có câu hỏi Forum Machine Learning Cơ Bản thay đổi giúp cho VGG net cải thiện nào? Các layers CNN sâu trích lọc đặc trưng tốt so với layers CNN VGG-16 sử dụng lọc kích thước nhỏ 3x3 thay nhiều kích thước lọc AlexNet Kích thước lọc nhỏ giúp giảm số lượng tham số cho mơ hình mang lại hiệu tính tốn VD: Nếu sử dụng lọc kích thước x featurs map (là output layer CNN) có độ sâu ta cần n_filters x kernel_size x kernel_size x n_channels = x x x = 54 tham số Nhưng sử dụng lọc kích thước x cần x x = 75 tham số lọc x mang lại hiệu so với lọc x Mạng VGG-16 sâu so với AlexNet số lượng tham số lên tới 138 triệu tham số Đây mạng mà có số lượng tham số lớn Kết xếp thứ liệu ImageNet validation thời điểm public Ngồi cịn phiên VGG-16 VGG-19 tăng cường thêm layers độ sâu Bắt đầu từ VGG-16, hình mẫu chung cho mạng CNN tác vụ học có giám sát xử lý ảnh bắt đầu hình thành mạng trở nên sâu sử dụng block dạng [Conv2D*n + Max Pooling] 1.5.4 GoogleNet - Inception-V1 Hình 9: Kiến trúc GoogleNet - Inception version Paper Inception-V1 - Going Deeper with Convolutions Authors: Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, Andrew Rabinovich Google, University of Michigan, University of North Carolina Mạng Inception-V1 dành chiến thắng thi ImageNet vào năm 2015 Kiến trúc giải câu hỏi lớn mạng CNN sử dụng kernel_size với kích thước hợp lý Các kiến trúc mạng nơ ron trước sử dụng lọc với đa dạng kích thước 11x11, 5x5, 3x3 nhỏ 1x1 Một khám phá đưa báo việc kết hợp đồng thời lọc vào block mang lại hiệu kiến trúc khối Inception Khối Inception: Khối Inception bao gồm nhánh song song Các lọc kích thước 1x1, 3x3, 5x5 áp dụng Inception Module giúp trích lọc đa dạng đặc trưng vùng nhận thức có kích thước khác Ở đầu nhánh 1, 2, từ xuống, phép tích chập 1x1 sử dụng điểm ảnh kết nối fully connected nhằm mục đích giảm độ sâu kênh số lượng tham số mơ hình Ví dụ: Ở block trước có kích thước width x height x channels = 12 x 12 x 256 Sau áp dụng 32 lọc kích thước 1x1 khơng làm thay đổi width, height độ sâu giảm xuống 32, output shape lúc có kích thước 12 x 12 x 32 Ở layer liền sau, thực tích chập tồn độ sâu, khởi tạo lọc có độ sâu 32 thay 256 Do đó số lượng tham số giảm cách đáng kể Nhánh thứ từ xuống giảm chiều liệu layer maxpooling kích thước 3x3 sau áp dụng lọc kích thước 1x1 để thay đổi số kênh Các nhánh áp dụng padding stride cho đầu có kích cỡ chiều dài chiều rộng Cuối ta concatenate toàn kết đầu khối theo kênh để thu output có kích thước với input Khối Inception lặp lại lần kiến trúc Inception-V1 Toàn mạng bao gồm 22 Layers, lớn gần gấp đôi so với VGG-16 Nhờ áp dụng tích chập 1x1 giúp tiết kiệm số lượng tham số xuống triệu, gần 27 lần so với VGG-16 1.5.5 GoogleNet - Inception-V3 Hình 10: Kiến trúc GoogleNet - Inception version Paper Inception-V3 Rethinking the Inception Architecture for Computer Vision Authors: Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jonathon Shlens, Zbigniew Wojna Google, University College London Inception-V3 kế thừa Inception-V1 bao gồm 24 triệu tham số Toàn layer tích chập Inception-V3 theo sau layer batch normalization ReLU activation Batch normalization kỹ thuật chuẩn hóa đầu vào theo minibatch layer theo phân phối chuẩn hóa N(0,1), giúp cho q trình huấn luyện thuật tốn nhanh Inception-V3 giải vấn đề thắt cổ chai (representational bottlenecks) Tức kích thước layers khơng bị giảm cách đột ngột Đồng thời Inception-V3 có cách tính tốn hiệu nhờ sử dụng phương pháp nhân tố (factorisation methods) Hiện Inception module bao gồm version Chúng ta xem qua điểm đặc biệt version Inception-A: Cải tiến so với Inception module V1 Tại nhãnh thứ thay layer tích chập x layer tích chập x liên tiếp giúp giảm số lượng tham số từ 25 18 tăng độ sâu cho mơ hình Inception-B: Cải tiến so với Inception-A Thay tích chập x tích chập x nhánh thứ nhánh thứ Đồng thời phân tích nhân tố tích chập x thành tích chập liên tiếp x x số lượng tham số so với tích chập tích chập x liên tiếp Nhờ số lượng tham số giảm từ 18 xuống 14 Inception-C: Cải tiến so với Inception-B Thay tích chập x tích chập x x x đồng thời thay đặt layer x x liên tiếp đặt chúng song song Kiến trúc giúp giảm số lượng tham số từ 14 Ngồi Inception-V3 cịn sử dụng kiến trúc giảm chiều liệu Reduction-A Reduction-B 1.5.6 ResNet-50 Hình 11: Kiến trúc ResNet bao gồm khối đặc trưng khối tích chập (Conv Block) khối xác định (Identity Block) Paper - ResNet - Deep Residual Learning for Image Recognition Authors: Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun Microsoft ResNet kiến trúc sử dụng phổ biến thời điểm ResNet kiến trúc sớm áp dụng batch normalization Mặc dù mạng sâu có số lượng layer lên tới 152 nhờ áp dụng kỹ thuật đặc biệt mà ta tìm hiểu bên nên kích thước ResNet50 khoảng 26 triệu tham số Kiến trúc với tham số hiệu ResNet mang lại chiến thắng thi ImageNet năm 2015 Những kiến trúc trước thường cải tiến độ xác nhờ gia tăng chiều sâu mạng CNN Nhưng thực nghiệm cho thấy đến ngưỡng độ sâu độ xác mơ hình bão hịa chí phản tác dụng làm cho mơ hình xác Khi qua nhiều tầng độ sâu làm thơng tin gốc bị nhà nghiên cứu Microsoft giải vấn đề ResNet cách sử dụng kết nối tắt Các kết nối tắt (skip connection) giúp giữ thông tin không bị cách kết nối từ layer sớm trước tới layer phía sau bỏ qua vài layers trung gian Trong kiến trúc base network CNN mạng YOLOv2, YOLOv3 gần YOLOv4 bạn thường xuyên thấy kết nối tắt áp dụng ResNet có khối tích chập (Convolutional Bock, Conv block hình) sử dụng lọc kích thước x giống với InceptionNet Khối tích chập bao gồm nhánh tích chập nhánh áp dụng tích chập x trước cộng trực tiếp vào nhánh lại Khối xác định (Identity block) khơng áp dụng tích chập x mà cộng trực tiêp giá trị nhánh vào nhánh cịn lại Hình 12: Cộng trực tiếp đầu vào khối với nhánh lại khối Identity block Gỉa sử có x đầu vào khối xác định Chúng ta cần ánh xạ đầu vào x thành hàm f(x) Để tìm ánh xạ chuẩn xác tương đương với hàm f(x) việc khó Nhưng cộng thêm đầu thành x+f(x) qui tham số hóa độ lệch, tức cần tham số hóa phần dư f(x) Tìm ánh xạ theo phần dư dễ nhiều cần tìm giá trị f(x) cho gần thu ánh xạ chuẩn xác Tại khối xác định, áp dụng layer activation ReLU sau xen kẽ tầng trọng số Mặc dù có kiến trúc khối kế thừa lại từ GoogleNet ResNet lại dễ tóm tắt triển khai nhiều kiến trúc sở gồm khối tích chập khối xác định Ta đơn giản hóa kiến trúc ResNet-50 hình bên dưới: Hình 13: Kiến trúc tóm tắt mạng ResNet-50 1.5.7 DenseNet Ở ResNet phân tách hàm số thành hàm xác định hàm phi tuyến: Cùng nhắc lại công thức khai triển Taylor x=0: Ta thấy cơng thức ResNet gần tương tự khai triển taylor đạo hàm bậc nhất, g(x) tương ứng với thành phần số dư Khai triển Taylor chuẩn xác phân rã số dư thành nhiều đạo hàm bậc cao Ý tưởng DenseNet vậy, sử dụng mạng lưới kết nối tắt dày đặc để liên kết khối với Từ đầu vào x ta áp dụng liên tiếp chuỗi ánh xạ liên tiếp với cấp độ phức tạp tăng dần: DenseNet khác so với ResNet khơng cộng trực tiếp x vào f(x) mà thay vào đó, đầu phép ánh xạ có kích thước dài rộng concatenate với thành khối theo chiều sâu Sau để giảm chiều liệu áp dụng tầng chuyển tiếp (translation layer) Tầng kết hợp layer tích chập giúp giảm độ sâu max pooling giúp giảm kích thước dài rộng Dễ dàng hình dung qua hình vẽ bên dưới: Hình 14: Kiến trúc DenseNet Và bên chi tiết layers DenseNet Kết DenseNet121 với triệu tham số có độ xác cao so với ResNet50 với gần 26 triệu tham số liệu ImageNet DenseNet đồng thời áp dụng BatchNormalization trước thực tích chập tầng chuyển tiếp nên giảm triệt tiêu đạo hàm (vanishing gradient descent) 1.6.Tổng kết Như thông qua liệt kê giới thiệu này, gần hết tiến trình phát triển kiến trúc mạng CNN từ giai đoạn bắt đầu (kiến trúc LeNet) đến cuối năm 2016 (ResNet, DenseNet) Vậy ta tổng kết dấu mốc mạng sau: LeNet (1998): Là mạng áp dụng tích chập chiều AlexNet (2012): Làm mạng áp dụng CNN chiến thắng thi ImageNet Phá vỡ lối mòn sử dụng đặc trưng thủ cơng từ thuật tốn truyền thống HOG, SHIFT, SURF thay cho đặc trưng huấn luyện tác vụ học có giám sát thị giác máy tính VGG-16 (2014): Hình thành xu hướng cải thiện độ xác mạng học sâu thông qua gia tăng độ sâu chúng GoogleNet - InceptionV1 (2014): Kết hợp nhiều lọc có kích thước khác biệt vào khối Định hình kiến trúc khối cho kiến trúc mạng CNN chuẩn sau ResNet-50 (2015): Sử dụng kết nối tắt để ánh xạ đầu vào từ layer trước tới layer sau Là kiến trúc mạng sâu có số tham số nhỏ nhờ kế thừa kỹ thuật từ GoogleNet DenseNet (2016): Là bước phát triển cua ResNet kế thừa kiến trúc khối phát triển kết nối tắt theo mạng dày đặc Ngoài kiến trúc tiêu biếu mang tính dấu mốc liệt kê trên, cịn kiến trúc khác khơng nằm top đầu thi ImageNet sử dụng rộng rãi MobileNet, SqueezeNet, NasNet Gần kiến trúc EfficientNet dựa việc tìm kiếm tối ưu khơng gian tham số Depth, Width Channel google phát triển tạo kết SOTA liệu ImageNet CHƯƠNG THỬ NGHIỆM V ĐÁNH GIÁ KẾT QUẢ 2.1 Bài toán 2.1.1 Phát biểu toán: 2.1.2 Chuẩn bị liệu: 2.1.3 Xử lý liệu: Công việc thực nghiệm thực trình training trên: Google Colab.Về python tích hợp nhiều thuật tốn khác nhau, dễ dàng sử dụng, giúp giảm thời gian xây dựng hệ thống Đồng thời kết hợp với pandas numpy để phân tích, xử lý cấu trúc data, matplotlib dùng để đồ thị 2.1.4 Code chạy liệu Chạy liệu kết Kết luận KẾT LUẬN Qua trình tìm hiểu, phân tích nghiên cứu “Mạng CNN ứng dụng” Với kiến thức thu nhận nhóm em hồn thành nghiên cứu Tuy nhiên, nghiên cứu nhiều hạn chế mà chúng em chưa nhận biết Chúng em mong có nhận xét, đánh giá từ phía thầy để nhìn hạn chế nhóm em báo cáo Các bước phát triển bọn em nghiên cứu tiếp vào thời gian tới tác động trực tiếp nhiều đề tài Em xin chân thành cảm ơn! TI LIỆU THAM KHẢO Đắm vào học sâu - Chapter - Mạng nơ ron tích chập sâu đại Các kiến trúc mạng CNN - dlapplication.github.io Illustrated: 10 CNN Architectures - Raimi Karim Bài - Convolutional Neural Network - Khanh blog Overview of CNN research: 25 years history and the current trends CNN Architectures: LeNet, AlexNet, VGG, GoogLeNet, ResNet and more [7] Bài giảng Học máy – thầy Ngơ Hồng Huy