BÀI TẬP LỚN NHẬP MÔN HỌC MÁY VÀ KHAI PHÁ DỮ LIỆU DỰ ĐOÁN BỨC XẠ MẶT TRỜI GHI (GLOBAL HORIZONTAL IRRADIANCE) MỤC LỤC DANH SÁCH HÌNH ẢNH....................................................................................... 2 DANH SÁCH BẢNG BIỂU..................................................................................... 3 PHÂN CÔNG CÔNG VIỆC..................................................................................... 4 I. Giới thiệu và mô tả bài toán................................................................................ 5 1. Đặt vấn đề ........................................................................................................ 5 2. Bài toán dự đoán bức xạ mặt trời..................................................................... 5 II. Data set............................................................................................................. 6 III. Thuật toán LSTM (Long Short Term Memory) .............................................. 6 1. Mạng hồi quy RNN.......................................................................................... 6 1.1. Mạng RNN..........................................................................................................6 1.2. Các vấn đề của RNN...........................................................................................8 2. Mạng LSTM (Long short term memory)......................................................... 8 2.1. Ý tưởng cốt lõi ....................................................................................................9 2.2. Bên trong của LSTM ........................................................................................11 IV. Thực nghiệm và đánh giá............................................................................... 12 1. Sử dụng Linear Regression............................................................................ 13 2. Sử dụng LSTM ............................................................................................... 14 2.1. Thay đổi tỷ lệ traintest.....................................................................................15 2.2. Thay đổi learning_rate .....................................................................................17 2.3. Thay đổi drop_out.............................................................................................19 2.4. Sử dụng thêm hàm kích hoạt ............................................................................20 3. So sánh Linear Regression và LSTM............................................................. 21 V. Kết luận.......................................................................................................... 22 VI. Tài liệu tham khảo ......................................................................................... 22 DANH SÁCH HÌ
ĐẠI HỌC BÁCH KHOA HÀ NỘI TRƯỜNG CÔNG NGHỆ THÔNG TIN VÀ TRUYỀN THÔNG ──────── * ──────── BÀI TẬP LỚN NHẬP MÔN HỌC MÁY VÀ KHAI PHÁ DỮ LIỆU DỰ ĐOÁN BỨC XẠ MẶT TRỜI GHI (GLOBAL HORIZONTAL IRRADIANCE) Sinh viên thực Mã sinh viên Nguyễn Trọng Hải 20183730 Ngơ Đình Sáng 20183819 Võ Việt Dũng 20183823 Nguyễn Minh Đức 20183713 Lớp : Kỹ thuật máy tính – Khóa 63 Giảng viên hướng dẫn : PGS TS Thân Quang Khốt Hà Nội, tháng năm 2022 Nhập mơn Học máy Khái phá liệu 20211 MỤC LỤC DANH SÁCH HÌNH ẢNH DANH SÁCH BẢNG BIỂU PHÂN CÔNG CÔNG VIỆC I Giới thiệu mơ tả tốn Đặt vấn đề Bài toán dự đoán xạ mặt trời II Data set III Thuật toán LSTM (Long Short Term Memory) Mạng hồi quy RNN 1.1 Mạng RNN 1.2 Các vấn đề RNN Mạng LSTM (Long short term memory) IV 2.1 Ý tưởng cốt lõi 2.2 Bên LSTM 11 Thực nghiệm đánh giá 12 Sử dụng Linear Regression 13 Sử dụng LSTM 14 2.1 Thay đổi tỷ lệ train/test .15 2.2 Thay đổi learning_rate .17 2.3 Thay đổi drop_out 19 2.4 Sử dụng thêm hàm kích hoạt 20 So sánh Linear Regression LSTM 21 V Kết luận 22 VI Tài liệu tham khảo 22 DANH SÁCH HÌNH ẢNH Hình 1: Cánh đồng pin mặt trời Hình 2: Cấu trúc RNN Hình 3: Cấu trúc mở rộng mạng RNN Hình 4: Chuỗi lặp RNN chứa cổng Page Nhập môn Học máy Khái phá liệu 20211 Hình 5: Chuỗi lặp LSTM chứa tầng Hình 6: Hình minh họa trạng thái tế vào LSTM 10 Hình 7: Hình minh họa cổng mạng LSTM .10 Hình 8: Hình minh họa cổng quên f 11 Hình 9: Hình minh họa cổng vào I 11 Hình 10: Hình minh họa tế vào LSTM cập nhật trái thái 12 Hình 11: Hình minh họa cổng output LSTM 12 Hình 12: Hàm MSE 12 Hình 13: Hàm RMSE 13 Hình 14: Dữ liệu dạng dataframe 13 Hình 15: Sử dụng mơ hình Linear Regression 13 Hình 16: Kết sử dụng mơ hình Linear Regression .14 Hình 17: Kết dự đốn với tỉ lệ train/test = 70:30 15 Hình 18: RMSE với tỉ lệ train/test = 70:30 15 Hình 19: Kết dự đốn với tỉ lệ train/test = 75:25 16 Hình 20: RMSE với tỉ lệ train/test = 75:25 16 Hình 21: Kết dự đoán với tỉ lệ train/test = 60:40 17 Hình 22: RMSE với tỉ lệ train/test = 60:40 17 Hình 23: Kết dự đoán với learning_rate = 0.0001 .18 Hình 24: Kết dự đoán với learning_rate = 0.00001 18 Hình 25: Kết dự đốn với drop_out= 0.001 19 Hình 26: Kết dự đốn với drop_out= 0.05 19 Hình 27: Kết dự đốn với hàm kích hoạt hàm Relu 20 Hình 28: RMSE với hàm kích hoạt hàm Relu .20 Hình 29: Kết dự đốn với hàm kích hoạt hàm Tanh .21 Hình 30: RMSE với hàm kích hoạt hàm Tanh .21 Hình 31: Kết dự đốn ngày 22 DANH SÁCH BẢNG BIỂU Bảng 1: Bảng so sánh RMSE thay đổi tỷ lệ train/test 17 Page Nhập môn Học máy Khái phá liệu 20211 PHÂN CÔNG CÔNG VIỆC Nhiệm vụ Người tham gia Tìm liệu Nguyễn Minh Đức Võ Việt Dũng Tiền xử lý liệu Nguyễn Minh Đức Phân tích liệu Võ Việt Dũng Nguyễn Trọng Hải Tìm kiếm mơ hình Ngơ Đình Sáng Chạy thử mơ hình Linear Regression Đánh giá mơ hình Linear Regression Võ Việt Dũng Nguyễn Trọng Hải Thời điểm Thời điểm bắt đầu kết thúc 8/11 22/11 8/11 29/11 22/11 9/12 22/11 3/12 3/12 9/12 5/12 10/12 15/12 1/1 18/12 1/1 20/12 1/1 29/12 29/12 Ngơ Đình Sáng Nguyễn Minh Đức Võ Việt Dũng Nguyễn Minh Đức Võ Việt Dũng Ngơ Đình Sáng Chạy thử mơ hình LSTM Nguyễn Trọng Hải Võ Việt Dũng Đánh giá mơ hình LSTM Ngơ Đình Sáng Điều chỉnh tham số mơ hình LSTM Ngơ Đình Sáng Demo Nguyễn Trọng Hải Nguyễn Trọng Hải Ngơ Đình Sáng Võ Việt Dũng Tổng hợp báo cáo Nguyễn Minh Đức 22/11 2/1 Làm PowerPoint Nguyễn Trọng Hải 27/12 29/12 Page Nhập môn Học máy Khái phá liệu I 20211 Giới thiệu mô tả toán Đặt vấn đề Dự báo lượng mặt trời lĩnh vực nghiên cứu sôi động lĩnh vực quan tâm vài năm trở lại Ưu điểm việc sử dụng lượng mặt trời bao gồm nguồn lượng hơn, giảm nhập không phụ thuộc vào nguồn tài nguyên không tái tạo Hình 1: Cánh đồng pin mặt trời Tuy nhiên, lượng mặt trời chưa sử dụng nhiều thay đổi thời tiết dẫn đến không chắn lượng lượng tạo Do trình sản xuất lượng mặt trời khơng thể kiểm sốt khơng liên tục nên việc dự đốn xác quy trình quan trọng nhà điều hành lưới điện công ty cung cấp điện mặt trời Đơn vị vận hành lưới điện chịu trách nhiệm lập kế hoạch cung - cầu để cân cung cầu; đó, dự đốn xác sản xuất điện mặt trời quan trọng để tránh dao động thay đổi gián đoạn nguồn cung cấp cách thiết lập kế hoạch phát điện trước sử dụng liệu dự đốn Do đó, hiểu biết trước điện sản xuất đóng vai trị quan trọng việc trì chất lượng dịch vụ tiết kiệm tổn thất phát sinh Bài toán dự đoán xạ mặt trời Bài toán dự đoán xạ mặt trời toán hồi quy, đầu mong muốn chuỗi dự đoán xạ mặt trời dựa yếu tố phụ thuộc trước điều kiện thời tiết nhiệt độ, tốc độ gió, lượng mưa, … Page Nhập môn Học máy Khái phá liệu 20211 Ý tưởng : - Thu thập liệu thời tiết vùng xử lý liệu II Data set • Dữ liệu huấn luyện cho tốn thu thập tại: ENERYDATA.INFO • Data set gồm trường liệu về: o Bức xạ ngang mặt trời (Global Horizontal Irradiance - GHI) o Nhiệt độ trung bình (oC) o Tốc độ gió trung bình (m/s) • Data set tốn thu thập từ 24/09/2017 đến 22/09/2019 theo phút trạm quan trắc Việt Nam cung cấp 1.048.574 ghi liệu III Thuật toán LSTM (Long Short Term Memory) Mạng hồi quy RNN 1.1 Mạng RNN Một người bình thường khơng suy nghĩ vấn đề từ đầu, giống hiểu biết phim, người phải xem phim từ đầu hiểu phân cảnh diễn làm cho có cảnh Hay nói cách khác người phải suy nghĩ thông suốt liên tục Tuy nhiên, mạng neural thơng thường khơng thể làm thế, chúng cho tất liệu vào lúc dẫn đến việc hiểu sai ngữ nghĩa Vì cần có giải pháp để xử lí đề Và mạng RNN (Recurrent Neural Network) sử dụng cho vấn đề Cấu trúc mạng RNN: Page Nhập môn Học máy Khái phá liệu 20211 Hình 2: Cấu trúc RNN - Xt liệu đầu vào - Ht trạng thái đầu thời điểm t Cấu trúc tuần hoàn mạng cho phép trạng thái thời điểm định truyền sang thời điểm - RNN mạng chung tạo thành từ nhiều xếp chồng lên Mỗi mạng di chuyển đầu cho mạng Dưới hình ảnh cấu trúc mạng mở rộng Hình 3: Cấu trúc mở rộng mạng RNN Từ cấu trúc chuỗi RNN, hiểu đơn giản liên quan đến thơng tin trình tự Cấu trúc dường sinh để giải vấn đề liên quan đến trình tự Page Nhập môn Học máy Khái phá liệu 1.2 20211 Các vấn đề RNN a) Phải thực tuần tự: cấu trúc RNN sinh để giải vấn đề liên quan đến trình tự, nên liệu phải đưa vào theo trình tự khơng thể tận dụng khả tính tốn song song máy tính b) Vấn đề lớn bị mát thông tin xa Nguyên nhân đạo hàm bị triệt tiêu hàm kích hoạt dùng step hàm (hoặc sigmoid), đầu nằm đoạn [-1, 1] (hoặc [0, 1]) đạo hàm bị đóng khoảng [0, 1] (hoặc [0, 0.25]) Khi tính tốn lan truyền ngược, phải cộng tất đầu bước trước để tính đạo hàm Vấn đề đạo hàm hàm sigmoid có đạo hàm đầu, mà đạo hàm nút mạng tương ứng bị bão hòa Nên với giá trị nhỏ ma trận, thực phép nhân ma trận, đạo hàm tương ứng xảy mát, tức đạo hàm bị triệt tiêu sau vài bước nhân Như bước xa khơng cịn tác dụng với nút Đó nguyên nhân làm cho RNN khó để học phụ thuộc xa Có thể lấy ví dụ đơn giản câu: “Trên trời nhiều mây đen, trời mưa” ta cần nói đến “Trên trời nhiều mây đên, trời” ta dự đoán trời “sắp mưa” Trong trường hợp này, khoảng cách tới thơng tin có cần để dự đốn nhỏ nên RNN hồn tồn học Tuy nhiên, với trường hợp phải dùng nhiều ngữ nghĩa để hiểu ví dụ như: “Tôi sinh viên trường đại học Bách Khoa Hà Nội, … Tơi thí nghiệm vật lý tịa nhà D3” Ta thấy thơng tin gần “Tơi thí nghiệm vật lý ” biết đăng sau tên phịng hay tịa nhà Cịn khơng thể biết tịa Muốn biết ta phải thêm thơng tin “Tôi sinh viên trường đại học Bách Khoa Hà Nội” biết thơng tin tịa nhà D3 Như thấy khoảng cách thông tin xa c) Một vấn đề khác bùng nổ đạo hàm, vấn đề xảy giá trị ma trận lớn (lớn 1) Tuy nhiên việc dễ kiểm sốt ngăn chặn cịn mát đạo hàm khó Để giải vấn đề mát đạo hàm RNN, có biến thể khác RNN đời, LSTM (long short term memory) Mạng LSTM (Long short term memory) Mạng nhớ dài ngắn (Long short term memory network), thường gọi LSTM – dạng đặc biệt RNN có khả học phụ thuộc xa LSTM lần đầu giới thiệu Hochreiter & Schmidhuber (1997), sau Page Nhập môn Học máy Khái phá liệu 20211 chuyên gia ngành cải tiến Chúng hoạt động hiệu sử dụng rộng rãi toán LSTM thiết kế để tránh vấn đề phụ thuộc xa (long-term dependency) Việc nhớ thông tin suốt thời gian dài đặc tính mặc định chúng, khơng cần phải huấn luyện để nhớ Tức nội ghi nhớ mà khơng cần can thiệp Cấu trúc mạng RNN đơn giản, bao gồm hàm Hình 4: Chuỗi lặp RNN chứa cổng Cịn kiến trúc LSTM có dạng chuỗi nhiên cấu trúc module bên lại khác Thay có tầng mạng neural, chúng có đến tầng mạng neural tương tác với đặc biệt Hình 5: Chuỗi lặp LSTM chứa tầng 2.1 Ý tưởng cốt lõi Chìa khóa LSTM trạng thái tế bào – đường chạy ngang thơng qua step phía sơ đồ Page Nhập môn Học máy Khái phá liệu 20211 Trạng thái tế bào chạy xuyên suốt tất mắt xích (các nút mạng) tương tác tuyến tính đơi chút mà thơng tin xuyên suốt mà không bị thay đổi Hình 6: Hình minh họa trạng thái tế vào LSTM LSTM có khả lọc bỏ thơng tin khơng quan trọng thêm thông tin cần thiết cổng Chúng thực hiên cổng Các cổng nơi sàng lọc thông tin qua nó, chúng kết hợp tầng sigmoid phép nhân Hình 7: Hình minh họa cổng mạng LSTM Tầng sigmoid cho đầu đoạn từ [0, 1], mô tả thông tin thông qua có nghĩa khơng thơng tin qua có nghĩa tất thơng tin qua Một LSTM có cổng để trì điều hành trạng thái tế bào P a g e 10 Nhập môn Học máy Khái phá liệu 2.2 20211 Bên LSTM a) Cổng quên f : Bước xem thơng tin cần bị bỏ từ trạng thái tế bào Quyết định đưa cổng quên Nó lấy đầu vào Ht – Xt cho kết số đoạn từ [0, 1] cho số trạng thái tế bào Ct – Đầu thể giữ tồn thơng tin lại, cịn tồn thơng tin bị bỏ Hình 8: Hình minh họa cổng quên f b) Cổng vào i: bước tiếp theo, cần xem thông tin cần đưa vào trạng thái tế bào Việc gồm phần, sử dụng tầng sigmoid (cổng vào) để định xem giá trị ta cập nhật Tiếp theo hàm để tạo vector cho giá trị Ct nhằm thêm vào cho trạng thái Trong bước ta kết hợp giá trị lại để tạo cập nhật cho trạng thái Hình 9: Hình minh họa cổng vào I c) Tiếp theo lúc cập nhật trạng thái tế bào cũ Ct – thành tế bào Ct Ta nhân trạng thái cũ với ft để bỏ thông tin định quên lúc trước Sau cộng thêm it∗Ct~ Trạng thái mơi thu phụ thuộc vào việc định cập nhập giá trị trạng thái P a g e 11 Nhập môn Học máy Khái phá liệu 20211 Hình 10: Hình minh họa tế vào LSTM cập nhật trái thái d) Cuối Cổng output, định đầu Giá trị đầu đưa vào trạng thái tế bào nhiên sàng lọc Đầu tiên, cần dùng hàm sigmoid để định xem thông tin đưa Sau đưa trạng thái tế bào qua hàm nhân với đầu cổng sigmoid để có đầu mong muốn Hình 11: Hình minh họa cổng output LSTM Nếu để ý thấy RNN dạng đặc biệt LSTM Nếu thay giá trị đầu input gate forget gate ta RNN IV Thực nghiệm đánh giá - Hàm MSE: Hình 12: Hàm MSE - Hàm RMSE: P a g e 12 Nhập môn Học máy Khái phá liệu 20211 Hình 13: Hàm RMSE Sử dụng Linear Regression Ban đầu, nhóm sử dụng mơ hình Linear Regression, toán hồi quy Sử dụng thư viện model Linear Regression thư viện sklearn để dự đoán Bộ liệu gồm trường “GHI”, “Temp”, “WindSpeed” Hình 14: Dữ liệu dạng dataframe Chia tập liệu thành phần train test, phần train 800000 dòng liệu phần test phần cịn lại với khai báo model Linear Regression Hình 15: Sử dụng mơ hình Linear Regression Sau huấn luyện đưa dự đốn Nhóm sử dụng phương pháp đánh giá lỗi RMSE kết : P a g e 13 Nhập môn Học máy Khái phá liệu 20211 Hình 16: Kết sử dụng mô hình Linear Regression Có thể thấy RMSE lớn 7256.889 mơ hình Linear Regression chưa thực xác việc dự đoán Nguyên nhân tập train, trường “GHI” có nhiều giá trị ban đêm nên dẫn đến kết dự đoán bị sai lệch nhiều Sử dụng LSTM Vì liệu có dạng TimeSeries nhóm định sử dụng thuật toán LSTM cho toán Ở chúng em đánh giá validation RMSE Vì liệu lớn gồm triệu ghi nhóm chúng em thử chia tập train test theo tỷ lệ khác 70:30, 75:25, 60:40 để tiến hành huấn luyện Trong model LSTM, chúng em sử dụng hàm loss mse, mse có đạo hàm w nhóm sử dụng trình tối ưu hóa adam Trình tối ưu hóa adam trình tối ưu thư viện tensorflow phương pháp giảm đạo hàm phù hợp với hàm lỗi MSE Vì liệu theo phút dự đoán theo ngày nên để batch_size 1440 huấn luyện 40 epochs loss loss tập train, val_loss loss validation, validation nhóm lấy tập test P a g e 14 Nhập môn Học máy Khái phá liệu 2.1 20211 Thay đổi tỷ lệ train/test 2.1.1 Tỷ lệ 70:30 Hình 17: Kết dự đoán với tỉ lệ train/test = 70:30 Hình 18: RMSE với tỉ lệ train/test = 70:30 Nhìn vào đồ thị loss validation loss ta thấy epoch đầu, mạng học tốt nhiên sau val_loss giảm nhẹ Cả loss val_loss thấp (loss = 0.0025, val_loss = 0.0020) RMSE cho kết thấp 64.560 Có thể đánh giá mạng huấn luyện với tỷ lệ train/test 70:30 cho kết tốt P a g e 15 Nhập môn Học máy Khái phá liệu 20211 2.1.2 Tỷ lệ 75:25 Hình 19: Kết dự đoán với tỉ lệ train/test = 75:25 Hình 20: RMSE với tỉ lệ train/test = 75:25 Nhìn vào đồ thị loss validation loss ta thấy, mạng học tốt epoch đầu đường val_loss ngang so với tỷ lệ 70:30 Ở epoch cuối, loss thấp so với val_loss nhiên nhỏ (0.0024) chấp nhận RMSE 71.269 cho thấy mạng huấn luyện với tỷ lệ 75:25 học tốt không tốt 70:30 P a g e 16 Nhập môn Học máy Khái phá liệu 20211 2.1.3 Tỷ lệ 60:40 Hình 21: Kết dự đoán với tỉ lệ train/test = 60:40 Hình 22: RMSE với tỉ lệ train/test = 60:40 Ta thấy đồ thị giống với tỷ lệ 75:25 loss cao val_loss gần ngang phần sau cho thấy mạng phù hợp (overfit) với liệu RMSE khoảng 64.988 thấp Mạng huấn luyện tốt với tỷ lệ tập liệu train/test 60:40 Bảng 1: Bảng so sánh RMSE thay đổi tỷ lệ train/test Tỷ lệ RMSE 2.2 70:30 64.560 75:25 71.269 60:40 64.988 Thay đổi learning_rate Ở phần huấn luyện mạng trên, nhóm sử dụng leaning rate 0.00015 Đối với learning rate, tốc độ học nhanh dẫn tới việc bị bùng nổ đạo hàm Cịn q thấp dẫn đến mạng học chậm Nên sau nhiều lần điều chỉnh tham số learning rate learning rate 0.00015 phù hợp 2.2.1 Tỷ lệ 0.0001 P a g e 17 Nhập môn Học máy Khái phá liệu 20211 Ví dụ đặt learning_rate 0.0001 cho đồ thị sau: Hình 23: Kết dự đoán với learning_rate = 0.0001 Có thể thấy, loss val_loss có xu hướng không thay đổi epoch sau cho thấy mạng học gặp phải điểm nghẽn cần giảm tốc độ học xuống 2.2.2 Tỷ lệ 0.00001 Cịn learning_rate 0.00001 cho đồ thị sau: Hình 24: Kết dự đoán với learning_rate = 0.00001 val_loss gần song song với loss Cho thấy mạng học chậm cần tăng tốc độ học lên P a g e 18 Nhập môn Học máy Khái phá liệu 2.3 20211 Thay đổi drop_out 2.3.1 Tỷ lệ 0.001 Bên cạnh nhóm chúng em sử dụng drop_out 0.05 mục đích drop_out tắt bớt ngẫu nhiên node mạng để quên tránh bị overfiting Khi đặt drop_out 0.001 kết hình: Hình 25: Kết dự đốn với drop_out= 0.001 Ta thấy loss val_loss gần khơng có thay đổi từ epoch việc học khơng có ý nghĩa, suy cần thay đổi tham số để việc học tốt 2.3.2 Tỷ lệ 0.5 Và kết đặt drop_out cao 0.5: Hình 26: Kết dự đoán với drop_out= 0.05 P a g e 19 Nhập môn Học máy Khái phá liệu 20211 Ta thấy, val_loss giảm epoch đầu nhiên sau, val_loss lại tăng loss giảm, xảy tượng overfitting, cần giảm bớt drop_out xuống 2.4 Sử dụng thêm hàm kích hoạt Nhóm sử dụng thêm hàm kích hoạt hàm hàm relu cho kết sau 2.4.1 Sử dụng hàm Relu Khi sử dụng hàm Relu: Hình 27: Kết dự đốn với hàm kích hoạt hàm Relu Hình 28: RMSE với hàm kích hoạt hàm Relu Nhóm sử dụng thêm hàm kích hoạt hàm hàm relu cho kết sau Khi sử dụng thêm hàm activation Relu mạng loss val_loss có xu hướng giảm suy mạng học tốt, loss val_loss cho kết thấp 0.002, với RMSE 64.679 suy mạng huấn luyện tốt 2.4.2 Sử dụng hàm Tanh Khi sử dụng hàm Tanh: P a g e 20 Nhập môn Học máy Khái phá liệu 20211 Hình 29: Kết dự đốn với hàm kích hoạt hàm Tanh Hình 30: RMSE với hàm kích hoạt hàm Tanh Cũng giống hàm Relu, hàm cho kết tương tự, loss val_loss có xu hướng giảm epoch sau giảm thấp Tuy nhiên cho thấy mạng học tốt, bên cạnh RMSE 65.851, suy kết tốt So sánh Linear Regression LSTM Model Linear Regression LSTM RMSE 7256.889 64.560 Ta thấy rõ khác biệt RMSE Linear Regression LSTM cho thấy mơ hình mạng LSTM phù hợp với toán tập liệu so với Linear Regression Đây kết sau đưa dự đốn Có thể thấy khớp với liệu thật P a g e 21 Nhập môn Học máy Khái phá liệu 20211 Hình 31: Kết dự đoán ngày Đường màu xanh liệu thật đường màu vàng phần dự đốn V Kết luận - Mơ hình mạng neural LSTM phù hợp so với Linear Regression, hoạt động tốt cho lỗi trung bình bình phương RMSE thấp 64.560 - Các thành viên nhóm tích cực tham gia tìm hiểu tích cực có đóng góp cho việc giải tốn - Tuy nhiên, bên cạnh cịn vài hạn chế : o Tập liệu thu thập lớn nhiên lại có thuộc tính Vì để dự đốn xác cần có nhiều thuộc tính liên quan góc chiếu, độ ẩm, … Vì kết đạt chưa thực có xác cao o Do tình hình dịch bệnh Covid19 nên nhóm gặp nhiều khó khăn việc gặp mặt trao đổi dẫn đến cịn có nhiều thiếu sót chưa kịp bổ sung VI Tài liệu tham khảo [1] https://viblo.asia/s/su-dung-mang-lstm-long-short-term-memory-de-du-doanco-phieu-24lJDz06KPM [2] https://viblo.asia/p/recurrent-neural-network-tu-rnn-den-lstm-gGJ597z1ZX2 [3] https://www.noron.vn/post/gioi-thieu-ve-mang-neural-hoi-quy -recurrentneuralnetworks-40wwa1jsk2si [4]https://blog.csdn.net/Jerr y/article/details/58598296?ops_request_misc=%257 B%2522request%255Fid%2522%253A%2522164014612916780271916652%252 2%252C%2522scm%2522%253A%252220140713.130102334 %2522%257D&re quest_id=164014612916780271916652&biz_id=0&utm_medium=distribute.pc_se P a g e 22 Nhập môn Học máy Khái phá liệu 20211 arch_result.none-task-blog-2~all~baidu_landing_v2~default-158598296.first_rank_v2_pc_rank_v29&utm_term=understand+lstm [5] https://towardsdatascience.com/recurrent-neural-networks-by-example-inpython-ffd204f99470 P a g e 23 ... chất lượng dịch vụ tiết kiệm tổn thất phát sinh Bài toán dự đoán xạ mặt trời Bài toán dự đoán xạ mặt trời toán hồi quy, đầu mong muốn chuỗi dự đoán xạ mặt trời dựa yếu tố phụ thuộc trước điều kiện... Page Nhập môn Học máy Khái phá liệu I 20211 Giới thiệu mơ tả tốn Đặt vấn đề Dự báo lượng mặt trời lĩnh vực nghiên cứu sôi động lĩnh vực quan tâm vài năm trở lại Ưu điểm việc sử dụng lượng mặt trời. .. với toán tập liệu so với Linear Regression Đây kết sau đưa dự đốn Có thể thấy khớp với liệu thật P a g e 21 Nhập môn Học máy Khái phá liệu 20211 Hình 31: Kết dự đoán ngày Đường màu xanh liệu thật