Dataset # Mẫu tin Mơ tả
Student Performance 10 Student Performance 20
515.610 41.367
Tập dữ liệu kết quả học tập, lọc giữ lại mỗi sinh viên cĩ 10 mẫu tin trở lên Tập dữ liệu kết quả học tập, lọc giữ lại mỗi sinh viên cĩ 20 mẫu tin trở lên
5.5.2. Mơ hình đề xuất và chuẩn hĩa dữ liệu
Trong nghiên cứu này, các mơ hình dự đốn kết quả học tập của từng sinh viên sử dụng bộ nhớ ngắn dài hạn LSTM và mạng nơ-ron truyền thẳng đa tầng MLP được đề xuất. Cụ thể, sử dụng kết quả học tập của sinh viên ở các mơn học trước để dự đốn cho các mơn học kế tiếp. Sau khi dữ liệu được sắp xếp kết quả học tập theo trình tự thời gian của từng sinh viên, tiến hành nhĩm các sinh viên riêng. Với đầu vào mỗi bước thời gian (ở bước thời gian trước), dự đốn cho đầu ra là điểm mơn học tiếp theo (bước thời gian hiện tại). Để thực hiện mơ hình dự đốn sử dụng mạng LSTM, cần chuẩn hĩa dữ liệu đầu vào. Quá trình chuẩn hĩa dữ liệu đầu vào gồm bước sau:
Bước 1: Sắp xếp sinh viên theo StudentID, đọc dữ liệu mỗi sinh viên vào bộ nhớ, trong đĩ điểm là giá trị cần dự đốn (như Hình 5.12).
Hình 5.12: Ví dụ các mẫu tin của một sinh viên
Bước 2: Sau khi đọc dữ liệu mỗi sinh viên vào bộ nhớ ta cĩ được mảng giá trị của các mẫu tin, khi đĩ xĩa bỏ thuộc tính StudentID.
Bước 3: Các giá trị đầu vào lớn cĩ thể làm chậm quá trình học và hội tụ của mạng học sâu và kéo dài thời gian huấn luyện mơ hình. Vì thế, dữ liệu được cho qua hàm Tanh để thu nhỏ (scale) về một khoảng giá trị nhất định (từ -1 đến 1) trước khi đưa vào mạng. Hình 5.13 minh họa dữ liệu trước (a) và sau sử dụng hàm Tanh (b).
(a) (b)
Hình 5.13: Các giá trị mẫu tin được thu nhỏ
Cột cuối của Hình 5.13 (b) là các điểm mơn học theo trình tự thời gian của một sinh viên. Nếu xem các giá trị này ở thời gian (t-1) thì ta cần để dự đốn giá trị (điểm)
ở thời gian t. Mơ hình mạng LSTM giúp giải quyết bài tốn này. Dữ liệu đầu vào
Var1(t-
1) và giá trị cần dự đốn Var1(t) được mơ tả như Hình 5.14.
Hình 5.14: Dữ liệu cho mơ hình đơn biến
LSTM 5.5.2.1. Kiến trúc mạng LSTM
Kiến trúc bộ nhớ ngắn dài hạn LSTM được mơ tả như Hình 5.15. Mạng LSTM được đề xuất nhận đầu vào là luồng dữ liệu bước thời gian cĩ trình tự (Sequences of time steps). Tầng LSTM cĩ 50 nơ-ron, một tầng ẩn kết nối dày đặc (Dense Layer) cĩ 1 nơ-ron cho kết quả của dự đốn là giá trị trong khoảng từ 0 đến 4.
Hình 5.15: Kiến trúc mạng LSTM
Để giảm thiểu các vấn đề về quá khớp (overfitting), kỹ thuật early stopping được sử dụng. Kỹ thuật này sẽ dừng việc học nếu sau 5 epochs liên tục khơng cải thiện được
kết quả (độ lỗi khơng biến động quá 0,01), ngược lại, quá trình học sẽ tiếp tục với 10 epochs. Kỹ thuật này cũng giúp giảm thiểu đáng kể thời gian huấn luyện của mơ hình. Hàm tối ưu được sử dụng là Adam.
5.5.2.2. Kiến trúc mạng MLP
Mơ hình dự đốn kết quả học tập sử dụng mạng nơ-ron đa tầng MLP được đề xuất. Kiến trúc mạng MLP được mơ tả như Hình 5.16. Kiến trúc này gồm một tầng input, 5 tầng ẩn (hidden layer) và một tầng output. Tầng input chứa các thuộc tính của dữ liệu đầu vào. Tầng ẩn đầu tiên cĩ 9 nơ-ron sử dụng hàm kích hoạt là ReLU, tầng ẩn thứ hai và thứ ba cĩ 27 nơ-ron sử dụng hàm kích hoạt là sigmoid, tầng ẩn thứ tư cĩ 9 nơ-ron sử dụng hàm kích hoạt là ReLU, tầng ẩn thứ năm cĩ 1 nơ-ron cho giá trị đầu ra trong khoảng từ 0 đến 4.
Hình 5.16: Kiến trúc mạng MLP
Tương tự kiến trúc LSTM, kỹ thuật early stopping cũng được sử dụng. Kỹ thuật này sẽ dừng việc học sau 5 epochs liên tục khơng cải thiện được kết quả, ngược lại, quá trình học sẽ tiếp tục với 10 epochs. Hàm tối ưu cũng sử dụng là Adam.
5.5.3. Kết quả thực nghiệm
Để đánh giá mơ hình, nghiên cứu này sử dụng phương pháp tính độ lỗi phổ biến là độ lỗi trung bình bình phương RMSE (Root Mean Square Error). Cơng thức tính độ lỗi RMSE như sau:
RMSE = �
mẫu của dữ liệ u dùng để đánh giá. Thực
Trong đĩ, yi là điểm thực tế ở mẫu thứ i,
nghiệm chạy mơ hình dự đốn trên từng sinh viên, vì vậy độ lỗi RMSE được tính là trung bình RMSE của tất cả sinh viên.
Với kiến trúc bộ nhớ ngắn dài hạn LSTM, việc huấn luyện được thực hiện cho từng sinh viên. Do số mẫu trên mỗi sinh viên khơng quá lớn nên chúng ta lấy 90% mẫu tin đầu tiên làm tập huấn luyện và 10% mẫu tin cịn lại làm tập kiểm tra (dữ liệu đã được sắp xếp theo trình tự thời gian). Trong khi đĩ, ở kiến trúc MLP việc huấn luyện trên tất cả các sinh viên. Cách thực hiện như sau, với mỗi sinh viên lấy 90% mẫu tin đầu tiên cho vào cùng một tập huấn luyện, lấy 10% mẫu tin cịn lại vào cùng một tập kiểm tra.
Các điểm mơn học được nhĩm theo thang điểm chữ như quy chế học vụ để dễ dàng quan sát về phân phối dữ liệu (trong xây dựng mơ hình dự đốn vẫn giữ nguyên thang điểm số). Nhìn chung, độ lệch về các thang điểm giữa tập huấn luyện và kiểm tra là khơng quá lớn. Tuy nhiên, tỷ lệ điểm B+ và điểm A ở tập kiểm tra cĩ xu hướng tăng hơn so với tập huấn luyện, điều này cho thấy sinh viên cĩ dấu hiệu cải thiện kết quả học tập ở các học kỳ sau so với các học kỳ đầu khĩa. Kết quả phân phối điểm khá cân bằng này cĩ thể ảnh hưởng tích cực đến chất lượng các mơ hình dự đốn. Hình 5.17 mơ tả phân phối các mức điểm của tập huấn luyện và tập kiểm tra của tập dữ liệu lọc lấy ít nhất 10 mẫu tin sinh viên.
(a) (b)
Hình 5.17: Phân phối các mức điểm ở tập huấn luyện (a) và tập kiểm tra (b) của tập
dữ liệu lọc lấy 10 mẫu tin điểm sinh viên
Kết quả dự đốn sử dụng độ đo RMSE với hai kiến trúc bộ nhớ ngắn dài hạn LSTM và mạng nơ-ron đa tầng MLP được thể hiện ở Bảng 5.7.