6. Tổng quan vấn đề nghiên cứu
3.2.1 Huấn luyện mô hình
- Đọc dữ liệu huấn luyện từ file CSV:
- Thực hiện load dữ liệu và phân chia tập train và tập test:
- Thực hiện training dữ liệu và lưu tập tin trọng số:
- Hàm fit() – Huấn luyện mô hình:
+ Bao gồm data train, test đưa vào training.
+ Batch_size thể hiện số lượng mẫu mà Mini-batch GD sử dụng cho mỗi lần cập nhật trọng số.
+ Epoch là số lần duyệt qua hết số lượng mẫu trong tập huấn luyện. - Đánh giá mô hình – evaluate: Sử dụng dữ liệu test để đánh giá dữ liệu. - Import các thông tin thư viện cần thiết:
- Khai báo lại thông tin model và lấy ra trọng số đã được hiện huấn luyện trước đó phục vụ cho việc nhận dạng:
- Thêm các thông tin cần thiết để thực hiện cấu hình sử dụng activation là “Softmax”.
- Khởi tạo mô hình models Sequential();
- Lớp 1: Embedding Layers – dùng trong nhiều nlp mục đích embbding sang một không gian mới có chiều nhỏ hơn, và được learning from data thay cho one-hot lad hard code.
+ input_dim: kích thước của vocabulary. + output_dim: kích thước của embbding. + input_length: chiều dài mỗi sequence.
- Lớp 2,3: Recurrent Layers chứa các layers dùng trọng mạng RNN + RNN: Layer RNN cơ bản.
+ GRU: Khắc phục hạn chế RNN tránh vanish gradient. + LSTM: Long Short-Term Memory layer.
- Lớp 4: Dense() – Layer này cũng như một layer neural network bình thường, với các tham số sai:
+ units: số chiều output, như số class sau khi train.
+ activation: chọn activation đơn giản với sigmoid thì output có 1 class; softmax dùng trong multi classifier.
- Lớp 5 – Biên dịch mô hình: Hàm compile – Sử dụng để training models như thuật toán train qua optimzer như Adam (Trình tối ưu hóa), SGD, RMSprop,...
+ learning_rate: dạng float, tốc độ học, chọn phù hợp để hàm số hội tụ nhanh. + binary_crossentropy dùng trong classifier 2 class: làm hàm mất mát.
+ metrics: là thước đo để đánh giá accuracy của model
- Thực hiện dùng model để phân tích nếu tỉ lệ trên 70% thì là tích cực ngược lại là tiêu cực:
- predict − Dự đoán kết quả với dữ liệu đầu vào mới.