3 Trong khoa học về ứng dụng ANN, một tập hợp gồm toàn bộ các mẫu dữ liệu được gọi bằng thuật ngữ Epoch Mỗi mẫu trong bộ dữ liệu được gọi bằng tên Exemplar.
2.2.1. Dự báo giá chứng khoán bằng cấu trúc mạng thần kinh nhân tạo được khái quát hóa
thẳng để dự báo giá chứng khốn với nhóm biến kinh tế vĩ mơ
2.2.1. Dự báo giá chứng khốn bằng cấu trúc mạng thần kinh nhân tạo được kháiquát hóa quát hóa
Với bộ cơ sở dữ liệu được thu thập và xử lý như trên, phần tiếp theo sẽ đi vào quá trình xây dựng cấu trúc mạng ANN cụ thể khác. Trong nghiên cứu của Reza G. Ahagar và Mahmood Yahyazadehfar (2010), các tác giả đã sử dụng cấu trúc mạng thần kinh nhân tạo được khái quát hóa (GRNN Generalized Regression Neural Network) để dự báo giá chứng khốn. Cấu trúc này có phần khác so với cấu trúc mạng truyền thẳng đa lớp mà trong chương 1 luận án đã trình bày, GRNN vốn được sử dụng phổ biến trong các nghiên cứu về mạng thần kinh ở chổ các neuron của mỗi lớp trong hệ thống không chỉ kết nối với neuron của lớp ngay trước và sau nó mà cịn được kết nối với các neuron của những lớp ẩn khác.
Về cấu trúc của mơ hình mạng thì bài nghiên cứu trên chỉ xây dựng cấu trúc mạng một lớp ẩn duy nhất với 14 neuron và sử dụng thuật toán LevenbergMarquardt (LM) để tiến hành điều chỉnh các trọng số trong quá trình huấn luyện nhằm đạt đến mục tiêu tối thiểu hóa MSE giữa giá trị dự báo của mơ hình với giá trị thực tế. Thuật tốn này là một trong những công cụ được sử dụng nhiều nhất đối với các bài toán tối ưu hóa phi tuyến. Đây được xem là sự kết hợp giữa phương pháp GaussNewton với phương pháp Gradient thông thường (Manolis, 2005).
Luận án ký hiệu cho mơ hình trên là GNN14PE. Vấn đề tiếp theo trước khi đi vào huấn luyện cho cấu trúc mạng ANN này là cần phải phân chia bộ dữ liệu thành ba phần: tập hợp các quan sát dùng để huấn luyện hệ thống ANN, tập hợp các quan sát để xác nhận và cuối cùng là tập hợp các quan sát sử dụng để kiểm tra lại (kiểm định ngoài mẫu). Phần nghiên cứu này sẽ sử dụng tỷ lệ của ba tập hợp này lần lượt là 70%, 20% và 10%. Thực tế là khơng có ngun tắc chung nào cho sự phân chia này và tỷ lệ trên là gợi ý trong nghiên cứu của Jing Tao (2000). Tuy nhiên, với số lượng mẫu quan sát quá ít sẽ là một cảnh báo cho giá trị mơ hình dự báo. Kết quả của quá trình huấn luyện ANN theo cấu trúc mạng GNN14PE được cho ở bảng 2.4:
Bảng 2.4: Kết quả huấn luyện hệ thống mạng GNN14PE
Network Training Cross Validation
Minimum MSE 7,79431E31 0,142506795 Final MSE 7,79431E31 0,439504113
Tiếp đến luận án tiến hành kiểm định ngồi mẫu đối với mơ hình dự báo trên sau khi trải qua quá trình huấn luyện. Hình 2.3 và bảng 2.5 thể hiện kết quả dự báo ngoài mẫu trong bộ dữ liệu kiểm tra.
Desired Output and Actual Network Output
Output 0.5 0.4 0.3 0.2 VNI 0.1 VNI Output 0 -0.1 1 2 3 4 5 6 7 8 9 10 -0.2 Exemplar
Hình 2.3: VNI dự báo từ mơ hình GNN14PE so với VNI thực tế Bảng 2.5: Kết quả kiểm định ngồi mẫu của mơ hình GNN14PE
Performance VNI
MSE 0,028785546
NMSE 14,62732889
MAE 0,121311251
Min Abs Error 0,010482329 Max Abs Error 0,42990126
R 0,271785126
Với những kết quả trên, ta thấy rằng, cấu trúc mạng GRNN với cấu trúc một lớp ẩn và 14 neuron ẩn đã cho kết quả rất tốt trong quá trình huấn luyện khi giá trị MSE cuối cùng đạt đến 7,7943E31, một giá trị lý tưởng cho sự chênh lệch giữa giá trị dự báo và thực tế. Tuy nhiên, khi tiến hành kiểm định ngồi mẫu đối với mơ hình trên, kết quả cho thấy sự hạn chế lớn của mơ hình trong việc dự báo giá trị VNI. Đặc biệt là chỉ số tương quan r, đặc trưng cho mối tương quan tuyến tính giữa chuỗi giá trị VNI dự báo và thực tế là giá trị âm. Qua đó, có thể kết luận rằng, mơ hình trên đã rơi vào tình trạng “q khít” trong khi huấn luyện, nhưng lại thiếu khả năng khái quát hóa để phản ánh đầy đủ mối tương quan phi tuyến giữa các biến số.
Một vấn đề khác là số biến đưa vào mơ hình cũng được xem xét tính trễ như trên đã đề cập. Phần tiếp theo sau, luận án sẽ không khảo sát các biến được làm trễ, chỉ khảo sát 7 biến như đã đề cập trong bảng 2.1. Tuy nhiên, số lượng PE trong lớp ẩn cũng giảm đi nhiều.
CPILR LR PE1 USD PE2 IP VNI PE3 TB PE4 M2 CR
Hình 2.4: Mơ tả mạng GRNN với 4 neuron trong lớp ẩn GNN4PE
Để khắc phục tình trạng “q khít” trong cấu trúc mạng GNN14PE, luận án đã tiến hành điều chỉnh cấu trúc mạng, vẫn giữ nguyên các yếu tố khác nhưng số lượng neuron ẩn sẽ lần lượt là 4 và 5, ký hiệu cho hai cấu trúc mạng này là GNN4PE (minh họa trong hình 2.4 cho mạng GRNN) và GNN5PE, kết quả kiểm định ngoài mẫu đối với 2 cấu trúc mạng trên lần lượt là:
Bảng 2.6: Kết quả kiểm định ngoài mẫu của cấu trúc GNN4PE và GNN5PE
Performance GNN4PE GNN5PE
MSE 0,03126959 0,024987342
NMSE 15,88959147 12,69727722
MAE 0,136603321 0,096066336
Min Abs Error 0,018306627 0,000908091
Max Abs Error 0,404865279 0,432749842