THIẾT KẾ VÀ ỨNG DỤNG MẠNG THẦN KINH NHÂN TẠO ĐỂ DỰ BÁO GIÁ CHỨNG KHOÁN TRÊN THỊ TRƯỜNG
2.1.5. Xây dựng cấu trúc – Xác định thông số của ANN
Có rất nhiều phương pháp để xây dựng một cấu trúc mạng ANN. Neurodynamic và Architecture là hai thuật ngữ được sử dụng để miêu tả cách thức xây dựng một ANN. Sự kết hợp giữa Neurodynamics và Architecture xác định cấu trúc của ANN. Neurodynamic là thuật ngữ miêu tả tính chất của từng neuron trong ANN, bao gồm loại hàm truyền (tuyến tính, phi tuyến, hàm phức…), cách thức kết hợp các biến số đầu vào. Architecture là thuật ngữ miêu tả cách thức lựa chọn để liên kết các neuron với nhau, bao gồm loại liên kết neuron và số lượng neuron trên mỗi lớp.
Quyết định số lượng neuron đầu vào cần sử dụng là một trong những quyết định dễ nhất có thể thực hiện được bởi lẽ sau khi các biến đầu vào đã được lựa chọn kỹ lưỡng, thông thường, mỗi neuron sẽ đại diện cho một biến đầu vào.
Mơ hình được xây dựng gồm có 3 lớp, một lớp đầu vào với các biến kinh tế vĩ mô được miêu tả trong bảng 2.1, một lớp ẩn, một lớp đầu ra – đây là kết quả của VN Index. Tương ứng với 4 Axon trong hình 2.1, Axon đầu tiên đại diện cho lớp đầu vào, Axon thứ hai đại diện cho lớp ẩn, Axon thứ ba đại diện cho lớp đầu ra, Axon thứ tư dùng để tính tốn sai số của mơ hình.
· Axon đầu tiên chứa các neuron – PE có tác dụng giới thiệu các đầu vào, hàm của Axon này có dạng:
f(x) = x
Trong Axon này cịn có các tabdelay dùng để làm trễ các biến đầu vào, luận án sử dụng số lượng các biến này được làm trễ thêm 3 kỳ quan sát nhằm gia tăng số lượng các biến đầu vào trên. Như vậy, bằng việc cho phép các dữ liệu đầu vào được làm trễ tối đa 3 kỳ đã giúp mơ hình có được 21 biến đầu vào. Lúc này hàm Axon có dạng:
f(xi, xi1, xi2) = Z
với xi, xi1, xi2 là biến đầu vào tại quan sát hiện tại, và quan sát của 2 kỳ trước đó.
Z là đầu ra của lớp đầu vào.
CPILR LR US PE1 IP PE2 VNI TB PE3 M2 CR
· Axon thứ hai chứa hàm Tanh hyperbol:
Hàm truyền dạng tuyến tính thường khơng được sử dụng phổ biến do các mối quan hệ tương tác trong thực tế thường ở dạng phi tuyến. Trong hai cơng trình nghiên cứu của bốn tác giả Levich và Thomas (1993), Kao và Ma (1992) đã chứng minh được rằng các mối quan hệ giữa các nhân tố trong thị trường tài chính hầu hết ở dạng phi tuyến. Và do đó, một hàm truyền tuyến tính là hồn tồn khơng phù hợp để sử dụng trong trường hợp này. Hàm truyền dạng hình sin thường được sử dụng trong dự báo theo chuỗi thời gian, bởi lẽ, hàm sin không chỉ là hàm phi tuyến mà còn được chứng minh qua các thực nghiệm là phù hợp cho giả lập hầu hết các mối quan hệ phi tuyến trên thực tế.
Klimasauskas (1993) qua thực nghiệm đã chứng minh được rằng, nếu mối quan hệ giữa các biến đầu vào mà ANN đang giả lập chỉ xoay quanh giá trị trung bình, hàm truyền sin là hàm phù hợp nhất. Tuy nhiên, nếu mối quan hệ giữa các biến đầu vào quá phân tán ra xa khỏi giá trị trung bình, hàm truyền dạng Tang hyperbol nên được sử dụng. Nếu các biến đầu vào có dạng nhị phân, hàm truyền nhị phân phải được sử dụng. Vì dữ liệu đầu vào có chứa giá trị âm và phân tán do đó hàm Tanh hyperbol là hàm thích hợp để xử lý mối quan hệ phi tuyến giữa dữ liệu đầu vào và VNI.
Trong Axon ẩn có chứa từ 1 đến 4 PE, số PE này được tính tốn theo quy tắc “kim tự tháp” – số lượng PE trong lớp ẩn sẽ bằng ½ tổng số đầu vào và đầu ra của mơ hình – tuy nhiên trong quá trình chạy mơ hình để có được mơ hình tốt nhất, luận án đã thay đổi số lượng PE xung quanh kết quả của quy tắc này, cụ thể luận án sử dụng mơ hình có từ 1 đến 4 PE. Ở đây có nhiều nhà nghiên cứu đưa ra số lượng PE phù hợp khác nhau. Baily và Thompson (1990) cho rằng, số lượng PE phù hợp được sử dụng nên xấp xỉ 75% số lượng neuron đầu vào. Katz (1992) cũng đã cho ra nhận định rằng, số lượng PE của lớp ẩn phù hợp nên nằm trong khoảng từ ½ đến gấp 3 lần số lượng neuron đầu vào. Tuy nhiên, Kaastra và M. Boyd (1996) đưa ra nguyên tắc cơ bản trong lựa chọn số lượng PE của lớp ẩn. Theo đó, đối với một hệ thống ANN bao gồm n neuron đầu vào và m neuron đầu ra, số lượng PE của lớp ẩn phù hợp nên sử dụng xấp xỉ căn bậc hai của tích số n x m. Số lượng neuron được sử dụng có thể nằm trong khoảng từ ½ đến 2 lần kết quả vừa nêu tùy thuộc vào mức độ phức tạp của vấn đề nghiên cứu. Do đó lựa chọn của luận án cũng phù hợp với các nghiên cứu trên.
· Axon thứ ba là BiasAxon cho ra giá trị đầu ra của cả mơ hình, có chứa một PE và cho ra giá trị VNI dự báo. Axon này chứa một hàm tuyến tính, hàm tuyến
tính này giải quyết vấn đề giới hạn trong dữ liệu đầu vào và đảm bảo mức độ tổng qt hóa của đầu ra dự báo.
Mơ hình có hai hệ thống đường liên kết đầy đủ, hệ thống đầu tiên nối lớp đầu vào với lớp ẩn, hệ thống thứ hai nối lớp ẩn với lớp đầu ra. Mỗi hệ thống là tập hợp những trọng số, những trọng số này sẽ kết hợp với đầu ra của lớp phía trước hệ thống tạo thành đầu vào cho lớp phía sau hệ thống. Các liên kết này được kết hợp thông qua một hàm truyền được đề cập ở trên. Ngồi ra, mơ hình sử dụng thuật tốn BackPropagation kết hợp với Momentum để điều chỉnh trọng số của mơ hình và giảm thiểu sai số nhằm tìm được mơ hình tối ưu.
Bởi vì, mơ hình ANN học hỏi mối quan hệ của đầu vào và đầu ra thơng qua các lớp ẩn. Do đó, sự tác động của mỗi biến đầu vào với đầu ra là không rõ ràng. Mặt khác, các biến đầu vào trong mơ hình cịn tác động lẫn nhau càng làm cho việc nhận ra những biến nào tác động thật sự đến đầu ra của mơ hình vơ cùng khó khăn. Mơ hình ANN khơng giống mơ hình tuyến tính, mơ hình tuyến tính xem tác động của các biến đầu vào với đầu ra là tác động cộng gộp, trong khi đó ANN học hỏi các quan hệ phi tuyến. Do những lý do trên nên luận án sử dụng cách xem xét tác động của đầu vào đến đầu ra bằng cách xem xét tác động gộp của từng nhóm biến lên đầu ra mong muốn.