Xây dựng cấu trúc – Xác định thông số của ANN

Một phần của tài liệu Ứng dụng mô hình mạng thần kinh nhân tạo trong dự báo kinh tế 2 (Trang 51 - 54)

CHỨNG KHOÁN VIỆT NAM

2.1.5. Xây dựng cấu trúc – Xác định thông số của ANN

Có rất nhiều phương pháp để xây dựng một cấu trúc mạng ANN. Neurodynamic và Architecture là hai thuật ngữ đƣợc sử dụng để miêu tả cách thức xây dựng một ANN.

Sự kết hợp giữa Neurodynamics và Architecture xác định cấu trúc của ANN.

Neurodynamic là thuật ngữ miêu tả tính chất của từng neuron trong ANN, bao gồm loại hàm truyền (tuyến tính, phi tuyến, hàm phức…), cách thức kết hợp các biến số đầu vào. Architecture là thuật ngữ miêu tả cách thức lựa chọn để liên kết các neuron với nhau, bao gồm loại liên kết neuron và số lƣợng neuron trên mỗi lớp.

Quyết định số lƣợng neuron đầu vào cần sử dụng là một trong những quyết định dễ nhất có thể thực hiện đƣợc bởi lẽ sau khi các biến đầu vào đã đƣợc lựa chọn kỹ lưỡng, thông thường, mỗi neuron sẽ đại diện cho một biến đầu vào.

Mô hình đƣợc xây dựng gồm có 3 lớp, một lớp đầu vào với các biến kinh tế vĩ mô đƣợc miêu tả trong bảng 2.1, một lớp ẩn, một lớp đầu ra – đây là kết quả của VN- Index. Tương ứng với 4 Axon trong hình 2.1, Axon đầu tiên đại diện cho lớp đầu vào, Axon thứ hai đại diện cho lớp ẩn, Axon thứ ba đại diện cho lớp đầu ra, Axon thứ tƣ dùng để tính toán sai số của mô hình.

 Axon đầu tiên chứa các neuron – PE có tác dụng giới thiệu các đầu vào, hàm của Axon này có dạng:

f(x) = x

Trong Axon này còn có các tabdelay dùng để làm trễ các biến đầu vào, luận án sử dụng số lƣợng các biến này đƣợc làm trễ thêm 3 kỳ quan sát nhằm gia tăng số lƣợng các biến đầu vào trên. Nhƣ vậy, bằng việc cho phép các dữ liệu đầu vào đƣợc làm trễ tối đa 3 kỳ đã giúp mô hình có đƣợc 21 biến đầu vào. Lúc này hàm Axon có dạng:

f(xi, xi-1, xi-2) = Z

- với xi, xi-1, xi-2 là biến đầu vào tại quan sát hiện tại, và quan sát của 2 kỳ trước đó.

- Z là đầu ra của lớp đầu vào.

Hình 2.1: Kết quả mô hình ANN được sử dụng để phân tích và dự báo VNI

LR

US D IP

TB

M2 CPI

CR

PE1

PE2

PE3

VNI

 Axon thứ hai chứa hàm Tanh hyperbol:

Hàm truyền dạng tuyến tính thường không được sử dụng phổ biến do các mối quan hệ tương tác trong thực tế thường ở dạng phi tuyến. Trong hai công trình nghiên cứu của bốn tác giả Levich và Thomas (1993), Kao và Ma (1992) đã chứng minh đƣợc rằng các mối quan hệ giữa các nhân tố trong thị trường tài chính hầu hết ở dạng phi tuyến. Và do đó, một hàm truyền tuyến tính là hoàn toàn không phù hợp để sử dụng trong trường hợp này. Hàm truyền dạng hình sin thường được sử dụng trong dự báo theo chuỗi thời gian, bởi lẽ, hàm sin không chỉ là hàm phi tuyến mà còn đƣợc chứng minh qua các thực nghiệm là phù hợp cho giả lập hầu hết các mối quan hệ phi tuyến trên thực tế.

Klimasauskas (1993) qua thực nghiệm đã chứng minh đƣợc rằng, nếu mối quan hệ giữa các biến đầu vào mà ANN đang giả lập chỉ xoay quanh giá trị trung bình, hàm truyền sin là hàm phù hợp nhất. Tuy nhiên, nếu mối quan hệ giữa các biến đầu vào quá phân tán ra xa khỏi giá trị trung bình, hàm truyền dạng Tang hyperbol nên đƣợc sử dụng. Nếu các biến đầu vào có dạng nhị phân, hàm truyền nhị phân phải đƣợc sử dụng. Vì dữ liệu đầu vào có chứa giá trị âm và phân tán do đó hàm Tanh hyperbol là hàm thích hợp để xử lý mối quan hệ phi tuyến giữa dữ liệu đầu vào và VNI.

Trong Axon ẩn có chứa từ 1 đến 4 PE, số PE này đƣợc tính toán theo quy tắc “kim tự thỏp” – số lƣợng PE trong lớp ẩn sẽ bằng ẵ tổng số đầu vào và đầu ra của mụ hỡnh – tuy nhiên trong quá trình chạy mô hình để có đƣợc mô hình tốt nhất, luận án đã thay đổi số lƣợng PE xung quanh kết quả của quy tắc này, cụ thể luận án sử dụng mô hình có từ 1 đến 4 PE. Ở đây có nhiều nhà nghiên cứu đƣa ra số lƣợng PE phù hợp khác nhau. Baily và Thompson (1990) cho rằng, số lƣợng PE phù hợp đƣợc sử dụng nên xấp xỉ 75% số lƣợng neuron đầu vào. Katz (1992) cũng đã cho ra nhận định rằng, số lƣợng PE của lớp ẩn phự hợp nờn nằm trong khoảng từ ẵ đến gấp 3 lần số lƣợng neuron đầu vào. Tuy nhiên, Kaastra và M. Boyd (1996) đƣa ra nguyên tắc cơ bản trong lựa chọn số lƣợng PE của lớp ẩn. Theo đó, đối với một hệ thống ANN bao gồm n neuron đầu vào và m neuron đầu ra, số lƣợng PE của lớp ẩn phù hợp nên sử dụng xấp xỉ căn bậc hai của tích số n x m. Số lƣợng neuron đƣợc sử dụng có thể nằm trong khoảng từ ẵ đến 2 lần kết quả vừa nờu tựy thuộc vào mức độ phức tạp của vấn đề nghiên cứu. Do đó lựa chọn của luận án cũng phù hợp với các nghiên cứu trên.

 Axon thứ ba là BiasAxon cho ra giá trị đầu ra của cả mô hình, có chứa một PE và cho ra giá trị VNI dự báo. Axon này chứa một hàm tuyến tính, hàm tuyến

tính này giải quyết vấn đề giới hạn trong dữ liệu đầu vào và đảm bảo mức độ tổng quát hóa của đầu ra dự báo.

Mô hình có hai hệ thống đường liên kết đầy đủ, hệ thống đầu tiên nối lớp đầu vào với lớp ẩn, hệ thống thứ hai nối lớp ẩn với lớp đầu ra. Mỗi hệ thống là tập hợp những trọng số, những trọng số này sẽ kết hợp với đầu ra của lớp phía trước hệ thống tạo thành đầu vào cho lớp phía sau hệ thống. Các liên kết này đƣợc kết hợp thông qua một hàm truyền đƣợc đề cập ở trên. Ngoài ra, mô hình sử dụng thuật toán BackPropagation kết hợp với Momentum để điều chỉnh trọng số của mô hình và giảm thiểu sai số nhằm tìm đƣợc mô hình tối ƣu.

Bởi vì, mô hình ANN học hỏi mối quan hệ của đầu vào và đầu ra thông qua các lớp ẩn.

Do đó, sự tác động của mỗi biến đầu vào với đầu ra là không rõ ràng. Mặt khác, các biến đầu vào trong mô hình còn tác động lẫn nhau càng làm cho việc nhận ra những biến nào tác động thật sự đến đầu ra của mô hình vô cùng khó khăn. Mô hình ANN không giống mô hình tuyến tính, mô hình tuyến tính xem tác động của các biến đầu vào với đầu ra là tác động cộng gộp, trong khi đó ANN học hỏi các quan hệ phi tuyến.

Do những lý do trên nên luận án sử dụng cách xem xét tác động của đầu vào đến đầu ra bằng cách xem xét tác động gộp của từng nhóm biến lên đầu ra mong muốn.

Một phần của tài liệu Ứng dụng mô hình mạng thần kinh nhân tạo trong dự báo kinh tế 2 (Trang 51 - 54)

Tải bản đầy đủ (PDF)

(165 trang)