Mô hình SVM

Một phần của tài liệu Ứng dụng svm trong dự báo tài chính theo chuỗi thời gian (Trang 30 - 31)

5. Ý nghĩa khoa học và thực tiễn của đề tài

1.5.6. Mô hình SVM

Máy hỗ trợ Vector (SVM) lần đầu xuất hiện tại COLT (Hội nghị lý thuyết học tập có tính toán, 1992), đƣợc xây dựng dựa trên lý thuyết học thống kê hoặc lý thuyết Vapnik Chervonenkis (VC)[1]. Một số đặc điểm của SVM có thể kể đến:

1.5.6.1. Hạn chế lỗi tổng quát

SVM dựa trên lý thuyết VC, lý thuyết này tuyên bố bảo đảm tính tổng quát hóa, nghĩa là lỗi tổng quát bị giới hạn bởi tổng của lỗi đào tạo (rủi ro thực nghiệm) cộng với một miền phụ thuộc vào kích thƣớc VC của máy học[1].

1.5.6.2. Giải thích hình học

SVM ban đầu đƣợc đề xuất để giải quyết các vấn đề phân loại trong đó mục tiêu không phải là giảm thiểu rủi ro theo kinh nghiệm mà còn để tối đa hóa lợi nhuận (Vapnik, 1995; Bennett và Bredensteiner, 2000)[11][15].

1.5.6.3. Giải pháp toàn cục và duy nhất

Huấn luyện SVM yêu cầu giải một bài toán lập trình bậc hai qua một không gian nghiệm đã biết là lồi. Do đó, mọi optima cục bộ cũng sẽ là một giải pháp toàn cục. Vì vậy, đào tạo SVM luôn tìm ra một giải pháp toàn cục thƣờng là duy nhất (Burges và Crisp, 2000)[26]. Điều này vƣợt trội so với NN, một kỹ thuật thƣờng dẫn đến xác định tùy chọn cục bộ (Burges, 1998)[27].

1.5.6.4. Khả năng truy xuất toán học

Sử dụng một hàm kernel, SVM cung cấp một kỹ thuật huấn luyện thay thế cho hàm đa thức, hàm cơ sở hƣớng tâm và bộ phân loại perceptron nhiều lớp, trong đó trọng số của mạng đƣợc tìm thấy bằng cách giải một bài toán lập trình bậc hai, với tuyến tính bất bình đẳng và những ràng buộc về bình đẳng. Đây thƣờng là một kỹ thuật đƣợc ƣu tiên đối với chế độ đào tạo

của NN mà yêu cầu giải pháp giảm thiểu không lồi lõm, không vấn đề hạn chế (Osuna, Freund và Girosi, 1997)[28].

Một phần của tài liệu Ứng dụng svm trong dự báo tài chính theo chuỗi thời gian (Trang 30 - 31)

Tải bản đầy đủ (PDF)

(69 trang)