3.1.1 Mô hình hóa
Nói chung, việc tạo ra các mẫu đối kháng có thể được mô hình hóa như bài toán tối ưu hóa sau đây [17].
maximize—x' J(x ) =J(f (x),y4e) (3.1)
s.t. | x’ =x||—00 <€ (3.2)
trong đó J là một số hàm mắt đo lường sự khác biệt giữa dự đoán mô hình
va thực địa; l[— 00 chuẩn ||.||— eœ < €, được sử dung để định lượng độ lớn của nhiễu loạn.
3.1.2 Tạo mẫu đối kháng sử dụng WCGAN
WCGAN là GAN cơ bản nhưng sử dụng hàm loss Wasserstein và Condi-
tion (tạo có điều kiện)
50
Chương 3. PHƯƠNG PHÁP KHANG MAU DOI KHÁNG
3.1.2.1 Conditional GAN
Việc tao dữ liệu bang GAN cơ bản với nhiều nhãn lớp sẽ rat mat nhiều thời gian. Vì thế việc kết hợp Condition vào Gan cơ bản nhằm tiết kiệm nhiều thới gian cho quá trình tạo cũng như cải thiện hiệu suất của dữ liệu Gan
được tạo ra.
3.1.2.2 Wasserstein GAN
Đào tạo model sử dụng GAN không dễ dàng bởi vì trong quá trình huấn luyện có thể dẫn đến không đạt được hội tụ đến điểm cân bằng. Một trong những cách mà có thể áp dụng để khắc phục việc không hội tụ đó là thay đổi ham mat mát (loss function).
Wasserstein GAN (WGAN) là một biến thé của GAN được đề xuất bởi
Martin Arjovsky, Soumith Chintala và Léon Bottou vào năm 2017. WGAN
tao ra chat lượng mẫu tốt hon so với các phiên ban GAN truyền thống nhờ vào tập trung thay đổi ham mat mát.
Sự khác biệt chính giữa WGAN và các GAN truyền thống nằm ở cách tiếp cận hàm mat mát. Trong WGAN, thay vì sử dụng hàm mat mát nhị phân (binary cross-entropy) như trong GAN truyền thống, WGAN sử dụng hàm mất mát Wasserstein. Hàm mat mát Wasserstein cho phép đo lường
độ tương đồng giữa phân phối xấu và phân phối tốt hơn, đồng thời giúp tránh các van dé như "vanishing gradient" va "mode collapse” xảy ra trong các GAN truyền thống.
Điều quan trọng trong WGAN là đảm bảo rằng mô hình sinh và mô hình phân biệt đều được hội tụ. Để đạt được điều này, WGAN sử dụng kỹ thuật "gradient penalty" để giới hạn độ lớn của gradient. Kỹ thuật này giúp
51
Chương 3. PHƯƠNG PHÁP KHANG MAU DOI KHÁNG
cải thiện tính ổn định va đảm bảo rằng việc huan luyện mô hình không gặp van đề của việc gradient "exploding" hoặc "vanishing".
Wasserstein GAN đã được chứng minh là hiệu quả trong nhiều ứng dụng như tạo ảnh, tạo âm thanh và nhiều lĩnh vực khác, mang lại những kết quả tốt hơn và ổn định hơn so với GAN truyền thống.
Kiến trúc mô hình WCGAN được thể hiện trong Hình 3.1. Hình 3.2 tóm tắt về quá trình để đào tạo WGAN.
3.1.3 Tạo mẫu đối kháng sử dụng các mô hình chuyển giao
TL là một lĩnh vực nghiên cứu may móc và học sâu nhằm mục đích chuyển giao kiến thức từ một hoặc nhiều nhiệm vụ nguồn cho một hoặc nhiều nhiệm vu đích [18]. Giả sử miền nguồn DS, một nhiệm vụ học tập TS, miền mục tiêu DT, và một nhiệm vụ học tập TT. TL giúp cải thiện việc học
hàm dự đoán mục tiêu f —T(.) trong DT sử dụng kiến thức trong DS và
TS, trong đóDS # DT,hoặcTS # TT [19].TL là tất cả về việc sử dung các tính năng đã học về một van dé và tận dụng chúng vào một van dé tương tự mới. Như việc lay đặc điểm của một người đã học cách xác định mèo, nó có thể hữu ích trong việc tạo ra một mô hình xác định hổ [20]. TL
attack traffic | cel
Generator
m.. traffic
HÌNH 3.1: Kiến trúc mô hình WCGAN.
52
Chương 3. PHƯƠNG PHÁP KHANG MAU DOI KHÁNG
Algorithm 1 WGAN, our proposed algorithm. All experiments in the paper used the default values a = 0.00005, e = 0.01, m = 64, neritic = 5.
Require: : a, the learning rate. c, the clipping parameter. m, the batch size.
Neritic, the number of iterations of the critic per generator iteration.
Require: : wp, initial critic parameters. 49, initial generator’s parameters.
1: while ỉ has not converged do 2: for t = 0... Meritie do
3 Sample {a“)}TM, ~ P, a batch from the real data.
1 Sample {z“)}TM, ~ p(z) a batch of prior samples.
5: 9ứ C Vụ [im Diet fo(Êf)) — 5 Dies fo(96(29))]
6: w — w+a-+RMSProp(w, g,,) 7: w + clip(w, —e, c)
8: end for
9: Sample {z(}TM, ~ p(z) a batch of prior samples.
10: ga ô Va ơ ee 1 Fw(ge(zTM))
H1: 0 —08—œ- RMSProp(0, ga)
12: end while
HINH 3.2: Thuật toán Wasserstein Generative Adversarial Net-
works.
là thường được thực hiện cho các tác vụ có một tập dữ liệu nhỏ để đào tao một mô hình quy mô day đủ từ dau. trong tác giả thử nghiệm, diéu này liên quan đến việc cập nhật mô hình IDS hiện có với các hành vi tan công
mới từ một quy mô nhỏ tập dữ liệu chứa các hành vi mới này và không
cần xây dựng tập dữ liệu lớn mới và đào tao lại nó. Có nhiều phương pháp khác nhau để rút ra quá trình học chuyển đổi trong bối cảnh học sâu, điều
đó phụ thuộc vào về lượng đữ liệu tác giả có. mẫu: nó có thể đóng băng tất cả các lớp và chỉ đào tạo lớp cuối cùng hoặc đóng băng hầu hết các lớp
và đào tạo những lớp cuối cùng hoặc đào tạo tất cả các lớp bằng cách khởi tạo các trọng số trên lớp được đào tạo trước.