Các phương pháp tạo mẫu đối kháng

Một phần của tài liệu Khóa luận tốt nghiệp An toàn thông tin: Nghiên cứu phương pháp cải thiện khả năng kháng mẫu đối kháng cho các trình phát hiện tấn công mạng (Trang 65 - 68)

3.1.1 Mô hình hóa

Nói chung, việc tạo ra các mẫu đối kháng có thể được mô hình hóa như bài toán tối ưu hóa sau đây [17].

maximize—x' J(x ) =J(f (x),y4e) (3.1)

s.t. | x’ =x||—00 <€ (3.2)

trong đó J là một số hàm mắt đo lường sự khác biệt giữa dự đoán mô hình

va thực địa; l[— 00 chuẩn ||.||— eœ < €, được sử dung để định lượng độ lớn của nhiễu loạn.

3.1.2 Tạo mẫu đối kháng sử dụng WCGAN

WCGAN là GAN cơ bản nhưng sử dụng hàm loss Wasserstein và Condi-

tion (tạo có điều kiện)

50

Chương 3. PHƯƠNG PHÁP KHANG MAU DOI KHÁNG

3.1.2.1 Conditional GAN

Việc tao dữ liệu bang GAN cơ bản với nhiều nhãn lớp sẽ rat mat nhiều thời gian. Vì thế việc kết hợp Condition vào Gan cơ bản nhằm tiết kiệm nhiều thới gian cho quá trình tạo cũng như cải thiện hiệu suất của dữ liệu Gan

được tạo ra.

3.1.2.2 Wasserstein GAN

Đào tạo model sử dụng GAN không dễ dàng bởi vì trong quá trình huấn luyện có thể dẫn đến không đạt được hội tụ đến điểm cân bằng. Một trong những cách mà có thể áp dụng để khắc phục việc không hội tụ đó là thay đổi ham mat mát (loss function).

Wasserstein GAN (WGAN) là một biến thé của GAN được đề xuất bởi

Martin Arjovsky, Soumith Chintala và Léon Bottou vào năm 2017. WGAN

tao ra chat lượng mẫu tốt hon so với các phiên ban GAN truyền thống nhờ vào tập trung thay đổi ham mat mát.

Sự khác biệt chính giữa WGAN và các GAN truyền thống nằm ở cách tiếp cận hàm mat mát. Trong WGAN, thay vì sử dụng hàm mat mát nhị phân (binary cross-entropy) như trong GAN truyền thống, WGAN sử dụng hàm mất mát Wasserstein. Hàm mat mát Wasserstein cho phép đo lường

độ tương đồng giữa phân phối xấu và phân phối tốt hơn, đồng thời giúp tránh các van dé như "vanishing gradient" va "mode collapse” xảy ra trong các GAN truyền thống.

Điều quan trọng trong WGAN là đảm bảo rằng mô hình sinh và mô hình phân biệt đều được hội tụ. Để đạt được điều này, WGAN sử dụng kỹ thuật "gradient penalty" để giới hạn độ lớn của gradient. Kỹ thuật này giúp

51

Chương 3. PHƯƠNG PHÁP KHANG MAU DOI KHÁNG

cải thiện tính ổn định va đảm bảo rằng việc huan luyện mô hình không gặp van đề của việc gradient "exploding" hoặc "vanishing".

Wasserstein GAN đã được chứng minh là hiệu quả trong nhiều ứng dụng như tạo ảnh, tạo âm thanh và nhiều lĩnh vực khác, mang lại những kết quả tốt hơn và ổn định hơn so với GAN truyền thống.

Kiến trúc mô hình WCGAN được thể hiện trong Hình 3.1. Hình 3.2 tóm tắt về quá trình để đào tạo WGAN.

3.1.3 Tạo mẫu đối kháng sử dụng các mô hình chuyển giao

TL là một lĩnh vực nghiên cứu may móc và học sâu nhằm mục đích chuyển giao kiến thức từ một hoặc nhiều nhiệm vụ nguồn cho một hoặc nhiều nhiệm vu đích [18]. Giả sử miền nguồn DS, một nhiệm vụ học tập TS, miền mục tiêu DT, và một nhiệm vụ học tập TT. TL giúp cải thiện việc học

hàm dự đoán mục tiêu f —T(.) trong DT sử dụng kiến thức trong DS và

TS, trong đóDS # DT,hoặcTS # TT [19].TL là tất cả về việc sử dung các tính năng đã học về một van dé và tận dụng chúng vào một van dé tương tự mới. Như việc lay đặc điểm của một người đã học cách xác định mèo, nó có thể hữu ích trong việc tạo ra một mô hình xác định hổ [20]. TL

attack traffic | cel

Generator

m.. traffic

HÌNH 3.1: Kiến trúc mô hình WCGAN.

52

Chương 3. PHƯƠNG PHÁP KHANG MAU DOI KHÁNG

Algorithm 1 WGAN, our proposed algorithm. All experiments in the paper used the default values a = 0.00005, e = 0.01, m = 64, neritic = 5.

Require: : a, the learning rate. c, the clipping parameter. m, the batch size.

Neritic, the number of iterations of the critic per generator iteration.

Require: : wp, initial critic parameters. 49, initial generator’s parameters.

1: while ỉ has not converged do 2: for t = 0... Meritie do

3 Sample {a“)}TM, ~ P, a batch from the real data.

1 Sample {z“)}TM, ~ p(z) a batch of prior samples.

5: 9ứ C Vụ [im Diet fo(Êf)) — 5 Dies fo(96(29))]

6: w — w+a-+RMSProp(w, g,,) 7: w + clip(w, —e, c)

8: end for

9: Sample {z(}TM, ~ p(z) a batch of prior samples.

10: ga ô Va ơ ee 1 Fw(ge(zTM))

H1: 0 —08—œ- RMSProp(0, ga)

12: end while

HINH 3.2: Thuật toán Wasserstein Generative Adversarial Net-

works.

là thường được thực hiện cho các tác vụ có một tập dữ liệu nhỏ để đào tao một mô hình quy mô day đủ từ dau. trong tác giả thử nghiệm, diéu này liên quan đến việc cập nhật mô hình IDS hiện có với các hành vi tan công

mới từ một quy mô nhỏ tập dữ liệu chứa các hành vi mới này và không

cần xây dựng tập dữ liệu lớn mới và đào tao lại nó. Có nhiều phương pháp khác nhau để rút ra quá trình học chuyển đổi trong bối cảnh học sâu, điều

đó phụ thuộc vào về lượng đữ liệu tác giả có. mẫu: nó có thể đóng băng tất cả các lớp và chỉ đào tạo lớp cuối cùng hoặc đóng băng hầu hết các lớp

và đào tạo những lớp cuối cùng hoặc đào tạo tất cả các lớp bằng cách khởi tạo các trọng số trên lớp được đào tạo trước.

Một phần của tài liệu Khóa luận tốt nghiệp An toàn thông tin: Nghiên cứu phương pháp cải thiện khả năng kháng mẫu đối kháng cho các trình phát hiện tấn công mạng (Trang 65 - 68)

Tải bản đầy đủ (PDF)

(123 trang)