1. Trang chủ
  2. » Luận Văn - Báo Cáo

Ứng dụng Deep learning trong việc phát hiện bất thường trên mạng (Luận văn thạc sĩ)

52 655 5

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 52
Dung lượng 1,15 MB

Nội dung

Ứng dụng Deep learning trong việc phát hiện bất thường trên mạng (Luận văn thạc sĩ)Ứng dụng Deep learning trong việc phát hiện bất thường trên mạng (Luận văn thạc sĩ)Ứng dụng Deep learning trong việc phát hiện bất thường trên mạng (Luận văn thạc sĩ)Ứng dụng Deep learning trong việc phát hiện bất thường trên mạng (Luận văn thạc sĩ)Ứng dụng Deep learning trong việc phát hiện bất thường trên mạng (Luận văn thạc sĩ)Ứng dụng Deep learning trong việc phát hiện bất thường trên mạng (Luận văn thạc sĩ)Ứng dụng Deep learning trong việc phát hiện bất thường trên mạng (Luận văn thạc sĩ)Ứng dụng Deep learning trong việc phát hiện bất thường trên mạng (Luận văn thạc sĩ)

TRẦN NGỌC MINH HỌC VIỆN CƠNG NGHỆ BƯU CHÍNH VIỄN THÔNG - TRẦN NGỌC MINH HỆ THỐNG THÔNG TIN ỨNG DỤNG DEEP LEARNING TRONG VIỆC PHÁT HIỆN BẤT THƯỜNG TRÊN MẠNG 2015 – 2017 LUẬN VĂN THẠC SĨ KỸ THUẬT HỒ CHÍ MINH 2018 HỒ CHÍ MINH - 2018 HỌC VIỆN CƠNG NGHỆ BƯU CHÍNH VIỄN THƠNG - TRẦN NGỌC MINH ỨNG DỤNG DEEP LEARNING TRONG VIỆC PHÁT HIỆN BẤT THƯỜNG TRÊN MẠNG LUẬN VĂN THẠC SĨ KỸ THUẬT (Theo định hướng ứng dụng) THÀNH PHỐ HỒ CHÍ MINH - 2018 HỌC VIỆN CƠNG NGHỆ BƯU CHÍNH VIỄN THƠNG - TRẦN NGỌC MINH ỨNG DỤNG DEEP LEARNING TRONG VIỆC PHÁT HIỆN BẤT THƯỜNG TRÊN MẠNG Chuyên ngành: Hệ thống thông tin Mã số: 60.48.01.04 LUẬN VĂN THẠC SĨ KỸ THUẬT (Theo định hướng ứng dụng) NGƯỜI HƯỚNG DẪN KHÓA HỌC: PGS TS PHẠM TRẦN VŨ THÀNH PHỐ HỒ CHÍ MINH - 2018 i LỜI CAM ĐOAN Tơi cam đoan cơng trình nghiên cứu riêng Các số liệu kết luận văn trung thực chưa cơng bố cơng trình nghiên cứu khác TP.HCM, ngày 24 tháng 07 năm 2018 Học viên thực luận văn Trần Ngọc Minh ii LỜI CẢM ƠN Để hoàn thành luận văn này, nỗ lực nghiên cứu cố gắng thân thiếu định hướng bảo quý báu Thầy/Cô hướng dẫn Em xin gửi lời cảm ơn sâu sắc tới Thầy - PGS TS Phạm Trần Vũ, giáo viên trực tiếp hướng dẫn, người tận tình bảo định hướng thêm cho em suốt trình nghiên cứu thực luận văn Em củng xin gửi lời cảm ơn chân thành đến tất Thầy Cô trường Học Viện Cơng Nghệ Bưu Chính Viễn Thơng sở TP Hồ Chí Minh giảng dạy dìu dắt chúng em suốt trình học tập Trường Cuối cùng, em xin gửi lời cảm ơn đến gia đình, bạn bè người ln đồng hành, cổ vũ tinh thần, giúp em vượt qua giai đoạn khó khăn tạo điều kiện thuận lợi cho em học tập tốt hoàn thành luận văn Em xin chân thành cảm ơn! TP.HCM, ngày 24 tháng 07 năm 2018 Học viên thực luận văn Trần Ngọc Minh iii MỤC LỤC LỜI CAM ĐOAN i LỜI CẢM ƠN ii DANH MỤC CÁC THUẬT NGỮ, CHỮ VIẾT TẮT v DANH SÁCH CÁC BẢNG vi DANH SÁCH CÁC HÌNH VẼ, BIỂU ĐỒ vii MỞ ĐẦU .1 CHƯƠNG – TỔNG QUAN .3 1.1 Hệ thống phát xâm nhập 1.2 Phát bất thường .5 1.2.1 Phát bất thường 1.2.2 Phân loại kỹ thuật phát bất thường 1.3 Tổng quan kỹ thuật phát bất thường 1.4 Kết luận chương 12 CHƯƠNG - ỨNG DỤNG DEEP LEARNING TRONG VIỆC PHÁT HIỆN BẤT THƯỜNG TRÊN MẠNG 13 2.1 Mạng nơ-ron nhân tạo 13 2.2 Deep Learning 17 2.2.1 Autoencoder .18 2.3 Mơ hình phát bất thường sử dụng Autoencoder .20 2.4 Kết luận chương 25 CHƯƠNG - THỰC NGHIỆM VÀ ĐÁNH GIÁ 26 3.1 Môi trường thực nghiệm 26 3.2 Bộ liệu KDD99 .26 3.3 Tiến hành thực nghiệm .28 3.4 Kết đánh giá 32 iv 3.5 Kết luận chương 39 KẾT LUẬN .40 DANH MỤC CÁC TÀI LIỆU THAM KHẢO 41 v DANH MỤC CÁC THUẬT NGỮ, CHỮ VIẾT TẮT Viết tắt Tiếng Anh Tiếng Việt ANN Artificial Neural Network Mạng neural nhân tạo BM Boltzman Machine Máy học Boltzman CNN Convolutional Neural Network Mạng neural tích chập DBN Deep Belief Network Mạng niềm tin sâu DNN Deep Neural Network Mạng neural sâu KNN K-Nearest Neighbors K láng giềng gần LMS Least Means Square Thuật tốn bình phương tối thiểu MLP Multilayer-Perceptrons Perceptron đa lớp IDS Intrusion Detection System Hệ thống phát xâm nhập RNN Recurrent Neural Network Mạng neural tái phát OSVM One-Class Support Vector Machine Máy vectơ hỗ trợ lớp SVM Support Vector Machine Máy vectơ hỗ trợ SOM Self-Organizing Map Thuật toán SOM vi DANH SÁCH CÁC BẢNG Bảng 1.1: Ưu điểm khuyết điểm số kỹ thuật phát bất thường [14]…10 Bảng 3.1: Các thuộc tính tập liệu KDD99…………………………………27 Bảng 3.2: Phân loại kiểu cơng………………………………………………28 Bảng 3.3: Kết độ xác – Accuracy……………………………………… 36 Bảng 3.4: Kết số thuật tốn khác [18]………………………………….38 vii DANH SÁCH CÁC HÌNH VẼ, BIỂU ĐỒ Hình 1.1: Hệ thống phát xâm nhập đơn giản (IDS)…………………………… Hình 1.2: Phân loại hệ thống phát xâm nhập……………………………………4 Hình 1.3: Tập liệu với bất thường……………………………………………… Hình 1.4: Ưu điểm Deep Learning………………………………………………….12 Hình 2.1: Cấu trúc mạng nơ-ron nhân tạo………………………………………… 13 Hình 2.2: Kiến trúc mạng nơron nhân tạo………………………………………… 15 Hình 2.3: Mơ hình Perceptron lớp…………………………………………… 15 Hình 2.4: Mơ hình mạng Multi-Layer Perceptrons…………………………………16 Hình 2.5: Các lớp Autoencoder………………………………………………19 Hình 2.6: Sơ đồ cấu trúc Autoencoder………………………………………….20 Hình 2.7: Quy trình huấn luyện phát bất thường……………………………23 Hình 2.8: Mơ hình Autoencoder……………………………………………………23 Hình 2.9: Mơ hình Autoencoder đề xuất………………………………………… 24 Hình 3.1: Kết xử lý cho 100 epoch…………………………………………… 33 Hình 3.2: Biểu đồ lỗi cho epoch……………………………………………….34 Hình 3.3: Biểu đồ Độ xác cho 100 epoch…………………………………… 35 Hình 3.4: Kết phương pháp đánh giá mơ hình…………………………… 37 28 f31 srv_diff_host_rate continuous f32 dst_host_count continuous f33 dst_host_srv_count continuous f34 dst_host_same_srv_rate continuous f35 dst_host_diff_srv_rate continuous f36 dst_host_same_src_port_rate continuous f37 dst_host_srv_diff_host_rate continuous f38 dst_host_serror_rate continuous f39 dst_host_srv_serror_rate continuous f40 dst_host_rerror_rate continuous f41 dst_host_srv_rerror_rate continuous Tập liệu huấn luyện chứa 22 kiểu công, phân thành loại chính: Dos, R2L, U2L, Probe Thơng tin chi tiết kiểu công tập liệu KDD99 mô tả Bảng 3.2 Bảng 3.2: Phân loại kiểu công TT Loại Kiểu công DoS back, land, Neptune, pod, smurf, teardrop R2L ftp_write, guess_passwd, imap, multihop, phf, spy, warezclient, warezmaster U2L buffer_overflow, loadmodule, perl, rootkit Probe Ipsweep, nmap, portsweep, satan 3.3 Tiến hành thực nghiệm Thực nghiệm tiến hành dựa thư viện mã nguồn mở TensorFlow công cụ hỗ trợ code Deep Learning Các bước tiến hành thực nghiệm: - Thực nghiệm tập liệu KDD99 - Sử dụng phương pháp Autoencoder để thử nghiệm với liệu KDD99 - Xây dựng mơ hình Autoencoder để huấn luyện kiểm thử - Đánh giá kết đạt 29 • Đọc liệu KDD99 Đầu tiên, tiền xử lý liệu KDD99 vectơ đặc trưng chuyển đổi giá trị số Hàm xây dựng vectơ đặc trưng cho mạng nơron sau: + Predictors/Inputs (Dự đốn / Đầu vào): • Mã hóa giá trị văn bản, phân loại encode_text • Mã hóa giá trị số encode_numeric + Ouput (đầu ra): • Mã hóa giá trị văn bản, phân loại encode_index • Khơng mã hóa giá trị số đầu df = pd.read_csv("D:\KDD99\kddcup.data.gz", header=None) print("Read {} rows.".format(len(df))) df.dropna(inplace=True,axis=1) # Tệp CSV khơng có tiêu đề cột, phải thêm vào df.columns = [ 'duration', 'protocol_type', 'service', 'flag', 'src_bytes', 'dst_bytes', 'land', 'wrong_fragment', 'urgent', 'hot', 'num_failed_logins', 'logged_in', 'num_compromised', 'root_shell', 'su_attempted', 'num_root', 'num_file_creations', 'num_shells', 'num_access_files', 'num_outbound_cmds', 'is_host_login', 'is_guest_login', 'count', 'srv_count', 'serror_rate', 'srv_serror_rate', 30 'rerror_rate', 'srv_rerror_rate', 'same_srv_rate', 'diff_srv_rate', 'srv_diff_host_rate', 'dst_host_count', 'dst_host_srv_count', 'dst_host_same_srv_rate', 'dst_host_diff_srv_rate', 'dst_host_same_src_port_rate', 'dst_host_srv_diff_host_rate', 'dst_host_serror_rate', 'dst_host_srv_serror_rate', 'dst_host_rerror_rate', 'dst_host_srv_rerror_rate', 'outcome' ] # display rows display(df) # Mã hóa tính vector encode_numericdf, 'duration') encode_text(df, 'protocol_type') encode_textdf, 'service') encode_text(df, 'flag') encode_numeric(df, 'src_bytes') encode_numeric(df, 'dst_bytes') encode_text(df, 'land') encode_numeric(df, 'wrong_fragment') encode_numeric(df, 'urgent') encode_numeric(df, 'hot') encode_numeric(df, 'num_failed_logins') encode_textdf, 'logged_in') encode_numeric(df, 'num_compromised') encode_numeric(df, 'root_shell') encode_numeric(df, 'su_attempted') encode_numeric(df, 'num_root') encode_numeric(df, 'num_file_creations') encode_numeric(df, 'num_shells') encode_numeric(df, 'num_access_files') encode_numeric(df, 'num_outbound_cmds') encode_text(df, 'is_host_login') encode_text(df, 'is_guest_login') encode_numeric(df, 'count') encode_numeric(df, 'srv_count') encode_numeric(df, 'serror_rate') encode_numeric(df, 'srv_serror_rate') 31 encode_numeric(df, 'rerror_rate') encode_numeric(df, 'srv_rerror_rate') encode_numeric(df, 'same_srv_rate') encode_numeric(df, 'diff_srv_rate') encode_numeric(df, 'srv_diff_host_rate') encode_numeric(df, 'dst_host_count') encode_numeric(df, 'dst_host_srv_count') encode_numeric(df, 'dst_host_same_srv_rate') encode_numeric(df, 'dst_host_diff_srv_rate') encode_numeric(df, 'dst_host_same_src_port_rate') encode_numeric(df, 'dst_host_srv_diff_host_rate') encode_numeric(df, 'dst_host_serror_rate') encode_numeric(df, 'dst_host_srv_serror_rate') encode_numeric(df, 'dst_host_rerror_rate') encode_numeric(df, 'dst_host_srv_rerror_rate') outcomes = encode_index(df, 'outcome') num_classes = len(outcomes) # Hiển thị hàng df.dropna(inplace=True,axis=1) df # Chia thành x (predictors) & y (prediction) x, y = to_xy(df,'outcome') Load Data: • Tập Trainning Tập Test: Đánh giá độ xác phân lớp quan trọng, cho phép dự đốn độ xác kết phân lớp liệu tương lai Độ xác giúp so sánh mơ hình phân lớp khác Hai phương pháp đánh giá phổ biến là: 32 Phương pháp Hold-out: phương pháp này, liệu chia cách ngẫu nhiên thành phần: môt tập liệu huấn luyện tập liệu kiểm tra K-fold Cross Validation: Toàn liệu chia thành K tập Q trình học máy có K lần (thường 10 lần) Trong lần, tập dùng để kiểm tra K-1 tập lại dùng để huấn luyện Trong phạm vi luận văn, sử dụng phương pháp Holdout chia liệu thành phần: tập liệu huấn luyên tập liệu kiểm tra theo tỷ lệ 80:20 • Huấn luyện mơ hình: Mơ hình Autoencoder đề xuất xây dựng huấn luyến liệu lớp đầu vào; lớp ẩn; lớp đầu Trong đó, lớp ẩn 20 node, lớp ẩn 10 node Sử dụng: - Hàm kích hoạt ReLU cho phân loại đầu lớp ẩn; hàm Softmax cho phân loại lớp đầu - Hàm tối ưu: Adam (tham số thư viện Keras) learning_rate 0.001 - Hàm loss: categorical_crossentropy - Epochs: 100 (epochs số lần trình huấn luyện học qua tất tập liệu tập huấn luyện) # Xây dựng mơ hình autoencoder model = Sequential() model.add(Dense(20, input_dim=x.shape[1], activation='relu')) model.add(Dense(10, activation='relu')) model.add(Dense(y.shape[1],activation='softmax')) model.compile(loss='categorical_crossentropy', optimizer='adam') # Huấn luyện mô hình model.fit(x_train,y_train,validation_data=(x_test,y_test), epochs=100) 3.4 Kết đánh giá Xây dựng mơ hình mạng Autoencoder cài đặt chạy: 33 Hình 3.1: Kết xử lý cho 100 epoch Sau chạy lệnh xong, ta có kết quả: - Epoch 100/100: epoch 100 34 - loss: 0.055 Đây độ lỗi tập train epoch - categorical_accuracy: 0.9996 Đây độ xác tập train Có nghĩa mạng đạt 99.96 % tập train - val_loss: 0.074 Đây độ lỗi tập test epoch - val_ categorical_accuracy: 0.9995 Đây độ xác tập test Có nghĩa mạng đạt 99.95 % tập test - Thời gian huấn luyện xử lý cho epoch trung bình 122s Hình 3.2: Biểu đồ lỗi cho epoch 35 Hình 3.3: Biểu đồ Độ xác cho 100 epoch Biểu đồ độ lỗi tập huấn luyện tập kiểm tra xử lý 100 epoch cho thấy tỷ lệ lỗi thấp hình 3.2 ❖ Phương pháp đánh giá: Các tiêu chí sử dụng để đánh giá hiệu hệ thống phát xâm nhập bất thường: - Accuracy (Độ xác) tỷ lệ số điểm dự đoán tổng số điểm tập liệu kiểm thử: A = - 𝑇𝑃+𝑇𝑁 𝑇𝑃+𝐹𝑁+𝐹𝑃+𝑇𝑁 Recall tỷ lệ số điểm true positive số điểm thực positive (TP + FN): Recall = TPR = 𝑇𝑃 𝑇𝑃 + 𝐹𝑁 TPR: True Positive Rate - Precision (P) thước đo hệ thống có khả phát bình thường hay bất thường: P = - 𝑇𝑃 𝑇𝑃 + 𝐹𝑃 F1- score harmonic mean Precision Recall, sử dụng để đánh giá phân lớp có cơng thức sau: 𝐹1 = 1 + 𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 𝑅𝑒𝑐𝑎𝑙𝑙 36 Trong đó: + True Positives (TP) số lượng bất thường phân loại bất thường + True Negatives (TN) số lượng bình thường phân loại bình thường + False Positives (FP) số lượng bình thường phân loại sai bất thường + False Negatives (FN) số lượng bất thường phân loại sai thành bình thường • Tính Accuracy mơ hình Q trình, kiểm thử mơ hình chạy cho lần, cho kết Độ xác (Accuracy) sau: Bảng 3.3: Kết độ xác - Accuracy Số lần Accuracy 0.99946187 0.99960151 0.99957537 0.99928875 0.99951658 Trung bình 0.99948882 Kết Độ xác trung bình cho lần chạy kiểm thử: Accuracy ≈ 0.9995 Tỷ lệ % Độ xác tỷ lệ số lượng bất thường dự đoán tổng số lượng traffic tập liệu kiểm thử: Accuracy ≈ 99.95% 37 Hình 3.4: Kết phương pháp đánh giá mơ hình Q trình thực nghiệm cho lần chạy ước tính với thời gian 30 phút cho kết tỷ lệ trung bình Accuracy ≈ 99.95% thể hiệu thuật toán; tỷ lệ phát Recall (hay TPR) cho 22 kiểu công đạt kết cao Tỷ lệ F1-score cao cho thấy phân lớp mơ hình tốt Ngồi ra, tỷ lệ Precsion phát liệu mạng bình thường hay bất thường hệ thống đạt kết cao hình 3.4 • Đánh giá độ xác dự đốn Đánh giá tính xác dự đốn mơ hình machine learning sử dụng sai số bình phương trung bình (RMSE - Root Mean Square Error) Độ xác dự đốn đo n quan sát, 𝑝𝑖 giá trị dự đoán i, 𝑟𝑖 giá trị đánh giá thực tế i Có cơng thức sau: RMSE = √ ∑𝑛𝑖=1(𝑝𝑖 − 𝑟𝑖 )2 𝑛 38 Kết tỷ lệ RMSE = 0.0050683119, tỷ lệ lỗi thấp cho thấy mơ hình Autoencoder hệ thống phát bất thường đạt hiệu tốt Kết hiệu suất thuật toán máy học khác sử dụng liệu KDD99 Bảng 3.4: Kết số thuật toán khác [18] Thuật toán Tác giả Accuracy Decision Tree Lin et al, 2012 0.9885 Naive Bayes Guo et al, 2014 0.9148 RNN Sheikhan et al, 2012 0.9410 Rule Based Gowrison et al, 2013 0.999 SVM Lin et al, 2012 0.9903 Từ bảng kết trên, so sánh với thuật tốn khác nhận thấy hiệu suất mơ hình Autoencoder có độ xác cao phát Do đó, ứng dụng Autoencoder vào hệ thống phát xâm nhập bất thường cách tiếp cận hợp lý Phát bất thường dựa Deep Learning xây dựng mơ hình mạng nơron 39 với lớp ẩn tự động tìm hiểu đặc tính liệu cải thiện độ xác hệ thống phát bất thường 3.5 Kết luận chương Trong chương này, cài đặt thử nghiệm Deep Learning sử dụng mơ hình Autoencoder tập liệu KDD99 Kết cho thấy độ xác hiểu kỹ thuật cao Do đó, ứng dụng kỹ thuật Deeep Learning vào phát bất thường mạng luận văn hướng nghiên cứu hoàn toàn phù hợp 40 KẾT LUẬN Luận văn nghiên cứu mơ hình mạng neural, ứng dụng Autoencoder vào hệ thống phát xâm nhập bất thường cho kết đánh giá hiệu suất tập liệu thử nghiệm KDD99 Mơ hình Autoencoder xây dựng nghiên cứu cải tiến hiệu chỉnh cho kết khả quan, áp dụng vào hệ thống thực tế Phương pháp Deep Learning xây dựng mơ hình học tính dựa kỹ thuật Autoencoder học tốt tính cải thiện độ xác phát bất thường Với phát triển phức tạp ngày tăng sở hạ tầng mạng tiến hóa cơng, xác định ngăn chặn công thực tế gặp nhiều khó khăn Lưu lượng mạng phức tạp khơng thể đốn trước Mơ hình thay đổi theo thời gian, dị thường liên tục phát triển Kỹ thuật công mẫu thay đổi, thông tin liệu, lưu lượng mạng truy cập bình thường khơng giá trị Do đó, xây dựng mơ hình mạng học sâu để phát bất thường thực tế gặp nhiều thách thức khó khăn Hướng phát triển luận văn: Tiếp tục thử nghiệm cải tiến để giảm thời gian huấn luyện có kết tốt hơn, thu thập tập liệu khác để đánh giá Xem xét tới việc cập nhật tập liệu thời gian huấn luyện lại mơ hình, mức độ thay đổi tham số Nghiên cứu đánh giá để triển khai thực tế, vừa đảm bảo độ xác vừa đảm bảo thời gian thực Ngồi ra, sau mơ hình Autoencoder ứng dụng thành cơng, tác giả xem xét để áp dụng mơ hình mạng neural khác CNN hay kết hợp với mơ hình khác Từ có cách tiếp cận Deep Learning nhiều lĩnh vực nói chung hệ thống phát xâm nhập bất thường nói riêng 41 DANH MỤC CÁC TÀI LIỆU THAM KHẢO [1] Pathan (ed), Al-Sakib (2014) The state of the art in intrusion prevention and detection [2] Mohit Tiwari, Raj Kumar, Akash Bharti, Jai Kishan, “INTRUSION DETECTION SYSTEM”, International Journal of Technical Research and Applications e-ISSN: 2320-8163, Volume 5, Issue (2017), PP 38-44 [3] Brandon Lokesak (December 4, 2008) “A Comparison Between Signature Based and Anomaly Based Intrusion Detection Systems” (PPT) www.iup.edu [4] Anazida Zainal, Mohd Aizaini Maarof and Siti Mariyam, Shamsuddin, “Research issues in adaptive intrusion detection”, Faculty of Computer Science and Information System 81310 Skudai,Universiti Teknologi Malaysia, Proceedings of the Postgraduate Annual Research Seminar 2006 [5] Chandola, V Banerjee, A Kumar (2009), “Anomaly detection: A survey”, ACM Computing Surveys 41, pp 1–58 [6] D E Denning, “An Intrusion-Detection Model”, 1986 IEEE Symposium on Security and Privacy (SP), Oakland, CA, 1986, pp 118 [7] Wang, Ke (2011), “Anomalous Payload-Based Network Intrusion Detection” (PDF), Recent Advances in Intrusion Detection, pp 04-22 [8] Ming.Y, “Real Time Anomaly Detection Systems for Denial of Service Attacks by Weighted k-Nearest Neighbor Classifiers”, Journal Expert Systems with Applications: An International Journal, Volume 38 Issue 4, April, 2011, Pages 34923498 [9] Johansen, Lee “CS424 network security: Bayesian Network Intrusion Detection (BINDS)”, 2003, http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.83.8479 [10] Mohammed Sammany, Marwa Sharawi, Mohammed El-Beltagy, Imane Saroit, “Artificial Neural Networks Architecture For Intrusion Detection Systems and Classification of Attacks”, 2007, Cairo Univeristy, Egypt 42 [11] Paulo M Mafra, Vinicius Moll, Joni da Silva Fraga, “Octopus-IIDS: An Anomaly Based Intelligent Intrusion Detection System”, Proceedings of Computers and Communications (ISCC) 2010 [12] H.G Kayacik, A.N Zincir-Heywood M.I Heywood, “ On the Capability of an SOM based Intrusion Detection System” , Proc IEEE, IJCNN, 2003 [13] Rui Zhang, Shaoyan Zhang, Yang Lan, Jianmin Jiang, “Network Anomaly Detection Using One Class Support Vector Machine”, Proceedings of the International Multi Conference of Engineers and Computer Scientists, 2008 Vol [14] Hoàng Ngọc Thanh, “SỬ DỤNG KỸ THUẬT MÁY HỌC TRONG CÁC HỆ THỐNG PHÁT HIỆN XÂM NHẬP MẠNG”, Tập san Khoa học đào tạo năm 2016, Khoa công nghệ thông tin, Trường Đại học Bà Rịa - Vũng Tàu [15] Yann LeCun, Yoshua Bengio3 & Geoffrey Hinton, “Deep learning”, doi:10.1038/nature14539 [16] G E Hinton, R R Salakhutdinov, “Reducing the dimensionality of data with neural network Science”, Science 28 Jul 2006: Vol 313, Issue 5786, pp 504-507, DOI: 10.1126/science.1127647 [17] KDD 1999 Dataset, http://kdd.ics.uci.edu/databases/kddcup99/kddcup99.html [18] Atilla Ozg, Hamit Erdem, “The impact of using large training data set on classification accuracy”, Baskent University, Ankara, CC BY 4.0 Open Access 2017, https://doi.org/10.7287/peerj.preprints.2838v1 ... kỹ thuật phát bất thường Trình bày lý chọn đề tài nghiên cứu phát bất thường sử dụng Deep Learning 13 CHƯƠNG - ỨNG DỤNG DEEP LEARNING TRONG VIỆC PHÁT HIỆN BẤT THƯỜNG TRÊN MẠNG Deep Learning lĩnh... TRẦN NGỌC MINH ỨNG DỤNG DEEP LEARNING TRONG VIỆC PHÁT HIỆN BẤT THƯỜNG TRÊN MẠNG Chuyên ngành: Hệ thống thông tin Mã số: 60.48.01.04 LUẬN VĂN THẠC SĨ KỸ THUẬT (Theo định hướng ứng dụng) NGƯỜI HƯỚNG... THƠNG - TRẦN NGỌC MINH ỨNG DỤNG DEEP LEARNING TRONG VIỆC PHÁT HIỆN BẤT THƯỜNG TRÊN MẠNG LUẬN VĂN THẠC SĨ KỸ THUẬT (Theo định hướng ứng dụng) THÀNH PHỐ HỒ CHÍ MINH - 2018 HỌC VIỆN

Ngày đăng: 24/08/2018, 16:24

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w