1. Trang chủ
  2. » Luận Văn - Báo Cáo

ĐB tính riêng tư cho mô hình DL

85 30 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 85
Dung lượng 3,73 MB

Nội dung

Đề tài Đảm bảo tính riêng tư cho dữ liệu trong các mô hình phát hiện hiểm họa an toàn thông tin dựa trên học sâu với mục đích nghiên cứu, tìm hiểu, ứng dụng deep learning nhằm đảm bảo tối đa tính riêng tư cho dữ liệu trong xây dựng mô hình phát hiện hiểm họa an toàn thông tin. Với nội dung chính gồm 4 chương cụ thể như sau: Chương I: Tổng quan về trí tuệ nhân tạo Chương II: Ứng dựng của deep learning trong phát hiện hiểm họa an toàn thông tin Chương III: Các giải pháp bảo vệ tính riêng tư cho dữ liệu với mô hình deep learning trên nền tảng điện toán đám mây Chương IV: Triển khai cài đặt mô hình

BAN CƠ YẾU CHÍNH PHỦ HỌC VIỆN KỸ THUẬT MẬT Mà ¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯ ĐỒ ÁN TỐT NGHIỆP ĐẢM BẢO TÍNH RIÊNG TƯ CHO DỮ LIỆU TRONG CÁC MƠ HÌNH PHÁT HIỆN HIỂM HỌA AN TỒN THƠNG TIN DỰA TRÊN HỌC SÂU Ngành: An tồn thơng tin Mã số: 7.48.02.02 Sinh viên thực hiện: Người hướng dẫn: Hà Nội, 2021 BAN CƠ YẾU CHÍNH PHỦ HỌC VIỆN KỸ THUẬT MẬT Mà ¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯ ĐỒ ÁN TỐT NGHIỆP ĐẢM BẢO TÍNH RIÊNG TƯ CHO DỮ LIỆU TRONG CÁC MƠ HÌNH PHÁT HIỆN HIỂM HỌA AN TỒN THƠNG TIN DỰA TRÊN HỌC SÂU Ngành: An tồn thơng tin Mã số: 7.48.02.02 Sinh viên thực hiện: Người hướng dẫn: Hà Nội, 2021 MỤC LỤC MỤC LỤC i DANH MỤC HÌNH ẢNH .iii DANH MỤC BẢNG v DANH MỤC TỪ VIẾT TẮT vi LỜI CÁM ƠN .vii LỜI MỞ ĐẦU viii CHƯƠNG I: TỔNG QUAN VỀ CƠNG NGHỆ TRÍ TUỆ NHÂN TẠO 1.1 Machine learning 1.2 Deep Learning .3 1.3 Các loại mạng Deep Learning 1.3.1 Mạng nơ ron tích chập, kiến trúc mạng nơ ron tích chập .5 1.3.2 Mạng hồi quy RNN 1.3.3 Mạng LSTM 11 1.3.4 Mạng GAN 13 1.3.5 Kết luận 14 1.4 Tổng kết chương .14 CHƯƠNG II: ỨNG DỤNG CỦA DEEP LEARNING TRONG PHÁT HIỆN CÁC HIỂM HỌA ATTT .16 2.1 Ứng dụng deep learning phát phần mềm độc hại 16 2.1.1 Phát phần mềm độc hại dựa máy PC 16 2.2 Ứng dụng deep learning phát công mạng 25 2.3 Ứng dụng deep learning phát lừa đảo, phát spam trang web phát defacemen 33 2.3.1 Phát lừa đảo 33 2.3.2 Phát thư rác 34 2.3.3 Phát bề mặt trang web 35 2.4 Những thách thức hạn chế 35 2.5 Kết luận chương .35 CHƯƠNG III: CÁC GIẢI PHÁP ĐẢM BẢO TÍNH RIÊNG TƯ CHO DỮ LIỆU VỚI MƠ HÌNH DEEP LEARNING TRÊN NỀN TẢNG ĐIỆN TỐN ĐÁM MÂY 36 3.1 PPDL dựa vào HE .37 3.2 Bảo mật PPDL dựa MPC 45 3.3 PPDL dựa vào quyền riêng tư khác biệt 51 3.4 PPDL dựa vỏ bọc an toàn 52 3.5 PPDL dựa HYBRID 54 CHƯƠNG IV: TRIỂN KHAI CÀI ĐẶT MƠ HÌNH 56 4.1 Mục tiêu, mơ hình tốn .56 4.1.1 Mục tiêu 56 4.1.2 Mơ hình thuật tốn 56 4.2 Cài đặt mô hình 57 4.2.1 Chuẩn bị 57 4.2.2 Xây dựng mạng, huấn luyện triển khai mơ hình .60 4.3 Áp dụng thuật tốn mã hóa đảm bảo tính riêng tư cho mơ hình .62 4.4 Thử nghiệm dự đốn mơ hình 63 4.5 Kết đánh giá 64 KẾT LUẬN 65 TÀI LIỆU THAM KHẢO 66 DANH MỤC HÌNH Ả Y Hình 1.1 Tổng quan AI - Machine learning - Deep learning Hình 1.2 Cách tiếp cận toán phương pháp truyền thống .2 Hình 1.3 Cách tiếp cận tốn mơ hình học máy Hình 1.4 Mơ hình học máy tự động học từ liệu Hình 1.5 Tổng quan cách tiếp cận truyền thống Hình 1.6 Tổng quan cách tiếp cận học máy .3 Hình 1.7 Mạng thần kinh sinh học .3 Hình 1.8 Mạng nơ ron nhân tạo Hình 1.9 Quá trình học từ liệu mơ hình Deep learning Hình 1.10 So sánh mạng nơ ron mạng nơ ron tích chập Hình 1.11 Kiến trúc mạng CNN Hình 1.12 Bộ lọc tích chập sử dụng ma trận điểm ảnh .7 Hình 1.13 Lấy mẫu Max Pooling Average Pooling .9 Hình 1.14 Mơ hình mạng RNN 10 Hình 1.15 Mơ hình mạng many to many mạng RNN 10 Hình 1.16 Một số mơ hình khác mạng RNN 11 Hình 1.17 Mơ-đun lặp lại RNN tiêu chuẩn chứa lớp 12 Hình 1.18 Mơ-đun lặp lại LSTM chứa bốn lớp tương tác .12 Hình 1.19 Các kí hiệu mơ hình mạng LSTM 12 Hình 1.21 Hiệu Deep learning - Machine learning liệu tăng 15 Hình 1.22 Khác trình xây dựng mơ hình Machine learning Deep learning Hình 3.1 Các phương pháp bảo vệ tính riêng tư truyền thống 36 Hình 3.2 Các phương pháp PPDL theo kỹ thuật bảo vệ quyền riêng tư 37 Hình 3.3 Cấu trúc PPDL dựa HE 38 Hình 3.4 Cấu trúc PPDL dựa MPC bảo mật .46 Hình 3.5 Cấu trúc PPDL dựa tính tốn hai bên an tồn 47 Hình 3.6 Cấu trúc PPDL dựa quyền riêng tư khác biệt 51 Hình 3.7 Cấu trúc PPDL dựa mã hóa an tồn .52 YHình 4.1 Tập liệu Spam/ham 57 Hình 4.2 Dữ liệu dịng .58 Hình 4.3 Biều đồ thể tỉ lệ Spam/ham liệu .58 Hình 4.4 Wordcloud với từ thường xuyên xuất email spam .59 Hình 4.5 Wordcloud thể từ khơng xuất email spam 59 Hình 4.6 Mơ hình sử dụng mạng LSTM 60 Hình 4.7 Mạng LSTM phân loại thư rác 60 Hình 4.8 Các giá trị sau training model 61 Hình 4.9 So sánh giá trị training loss giá trị validation loss 61 Hình 4.10 So sánh giá trị training validation accuracy 61 Hình 4.11 Cấu trúc model phát email spam .62 Hình 4.12 Tạo nhiễu cho weight cho server 62 Hình 4.13 Giá trị đầu vào trước sau làm nhiễu 63 Hình 4.14 Hình ảnh dự đốn đoạn phân loại thư rác 64 Hình 4.15 Hình ảnh đoạn văn spam .64 DANH MỤC BẢNG Bảng 3.1 Đặc điểm PPDL dựa HE 45 Bảng 3.2 Các tính PPDL dựa MPC bảo mật khảo sát 50 Bảng 3.3 Các tính PPDL dựa khác biệt 52 Bảng 3.4 Các tính PPDL dựa mã hóa an tồn 53 Bảng 3.5 Các tính PPDL dựa kết hợp 55 DANH MỤC TỪ VIẾT TẮT ATTT LR ML DL OSP ESN SGD RNN LSTM SDAE DAE HMM PPDL RBM An tồn thơng tin Logistic Regression Machine Learning Deep Learning One Side Perceptron Echo State Network Stochastic Gradient Descent Recurrent neural network Long short term memory Stacked Denoising AE Denoising AE Hidden Markov Model Phương pháp kết hợp phương pháp PP cổ điển DL Restricted Boltzmann Machine (mạng nơ ron sản sinh ngẫu nhiên) LỜI CÁM ƠN Trong trình thực đồ án tốt nghiệp này, tơi nhận giúp đỡ tận tình cán hướng dẫn ThS Trần Anh Tú – Giảng viên Khoa An tồn thơng tin Học viện Kỹ thuật Mật mã, quan tâm sâu sát cán Hệ quản lý học viên, động viên người thân bạn bè Xin cảm ơn tất người tạo điều kiện tốt để tơi hồn thành đồ án tốt nghiệp này! SINH VIÊN THỰC HIỆN ĐỒ ÁN 10 Trong chương nêu phương pháp kết hợp phương pháp PP cổ điển mơ hình DL Bao gồm phương pháp PPDL đại để đảm bảo tính riêng tư cho mơ hình học sâu 60 CHƯƠNG IV: TRIỂN KHAI CÀI ĐẶT MƠ HÌNH 4.1 Mục tiêu, mơ hình tốn 4.1.1 Mục tiêu Với phát triển cơng nghệ ngày có nhiều mơ hình học máy đời với tính nhạy bén có độ xác cao Tuy nhiên bên cạnh cịn vấn đề mà đáng phải quan tâm đảm bảo tính riêng tư cho mơ hình học máy Trong phần này, nêu nên vấn đề với mơ hình sử dụng Deep Learning cho toàn phát Spam Email Mục tiêu nội dung bao gồm:  Triển khai mơ hình phát spam email  Triển khai thuật tốn mã hóa đảm bảo tính riêng tư cho mơ hình  Dự đốn phân loại thư rác thơng qua mơ hình xây dựng 4.1.2 Mơ hình thuật tốn Trong mơ hình phát thư rác điều mà ta cần hướng đến làm Đảm bảo tính riêng tư, tính bí mật cho mơ hình Ta hiểu sau Với server tức bên phía mơ hình dự đốn khơng biết đầu vào thật mà client gửi lên dự đốn xác Đồng thời với client khơng biết mơ hình mà phía server sử dụng để dự đốn cho input mà client gửi cho server Ta có: w giá trị weight bên phía mơ hình server X giá trị đầu vào mà client gửi lên server Nhiệm vụ mã hóa w cách nhân w với ma trận k có kích thước với w để thu giá trị W = w*k Lúc giá trị W mã hóa gửi client Client mã hóa giá trị đầu vào X cách nhân với véc tơ t để thu x = X*t giá trị input nhiễu Sau client nhân giá trị nhiễu x với W nhận bên server sau gửi lại cho server Server nhận Wx từ client tiến hành nhân với khóa k nghịch đảo để thu giá trị wx thực Từ ta có mơ hình với giá trị w mã hóa đảm bảo tính riêng tư cho mơ hình 61 Dựa vào thuật tốn ta tiến hành thực nghiệm với mơ hình phát phân loại thư rác sử dụng mơ hình client server 4.2 Cài đặt mơ hình 4.2.1 Chuẩn bị Trong phần thực xây dựng cài đặt mơ hình sử dụng python làm ngơn ngữ lập trình Một số thư viện học máy phổ biến như: tensorflow, keras, sklearn Các thư viện hỗ trợ khác: pandas, numpy, matplotlib, Sử dụng tập liệu dataset Kaggle phát hành năm 2019 Tập liệu có số lượng spam lên tới 29% tập liệu Hình 4.1 Tập liệu Spam/ham Sử dụng hàm data.head() gọi n hàng cho đối tượng dựa vị trí Với n có giá trị mặc định tức dòng Như xem nhanh đối tượng thuộc spam hay khơng Ta viết sau: data = data.drop(['Unnamed: 0', 'label'], axis=1) 62 Hình 4.2 Dữ liệu dịng Để mơ hình học dự đốn đoạn văn có phải thư rác hay khơng điều cốt lõi liệu cần phải có thư rác đoạn văn thư rác Bộ liệu xây dựng bao gồm yếu tố Dưới biểu đồ thể tỉ lệ email spam not spam Hình 4.3 Biều đồ thể tỉ lệ Spam/ham liệu Bước tạo Wordcloud bao gồm từ thường xuyên xuất email spam 63 Hình 4.4 Wordcloud với từ thường xuyên xuất email spam Cũng tương tự email spam cần xây dựng wordcoud để lưu trữ từ khơng xuất spam email Hình 4.5 Wordcloud thể từ không xuất email spam 64 4.2.2 Xây dựng mạng, huấn luyện triển khai mơ hình Mơ hình chung cho mạng LSTM Hình 4.6 Mơ hình sử dụng mạng LSTM Xây dựng mơ hình với mạng LSTM cầm import thư viện, lớp liên quan cần thiết Sử dụng mạng LSTM bao gồm lớp lớp đầu vào lớp embedding Hình 4.7 Mạng LSTM phân loại thư rác Sau xây dựng model tiến hành training model với số lần training 30 ta thu giá trị sau 65 Hình 4.8 Các giá trị sau training model Việc sử dụng mạng LSTM xử lý phân loại thư rác model có độ xác tương đối tối với giá trị accuracy tương ứng 0.991 Tuy nhiên có khả sai lệch nhỏ thể với mơ hình Hình 4.9 So sánh giá trị training loss giá trị validation loss Hình 4.10 So sánh giá trị training validation accuracy 66 4.3 Áp dụng thuật tốn mã hóa đảm bảo tính riêng tư cho mơ hình Trong phần triển khai thuật tốn mã hóa liệu đầu vào cho mơ hình phát email spam Như nêu phần trước, mơ hình sử dụng mạng LSTM với lớp đầu lớp embedding Hình 4.11 Cấu trúc model phát email spam Nhiệm vụ cần mã hóa lớp embedding mơ hình Với mơ hình client server tạo nhiễu weight bên phía server để mà gửi client khơng bị lộ weight Hình 4.12 Tạo nhiễu cho weight cho server Bằng nhân khóa k với weight ta thu giá trị weight trước sau tạo nhiễu 67 Hình ảnh giá trị weight trước tạo nhiễu sau tạo nhiễu Lúc server bảo đảm tính riêng tư cho mơ hình mà giá trị weight nhân với khóa k, client khơng thể biết mơ hình mà server dùng để dự đốn giá trị input Bên phía client cần tạo nhiễu cho input cách nhân với véc tơ sau gửi server Hình 4.113 Giá trị đầu vào trước sau làm nhiễu Sau client gửi input phía server Server nhận giá trị XW mã hóa Với X input từ client W weight từ phía server Lúc server tiến hành nhân khóa k nghịch đảo để thu XW thực Đồng thời client đảm bảo tính bí mật cho input mà server input thực client Với thay đổi nhỏ làm nhiễu input từ client server dự đốn xác input mà client gửi 4.4 Thử nghiệm dự đốn mơ hình Áp dụng thuật tốn phần 4.3 vào việc dự đốn đoạn văn có phải spam hay không Trong phần sử dụng streamlit với python để chạy chương trình phân loại thư rác Chúng ta dự đoán với đoạn văn spam đoạn văn không chứa spam để xem kết 68 Hình 4.14 Hình ảnh dự đốn đoạn phân loại thư rác Hình 4.15 Hình ảnh đoạn văn spam 4.5 Kết đánh giá Trong chương tiến hành cài đặt chứng minh tính hiệu DL phát hiểm email spam Đảm bảo tính riêng tư cho mơ hình phát spam trì ổn định accuracy áp dụng thuật tốn mã hóa để đảm bảo tính riêng tư cho mơ hình DL 69 KẾT LUẬN Trong bốn chương đồ án trình bày thể mục tiêu đặt thực đồ án đạt Cụ thể: Chương Đã giới thiệu tổng quan Machine learning, Deep learning, số mạng nơ ron deep learning Chương Nêu ứng dụng DL phát hiểm họa ATTT Chương Đã giới thiệu giải pháp để đảm bảo tính riêng tư cho mơ hình học máy Chương Đã tiến hành cài đặt chứng phương pháp sử dụng DL với mơ hình phát spam sử dụng mã hóa làm nhiễu đầu vào để bảo vệ tính riêng tư cho mơ hình Qua mơ hình đánh giá tính hiệu việc ứng dụng deep learning bảo vệ tính riêng tư mơ hình học máy Dù vậy, cịn số vấn đề liên quan đến xử lí liệu, thiết kế, tối ưu mơ hình 70 TÀI LIỆU THAM KHẢO [1] S Mukkamala, A Sung, A Abraham, Cyber security challenges: Designing efficient intrusion detection systems and antivirus tools, Vemuri, V Rao, Enhancing Computer Security with Smart Technology (Auerbach, 2006) (2005) 125–163 [2] A.L Buczak, E Guven, A survey of data mining and machine learning methods for cyber security intrusion detection, IEEE Communications Surveys & Tutorials 18 (2) (2016) 1153–1176, doi:10.1109/COMST.2015.2494502 [3] P Faruki, A Bharmal, V Laxmi, V Ganmoor, M.S Gaur, M Conti, M Ra-jarajan, Android security: A survey of issues, malware penetration, and de-fenses, IEEE Communications Surveys & Tutorials 17 (2) (2015) 998–1022, doi:10.1109/COMST.2014.2386139 [4] Y Ye, T Li, D Adjeroh, S.S Iyengar, A survey on malware detection using data mining techniques, ACM Computing Surveys (CSUR) 50 (3) (2017) 1–40, doi:10.1145/3073559 [5] D Kwon, H Kim, J Kim, S.C Suh, I Kim, K.J Kim, in: A survey of deep learning-based network anomaly detection, Cluster Computing, 2017, pp 1– 13, doi:10.1007/s10586-017-1117-8 [6] E Aminanto, K Kim, Deep learning in intrusion detection system: An overview, in: Proceedings of the 2016 International Research Conference on Engineering and Technology (2016 IRCET), Higher Education Forum, 2016, pp 5–10 [7] W.S McCulloch, W Pitts, A logical calculus of the ideas immanent in nervous activity, The Bulletin of Mathematical Biophysics (4) (1943) 115–133, doi:10 1007/BF02478259 [8] F Rosenblatt, The perceptron: A probabilistic model for information storage and organization in the brain, Psychological Review 65 (6) (1958) 65–386, doi:10.1037/h0042519 [9] C Van Der Malsburg, Frank rosenblatt: Principles of neurodynamics: Perceptrons and the theory of brain mechanisms, in: Brain Theory, Springer, 1986, pp 245–248, doi:10.1007/978-3-642-70911-1_20 [10] Neural networks, accessed May 2018, (https://cs.stanford.edu/people/ eroberts/courses/soco/projects/neural-networks/History/history1.html) 71 [11] B Widrow, An adaptive “adaline” neuron using chemical memistors, in: Technical Report, 1960 [12] B Widrow, M.E Hoff, Associative storage and retrieval of digital information in networks of adaptive neurons, in: Biological Prototypes and Synthetic Systems, Springer, 1962, p 160, doi:10.1007/978-14684-1716-6_25 [13] C.R Winter, B Widrow, Madaline rule II: A training algorithm for neural networks, in: Proceedings of the 2nd International Conference on Neural Networks, 1988, pp 1–401, doi:10.1109/ICNN.1988.23872 [14] M Minsky, S Papert, in: Perceptrons: An introduction to computational geometry, MIT Press, Cambridge, Mass, 1969 [15] S Dreyfus, The computational solution of optimal control problems with time lag, IEEE Transactions on Automatic Control 18 (4) (1973) 383–385, doi:10 1109/TAC.1973.1100330 [16].Florian Tramèr, Alexey Kurakin, Nicolas Papernot, Ian Goodfellow, Dan Boneh, Patrick McDaniel, “Ensemble Adversarial Training: Attacks and Defenses”, https://arxiv.org/abs/1705.07204, 2020 [17].Taesik Na, Jong Hwan Ko, Saibal Mukhopadhyay, “Cascade Adversarial Machine Learning Regularized with a Unified Embedding”, https://arxiv.org/ abs/1708.02582, 2018 [18].Farzan Farnia, Jesse M Zhang, David Tse, “Generalizable Adversarial Training via Spectral Normalization”, https://arxiv.org/abs/1811.07457, 2018 [19].Matthew Jagielski, Alina Oprea, Battista Biggio, Chang Liu, Cristina Nita-Rotaru, Bo Li, “Manipulating Machine Learning: Poisoning Attacks and Countermeasures for Regression Learning”, https://arxiv.org/abs/1804.00308, 2018 [20].David J Miller, Zhen Xiang, George Kesidis, “Adversarial Learning in Statistical Classification: A Comprehensive Review of Defenses Against Attacks”, https://arxiv.org/abs/1904.06292, 2019 [21] Y Bengio, P Simard, P Frasconi, Learning long-term dependencies with gradient descent is difficult, IEEE Transactions on Neural Networks (2) (1994) 157–166, doi:10.1109/72.279181 72 22] S Hochreiter, Y Bengio, P Frasconi, J Schmidhuber, et al., Gradient flow in recurrent nets: the difficulty of learning long-term dependencies (2001) doi:10.1109/9780470544037.ch14 [23] S Hochreiter, J Schmidhuber, LSTM can solve hard long time lag problems, in: Proceedings of the Advances in Neural Information Processing Systems (NIPS), 1997, pp 473–479 [24] J Weng, N Ahuja, T.S Huang, Cresceptron: A self-organizing neural network which grows adaptively, in: Proceedings of the 1992 International Joint Conference on Neural Networks (IJCNN), 1, IEEE, 1992, pp 576–581, doi:10.1109/ IJCNN.1992.287150 [25] G.E Hinton, S Osindero, Y.-W Teh, A fast learning algorithm for deep belief nets, Neural Computation 18 (7) (2006) 1527–1554, doi:10.1162/neco.2006.18 7.1527 [26] M Abadi, A Agarwal, P Barham, E KullBrevdo, Z Chen, C Citro, G.S Corrado, A Davis, J Dean, M Devin, et al., Tensorflow: Largescale machine learning on heterogeneous distributed systems, arXiv preprint arXiv:1603.04467 (2016) [27] Y Jia, E Shelhamer, J Donahue, S Karayev, J Long, R Girshick, S Guadarrama, T Darrell, Caffe: Convolutional architecture for fast feature embedding, in: Proceedings of the 22nd International Conference on Multimedia, ACM, 2014, pp 675–678 [28] R Al-Rfou, G Alain, A Almahairi, C Angermueller, D Bahdanau, N Ballas, F Bastien, J Bayer, A Belikov, A Belopolsky, et al., Theano: A python framework for fast computation of mathematical expressions, arXiv preprint arXiv:1605.02688 472 (2016) 473 [29] Y LeCun, Y Bengio, G Hinton, Deep learning, Nature 521 (7553) (2015) 436– 444, doi:10.1038/nature14539 [30] R Shokri, V Shmatikov, Privacy-preserving deep learning, in: Proceedings of the 22nd ACM SIGSAC Conference on Computer and Communications Security, ACM, 2015, pp 1310–1321, doi:10.1145/2810103.2813687 [31] W Huang, J.W Stokes, MtNet: A multi-task neural network for dynamic malware classification, in: Detection of Intrusions and Malware, and Vulnerability Assessment, Springer, 2016, pp 399–418, doi:10.1007/978-3-319-40667-1_20 73 [32] Y LeCun, B.E Boser, J.S Denker, D Henderson, R.E Howard, W.E Hubbard, L.D Jackel, Handwritten digit recognition with a backpropagation network, in: Proceedings of the Advances in Neural Information Processing Systems (NIPS), 1990, pp 396–404 [33] Y LeCun, L Bottou, Y Bengio, P Haffner, Gradient-based learning applied to document recognition, Proceedings of the IEEE 86 (11) (1998) 2278–2324 [34] Cs231n convolutional neural network for visual recognition, accessed October 2016, (http://cs231n.github.io/convolutional-networks/) [35] Bộ liệu spam Email: https://www.kaggle.com/venky73/spam-mailsda 74 ... điển với DL Hiện phương pháp PPDL với kỹ thuật bảo vệ quyền riêng tư như: PPDL dựa HE, PPDL dựa MPC an toàn, PPDL dựa quyền riêng tư khác biệt, PPDL dựa vùng bảo mật PPDL dựa kết hợp PPDL dựa kết... PPDL dựa MPC bảo mật .46 Hình 3.5 Cấu trúc PPDL dựa tính tốn hai bên an tồn 47 Hình 3.6 Cấu trúc PPDL dựa quyền riêng tư khác biệt 51 Hình 3.7 Cấu trúc PPDL dựa mã hóa an tồn .52 YHình... Hình 3.1 Các phương pháp bảo vệ tính riêng tư truyền thống 36 Hình 3.2 Các phương pháp PPDL theo kỹ thuật bảo vệ quyền riêng tư 37 Hình 3.3 Cấu trúc PPDL dựa HE 38 Hình 3.4

Ngày đăng: 11/04/2022, 10:56

Nguồn tham khảo

Tài liệu tham khảo Loại Chi tiết
[11] B. Widrow, An adaptive “adaline” neuron using chemical memistors, in: Technical Report, 1960 Sách, tạp chí
Tiêu đề: adaline
[16].Florian Tramèr, Alexey Kurakin, Nicolas Papernot, Ian Goodfellow, Dan Boneh, Patrick McDaniel, “Ensemble Adversarial Training:Attacks and Defenses”, https://arxiv.org/abs/1705.07204, 2020 Sách, tạp chí
Tiêu đề: Ensemble Adversarial Training:Attacks and Defenses
[17].Taesik Na, Jong Hwan Ko, Saibal Mukhopadhyay, “Cascade Adversarial Machine Learning Regularized with a Unified Embedding”, https://arxiv.org/ abs/1708.02582, 2018 Sách, tạp chí
Tiêu đề: CascadeAdversarial Machine Learning Regularized with a UnifiedEmbedding
[18].Farzan Farnia, Jesse M. Zhang, David Tse, “Generalizable AdversarialTraining via Spectral Normalization”,https://arxiv.org/abs/1811.07457, 2018 Sách, tạp chí
Tiêu đề: Generalizable AdversarialTraining via Spectral Normalization
[19].Matthew Jagielski, Alina Oprea, Battista Biggio, Chang Liu, Cristina Nita-Rotaru, Bo Li, “Manipulating Machine Learning: Poisoning Attacks and Countermeasures for Regression Learning”, https://arxiv.org/abs/1804.00308, 2018 Sách, tạp chí
Tiêu đề: Manipulating Machine Learning: PoisoningAttacks and Countermeasures for Regression Learning
[20].David J. Miller, Zhen Xiang, George Kesidis, “Adversarial Learning in Statistical Classification: A Comprehensive Review of Defenses Against Attacks”, https://arxiv.org/abs/1904.06292, 2019 Sách, tạp chí
Tiêu đề: Adversarial Learningin Statistical Classification: A Comprehensive Review of DefensesAgainst Attacks
[10] Neural networks, accessed May 2018, (https://cs.stanford.edu/people/eroberts/courses/soco/projects/neural-networks/History/history1.html) Link
[34] Cs231n convolutional neural network for visual recognition, accessed October 2016, (http://cs231n.github.io/convolutional-networks/) Link
[1] S. Mukkamala, A. Sung, A. Abraham, Cyber security challenges:Designing efficient intrusion detection systems and antivirus tools, Vemuri, V. Rao, Enhancing Computer Security with Smart Technology. (Auerbach, 2006) (2005) 125–163 Khác
[2] A.L. Buczak, E. Guven, A survey of data mining and machine learning methods for cyber security intrusion detection, IEEE Communications Surveys & Tutorials 18 (2) (2016) 1153–1176, doi:10.1109/COMST.2015.2494502 Khác
[3] P. Faruki, A. Bharmal, V. Laxmi, V. Ganmoor, M.S. Gaur, M. Conti, M.Ra-jarajan, Android security: A survey of issues, malware penetration, and de-fenses, IEEE Communications Surveys & Tutorials 17 (2) (2015) 998–1022, doi:10.1109/COMST.2014.2386139 Khác
[4] Y. Ye, T. Li, D. Adjeroh, S.S. Iyengar, A survey on malware detection using data mining techniques, ACM Computing Surveys (CSUR) 50 (3) (2017) 1–40, doi:10.1145/3073559 Khác
[5] D. Kwon, H. Kim, J. Kim, S.C. Suh, I. Kim, K.J. Kim, in: A survey of deep learning-based network anomaly detection, Cluster Computing, 2017, pp. 1– 13, doi:10.1007/s10586-017-1117-8 Khác
[6] E. Aminanto, K. Kim, Deep learning in intrusion detection system: An overview, in: Proceedings of the 2016 International Research Conference on Engineering and Technology (2016 IRCET), Higher Education Forum, 2016, pp. 5–10 Khác
[7] W.S. McCulloch, W. Pitts, A logical calculus of the ideas immanent in nervous activity, The Bulletin of Mathematical Biophysics 5 (4) (1943) 115–133, doi:10. 1007/BF02478259 Khác
[8] F. Rosenblatt, The perceptron: A probabilistic model for information storage and organization in the brain, Psychological Review 65 (6) (1958) 65–386, doi:10.1037/h0042519 Khác
[9] C. Van Der Malsburg, Frank rosenblatt: Principles of neurodynamics:Perceptrons and the theory of brain mechanisms, in: Brain Theory, Springer, 1986, pp. 245–248, doi:10.1007/978-3-642-70911-1_20 Khác
[12] B. Widrow, M.E. Hoff, Associative storage and retrieval of digital information in networks of adaptive neurons, in: Biological Prototypes and Synthetic Systems, Springer, 1962, p. 160, doi:10.1007/978-1- 4684-1716-6_25 Khác
[13] C.R. Winter, B. Widrow, Madaline rule II: A training algorithm for neural networks, in: Proceedings of the 2nd International Conference on Neural Networks, 1988, pp. 1–401, doi:10.1109/ICNN.1988.23872 Khác
[14] M. Minsky, S. Papert, in: Perceptrons: An introduction to computational geometry, MIT Press, Cambridge, Mass, 1969 Khác

TỪ KHÓA LIÊN QUAN

w