(Luận văn) nghiên cứu phát hiện gian lận trong giao dịch thẻ tín dụng dựa vào học sâu

72 0 0
(Luận văn) nghiên cứu phát hiện gian lận trong giao dịch thẻ tín dụng dựa vào học sâu

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

HỌC VIỆN CƠNG NGHỆ BƯU CHÍNH VIỄN THƠNG - Lưu Thị Thu lu an n va Lưu Thị Thu p ie gh tn to NGHIÊN CỨU PHÁT HIỆN GIAN LẬN TRONG GIAO d va an lu LUẬN VĂN THẠC SĨ KỸ THUẬT u nf (Theo định hướng ứng dụng) ll oi m z at nh HỆ THỐNG THÔNG TIN oa nl w DỊCH THẺ TÍN DỤNG DỰA VÀO HỌC SÂU z HÀ NỘI - NĂM 2021 m co l gm @ HÀ NỘI – NĂM 2021 an Lu n va ac th si HỌC VIỆN CƠNG NGHỆ BƯU CHÍNH VIỄN THÔNG - lu an va n Lưu Thị Thu p ie gh tn to NGHIÊN CỨU PHÁT HIỆN GIAN LẬN TRONG GIAO Chuyên ngành: HỆ THỐNG THÔNG TIN Mã số: 8.48.01.04 d oa nl w DỊCH THẺ TÍN DỤNG DỰA VÀO HỌC SÂU u nf va an lu ll LUẬN VĂN THẠC SĨ KỸ THUẬT (Theo định hướng ứng dụng) oi m z at nh NGƯỜI HƯỚNG DẪN KHOA HỌC : TS NGUYỄN VĂN THỦY z m co l gm @ an Lu HÀ NỘI - NĂM 2021 n va ac th si i LỜI CAM ĐOAN Tôi xin cam đoan đề tài: “Nghiên cứu phát gian lận giao dịch thẻ tín dụng dựa vào học sâu” luận văn thân trực tiếp thực Tất giúp đỡ cho việc xây dựng sở lý luận cho luận trích dẫn đầy đủ ghi rõ nguồn gốc rõ ràng phép cơng bố Tơi xin hồn toàn chịu trách nhiệm trước pháp luật cam kết Hà Nội, ngày tháng 12 năm 2021 lu an T n va Tác giả luận văn gh tn to p ie L d oa nl w Lưu Thị Thu ll u nf va an lu oi m z at nh z m co l gm @ an Lu n va ac th si ii LỜI CẢM ƠN Trong trình học tập, nghiên cứu hoàn thành luận văn này, học viên nhận nhiều động viên, khuyến khích giúp đỡ nhiệt tình Thầy Cơ, anh chị em, bạn bè đồng nghiệp gia đình Trước tiên em xin cảm ơn Ban giám đốc, Khoa sau Đại học – Học Viên Bưu Chính Viễn Thơng giúp đỡ tạo điều kiện tốt cho học viên học tập thời gian qua Học viên xin cảm ơn thầy cô khoa Công Nghệ Thông Tin 1Học viện Bưu Viễn thơng truyền đạt cho tơi kiến thức chuyên sâu lu an chuyên ngành suốt thời gian học tập, để học viên có tảng kiến n va thức hỗ trợ lớn cho học viên trình làm luận văn tn to Học viên muốn bày tỏ biết ơn sâu sắc đến Tiến sĩ Nguyễn Văn Thủy gh với tư cách người trực tiếp hướng dẫn, tận tình bảo giúp đỡ cho học viên p ie suốt trình thực luận văn Học viên củng xin gửi lời cảm ơn chân thành đến tất Thầy Cô trường oa nl w Học Viện Cơng Nghệ Bưu Chính Viễn Thơng giảng dạy dìu dắt chúng em suốt trình học tập Trường giúp Học viên vượt qua giai đoạn khó khăn d an lu tạo điều kiện thuận lợi cho học viên học tập tốt hoàn thành luận văn ll u nf va Xin chân thành cảm ơn tất người! oi m z at nh z m co l gm @ an Lu n va ac th si iii MỤC LỤC LỜI CAM ĐOAN i LỜI CẢM ƠN ii DANH MỤC CÁC THUẬT NGỮ, CHỮ VIẾT TẮT v DANH MỤC CÁC BẢNG vi DANH SÁCH CÁC HÌNH VẼ, BIỂU ĐỒ vii MỞ ĐẦU 1 Lý chọn đề tài Tổng quan vấn đề nghiên cứu lu Mục đích nghiên cứu an Đối tượng phạm vi nghiên cứu va Phương pháp nghiên cứu n 1.1 Khái niệm tượng gian lận (bất thường) 1.1.1 Định nghĩa tượng gian lận p ie gh tn to CHƯƠNG - CƠ SỞ LÝ LUẬN 1.1.2 Phát gian lận (bất thường) nl w 1.2 Giới thiệu ứng dụng AI với ngân hàng hình thức gian lận thẻ tín dụng d oa 1.2.1 Các ứng dụng AI hoạt động ngân hàng lu 1.2.2 Hình thức gian lận thẻ tín dụng va an 1.3 Phân loại kỹ thuật phát bất thường 11 u nf 1.3.1 Phát gian lận học giám sát (Supervised Anomaly Detection) 11 ll 1.3.2 Phát gian lận học bán giám sát (Semi-Supervised Anomaly Detection) m oi 12 z at nh 1.3.3 Phát gian lận học không giám sát (Unsupervised Anomaly Detection) 13 z 1.4 Tổng quan kỹ thuật phát gian lận 15 @ gm 1.4.1 Tìm hiểu phương pháp phát gian lận thẻ tín dụng với tập liệu cân l 16 m co 1.5 Kết luận chương 20 CHƯƠNG - PHƯƠNG PHÁP PHÁT HIỆN GIAN LẬN 21 an Lu TRONG GIAO DỊCH THẺ TÍN DỤNG 21 n va ac th si iv 2.1 Mạng neural nhân tạo 21 2.2 Deep Learning 25 2.3 Autoencoder 26 2.3.1 Định nghĩa mô hình Autoencoder 27 2.3.2 Kiến trúc mạng Autoencoder 29 2.3.3 Phân loại mạng Autoencoder 30 2.3.4 Các ứng dụng mơ hình Autoencoder 33 2.3.5 Xây dựng mơ hình Autoencoder cho tốn cụ thể 36 2.4 Kết luận chương 42 CHƯƠNG - THỰC NGHIỆM VÀ ĐÁNH GIÁ 43 lu an 3.1 Môi trường thực nghiệm 43 n va 3.2 Chuẩn bị liệu 44 3.4 Kết Quả đánh giá mô hình 51 gh tn to 3.3 Tiến hành thực nghiệm 45 3.5 Kết luận chương 58 ie p IV DANH MỤC CÁC TÀI LIỆU THAM KHẢO 60 d oa nl w ll u nf va an lu oi m z at nh z m co l gm @ an Lu n va ac th si v DANH MỤC CÁC THUẬT NGỮ, CHỮ VIẾT TẮT Viết tắt Tiếng Anh Tiếng Việt lu an n va Artificial Neural Network Mạng neural nhân tạo AI Artificial Intelligence Trí Tuệ Nhân Tạo BBN Bayesian Belief Networrks Mạng Bayesian Belief CNN Convolutional Neural Network Mạng neural tích chập DBN Deep Belief Network Mạng niềm tin sâu DNN Deep Neural Network Mạng neural sâu FDS Failure Detection System Hệ thống phát gian lận AML Anti-Money Laundering (AML) Gian lận chống rửa tiền KNN K-Nearest Neighbors K láng giềng gần LMS Least Means Square Thuật tốn bình phương tối thiểu Multilayer-Perceptrons Perceptron đa lớp Recurrent Neural Network Mạng neural tái phát Support Vector Machine Máy vectơ hỗ trợ tn to ANN ie gh MLP p RNN Self-Organizing Map Thuật toán SOM LSTM Long short-term memory Mạng nơ-ron nhớ ngắn hạn GRU Gated Recurrent Units PCA Principal Component Analysis MSE Mse mean squared AUC Area under the curve ROC Receiver SOM d oa nl w SVM lu u nf va an oi m Đường cong AUC operating Đường đặc tính hoạt động máy thu z at nh z Định vị tuyến tính m co l gm @ Rectified linear unit Giảm chiều liệu Error (lỗi bình phương trung bình) ll characteristic curve RELU Mạng nơ-ron đơn vị hồi quy có kiểm sốt an Lu n va ac th si vi DANH MỤC CÁC BẢNG Bảng 3.1 Giá trị hàm mát mơ hình Autoencoder 53 Bảng 3.2 Kết độ xác - Accuracy 55 Bảng 3.3 Tỉ lệ thu hồi MLP Autoencoder ngưỡng FPR = 80% 57 lu an n va p ie gh tn to d oa nl w ll u nf va an lu oi m z at nh z m co l gm @ an Lu n va ac th si vii DANH SÁCH CÁC HÌNH VẼ, BIỂU ĐỒ Hình 1.1 Quy trình phát gian lận giao dịch thẻ tín dụng Hình 1.2 Tập liệu với bất thường Hình 1.3 Sơ đồ trình thực Học bán giám sát 13 Hình 1.4 Minh họa Phân cụm liệu 14 Hình 1.5 Quy trình phát gian lận 15 Hình 1.6 Mơ hình Auto-encoder[14] 16 Hình 1.7 Phương pháp nhân mẫu dương tính 17 Giảm số lượng mẫu âm tính 17 lu Hình 1.8 Phương pháp giảm số lượng mẫu âm tính 18 an Hình 1.9 Phương pháp tạo thêm mẫu dương tính thuật toán 19 va Hình 2.1 Cấu trúc mạng nơ-ron nhân tạo[15] 21 n tn to Hình 2.2 Kiến trúc mạng neural nhân tạo [16] 23 gh Hình 2.3 Mơ hình Perceptron lớp [ 17] 23 p ie Hình 2.4 Mơ hình mạng Multi-Layer Perceptrons [18] 24 Hình 2.5 Các lớp Autoencoder [22] 28 nl w Hình 2.6: Sơ đồ cấu trúc Autoencoder [ 23] 29 d oa Hình 2.7: Kiến trúc mạng LSTM Autoencoder 30 lu Hình 2.8 Kiến trúc mạng Convolutional Autoencoder 32 va an Hình 2.9 Mơ hình đào tạo mạng Autoencoder để khử nhiễu hình ảnh 34 u nf Hình 2.10 Hình ảnh sử dụng Autoencoder để khử nhiễu 34 ll Hình 2.11: Dử dụng Autoencoder để tơ màu hình ảnh 35 m oi Hình 2.12 Tăng độ phân giải hình ảnh với Convolutional Autoencoder 35 z at nh Hình 2.13 Kết mã hóa liệu MNIST PCA Linear Autoencoder 37 Hình 2.14 Ảnh khôi phục sau nén PCA Autoencoder 38 z Hình 2.15: Quy trình huấn luyện phát bất thường 39 @ gm Hình 2.16: Mơ hình Autoencoder[32] 40 l Hình 2.17 Mơ hình Autoencoder đề xuất 41 m co Hình 3.1 Tập liệu 45 Hình 3.2 Lệnh giúp loại bỏ trường không cần thiết 47 an Lu Hình 3.3 Lập trình mạng neural Autoencoder 48 n va ac th si viii Hình 3.4 Mơ-đun huấn luyện mơ hình Autoencoder 49 Hình 3.5 Mơ hình tính tỉ lệ báo động nhầm tỉ lệ thu hồi 51 Hình 3.6: Kết xử lý cho 100 epoch 52 Hình 3.7 Lịch sử huấn luyện mạng Autoencoder 52 Hình 3.8 Biểu đồ ROC, AUC mơ hình MLP Autoencoder 54 Hình 3.9 Phân bố lỗi theo mục Autoencoder 56 Hình 3.10 Kết dự báo mơ hình MLP Autoencoder 57 lu an n va p ie gh tn to d oa nl w ll u nf va an lu oi m z at nh z m co l gm @ an Lu n va ac th si 48 Trong đó, lớp ẩn thứ 14 node, lớp ẩn thứ hai node Sử dụng: - Hàm kích hoạt “tanh” cho phân loại đầu lớp ẩn; hàm “relu” cho phân loại lớp đầu - Hàm tối ưu: Adam (tham số thư viện Keras) learning_rate 0.00001 - Hàm loss: mse - Epochs: 100 (epochs số lần trình huấn luyện học qua tất tập liệu tập huấn luyện) # Xây dựng Model Autoencoder input_dim = X_train.shape[1] lu an encoding_dim = 14 n va input_layer = Input(shape=(input_dim, )) activity_regularizer=regularizers.l1(10e-5))(input_layer) gh tn to encoder = Dense(encoding_dim, activation="tanh", p ie encoder = Dense(int(encoding_dim / 2), activation="relu")(encoder) decoder = Dense(int(encoding_dim / 2), activation='tanh')(encoder) nl w decoder = Dense(input_dim, activation='relu')(decoder) d oa autoencoder = Model(inputs=input_layer, outputs=decoder) an lu Hình 3.3 Lập trình mạng neural Autoencoder Huấn luyện mơ hình va u nf Luận văn sử dụng liệu train làm đầu vào đầu cho mơ hình, sau ll huấn luyện mơ hình 100 chu kỳ huấn luyện với kích thước lơ 32 lưu mơ m oi hình hoạt động tốt vào tệp ModelCheckpoint Keras cung cấp thực z at nh tiện dụng cho cơng việc Ngồi ra, tiến trình đào tạo xuất định dạng mà TensorBoard hiểu z an Lu metrics=['accuracy']) m co loss='mean_squared_error', l autoencoder.compile(optimizer='adam', gm batch_size = 32 @ nb_epoch = 100 n va ac th si 49 checkpointer = ModelCheckpoint(filepath="model.h5", verbose=0, save_best_only=True) tensorboard = TensorBoard(log_dir='/media/old-tf-hackers-7/logs', histogram_freq=0, write_graph=True, write_images=True) history = autoencoder.fit(X_train, X_train, epochs=nb_epoch, lu an batch_size=batch_size, n va shuffle=True, to validation_data=(X_test, X_test), gh tn verbose=1, p ie callbacks=[checkpointer, tensorboard]).history autoencoder = load_model('model.h5') nl w Hình 3.4 Mơ-đun huấn luyện mơ hình Autoencoder d oa ❖ Phương pháp đánh giá: Các tiêu chí sử dụng để đánh giá hiệu va an lu hệ thống phát gian lận: Trong toán này, người ta thường định nghĩa lớp liệu quan trọng u nf ll cần xác định lớp Positive (P-dương tính), lớp cịn lại gọi m oi Negative (N-âm tính) Ta định nghĩa True Positive (TP), False Positive (FP), z at nh True Negative (TN), False Negative (FN) dựa confusion matrix chưa chuẩn hoá sau: z Predicted | Predicted @ | | as Positive | as Negative | l gm | | -| -| m co Actual: Positive | True Positive (TP) | False Negative (FN) | Actual: Negative | False Positive (FP) | True Negative (TN) an Lu | -| -| | n va ac th si 50 | -| -| Người ta thường quan tâm đến TPR, FNR, FPR, TNR (R - Rate) dựa normalized confusion matrix sau: | Predicted | Predicted | | as Positive | as Negative | | | | Actual: Positive | TPR = TP/(TP + FN) | FNR = FN/(TP + FN) | | | | Actual: Negative | FPR = FP/(FP + TN) | TNR = TN/(FP + TN) | lu | | | an n va False Positive Rate gọi False Alarm Rate (tỉ lệ báo động - Accuracy (Độ xác) tỷ lệ số điểm dự đoán tổng số gh tn to nhầm), False Negative Rate gọi Miss Detection Rate (tỉ lệ bỏ sót) điểm tập liệu kiểm thử: p ie A TP  TN TP  FN  FP  TN R ecall  T P R  d oa (TP + FN): nl w - Recall tỷ lệ số điểm true positive số điểm thực positive TP TP  FN lu an TPR: True Positive Rate P  TP oi m TP  FP ll hay bất thường: u nf va - Precision (P) thước đo hệ thống có khả phát bình thường phân lớp có cơng thức sau: F1  z at nh - F1- score harmonic mean Precision Recall, sử dụng để đánh giá 1 z  gm Trong đó: R ecall @ P recision bất thường m co l + True Positives (TP) số lượng bất thường phân loại bình thường an Lu + True Negatives (TN) số lượng bình thường phân loại n va ac th si 51 + False Positives (FP) số lượng bình thường phân loại sai bất thường + False Negatives (FN) số lượng bất thường phân loại sai thành bình thường Các định nghĩa mơ tả Hình 3.5 lu an n va p ie gh tn to d oa nl w ll u nf va an lu oi m Hình 3.5 Mơ hình tính tỉ lệ báo động nhầm tỉ lệ thu hồi Lịch sử huấn luyện mơ hình z Kết thử nghiệm z at nh 3.4 Kết Quả đánh giá mơ hình m co l gm @ an Lu n va ac th si 52 lu an Hình 3.6: Kết xử lý cho 100 epoch va Sau chạy lệnh xong, kết thực nghiệm sau: n - Epoch 100/100: epoch 100 to - accuracy: 0.73 Đây độ xác tập train Có nghĩa mạng đạt p ie gh tn - loss: 0.69 Đây độ lỗi tập train epoch 73% tập train nl w - val_loss: 0.73 Đây độ lỗi tập test epoch d oa - val_accuracy: 0.74 Đây độ xác tập test Có nghĩa mơ hình an lu đạt 74 % tập test ll u nf va - Thời gian huấn luyện xử lý cho epoch trung bình 29s oi m z at nh z m co l gm @ an Lu Hình 3.7 Lịch sử huấn luyện mạng Autoencoder n va ac th si 53 Trước tiên nhìn vào hình 3.7 lịch sử huấn luyện mạng Autoencoder với kích thước khối mã 14 dần hội tụ sau 100 chu kỳ huấn luyện mô hình, sai số tập train test giảm dần mát tập test có xu hướng hội tụ quanh mốc 0.73 Bảng 3.1 Giá trị hàm mát mơ hình Autoencoder Encoding dim 12 14 16 Test Loss 1.001 0.93 0.82 0.76 0.73 0.71 lu Để có đánh giá xác hiệu mơ hình dự đốn, an nhìn vào số diện tích đường cong AUC (Area under the curve) biểu va n đồ ROC (Receiver operating characteristic curve) mô hình hình 3.8 Chỉ tn to số AUC thể tỉ lệ thu hồi mơ hình cách chung ngưỡng khác ie gh thay xét ngưỡng định Như thể biểu đồ thấy p kích thước khối mã 14 16 mơ hình đạt tỉ lệ thu hồi cao n=8 d oa n=2 nl w giảm dần kích thước mã thấp ll u nf va an lu oi m z at nh z n=16 m co l gm @ n=14 an Lu n va ac th si 54 Hình 3.8 Biểu đồ ROC, AUC mơ hình MLP Autoencoder lu • Tính Accuracy mơ hình an Q trình, kiểm thử mơ hình chạy cho lần, cho kết Độ xác va n (Accuracy) sau: p ie gh tn to d oa nl w ll u nf va an lu oi m z at nh z m co l gm @ an Lu n va ac th si 55 Bảng 3.2 Kết độ xác - Accuracy Số lần Accuracy 0.7105 0.7259 0.7404 0.7354 0.7309 Trung bình 0.7286 lu Kết Độ xác trung bình cho lần chạy kiểm thử: Accuracy ≈ an va 0.7286 Tỷ lệ % Độ xác tỷ lệ số lượng bất thường dự đoán n tổng số lượng traffic tập liệu kiểm thử: Accuracy ≈ 72.86% tn to Tỉ lệ báo động nhầm p ie gh Ở ngưỡng báo động nhầm 2.4%, mơ hình với kích thước lớp mã n = 14 đạt tỉ lệ thu hồi cao 81.6%, gấp gần 34 lần tỉ lệ báo động nhầm Tuy nhiên để nl w đạt tỉ lệ thu hồi 83% phải tỉ lệ báo động nhầm lên tới 3.4% Để tìm hiểu d oa nguyên nhân tỉ lệ báo động nhầm cao học viên tiến hành phân tích biểu đồ phân bố an lu lỗi hình 3.9 Trên biểu đồ nhận thấy phần lớn báo động nhầm nằm tập va trung vài khu vực khoanh hình elip biểu đồ Qua phân tích chi tiết, ll u nf mẫu khu vực thuộc chu kỳ hoạt động, oi m tượng báo động nhầm liên tiếp ngắt hệ thống xảy lỗi dây chuyền z at nh bảo dưỡng Khoảng thời gian từ lúc bắt đầu báo động đến lúc bảo dưỡng kéo dài tiếng, gây nên nhiều mẫu báo động nhầm z m co l gm @ an Lu n va ac th si 56 lu an Hình 3.9 Phân bố lỗi theo mục Autoencoder va n *Reconstruction error: Giá trị lỗi liệu tái tạo đầu so với tn to liệu gốc đầu vào Để đánh giá xác tính hiệu việc dự báo mơ hình MLP p ie gh Tỷ lệ thu hồi Autoencoder kiểm tra ma trận Confusion hình 3.10 với ngưỡng báo động w oa nl nhầm mức 3.4% Từ kết đạt sau thử nghiệm với kích thước mã biến d đổi từ đến 16 (bảng 3.2), tơi nhận thấy với kích thước lớp mã 14 mơ hình lu an có khả dự đốn tốt nhất, thu hồi cao ngưỡng báo động nhầm nhỏ ll động nhầm cao 3.4% u nf va 2.4% kích thước mã có khả thu hồi cao ngưỡng báo oi m Với kích thước mã mơ hình có khả thu hồi tương đối tốt z at nh báo động nhầm lại cao nhất, thu hồi cao gấp 24 lần báo động nhầm, kích thước mã tăng dần lên 8, 14,16 tỉ lệ thu hồi có xu hướng giảm dần, khơng z xác mơ hình có kích thước mã Nhưng tỉ lệ thu hồi báo @ gm động nhầm tăng lên Cụ thể mã 14 tỉ lệ thu hồi đạt 81.6% mã 16 m co l tỉ lệ thu hồi lại giảm 79.6% tỉ lệ báo động nhầm giảm 1% 2,4% (với n=14) 2.16% (với n=16) tỉ lệ thu hồi báo động nhầm tăng lên an Lu 34 lần (với n=14), 36.9 lần (với n=16) Điều chứng tỏ mô hình Autoencoder kích thước mã nhỏ khuyến khích mạng học đặc điểm khái n va ac th si 57 quát hiệu liệu, kích thước mã cao dẫn tới việc giải mã đầu giống với đầu vào đồng thời mạng học nhiễu, giảm tỉ lệ dự đốn mơ hình Bảng 3.3 Tỉ lệ thu hồi MLP Autoencoder ngưỡng FPR = 80% Encoding dim Tỉ lệ thu hồi 14 16 83.7 82.39 80.6 81.6 79.6 lu n=2 n=8 an n va p ie gh tn to d oa nl w lu n=16 ll u nf va an n=14 oi m z at nh z m co l gm @ an Lu Hình 3.10 Kết dự báo mơ hình MLP Autoencoder n va ac th si 58 *Confusion matrix (ma trận hỗn loạn, ma trận nhầm lẫn): ma trận trực quan hóa hiệu suất dự đốn, thống kê số lượng lớp thực tế lớp dự đoán 3.5 Kết luận chương Trong chương này, kết cài đặt thử nghiệm Deep Learning sử dụng mơ hình Autoencoder tập liệu thử nghiệm Kaggle cho thấy độ xác hiệu mơ hình cao Do đó, ứng dụng kỹ thuật Deeep Learning vào phát gian lận thẻ tín dụng thời đại số luận văn hướng nghiên cứu để thử nghiệp áp dụng phù hợp lu an n va p ie gh tn to d oa nl w ll u nf va an lu oi m z at nh z m co l gm @ an Lu n va ac th si 59 KẾT LUẬN Luận văn nghiên cứu mơ hình mạng neural, cụ thể ứng dụng mơ hình huấn luyện Autoencoder vào toán phát gian lận giao dịch thẻ tín dụng kết phân lớp giao dịch Tuy kết mơ hình đạt độ xác khoảng 73% giải tốn tập liệu cân Đánh giá hiệu suất mơ hình tập liệu thử nghiệm Kaggle Mơ hình Autoencoder xây dựng nghiên cứu cải tiến hiệu chỉnh cho kết khả quan, áp dụng vào hệ thống thực tế Phương pháp Deep Learning xây dựng mơ hình học tính dựa kỹ thuật Autoencoder học lu tốt tính cải thiện độ xác phát gian lận thẻ tín dụng an va Hướng phát triển luận văn n Trong tương lai, luận văn tiếp tục nghiên cứu thử nghiệm cải gh tn to tiến để giảm thời gian huấn luyện có hiệu quả, độ xác tốt hơn, tăng khả Xem xét tới việc cập nhật tập liệu thời gian huấn luyện lại mô p ie thu hồi, giảm khả báo động nhầm thu thập tập liệu khác để đánh giá nl w hình, mức độ thay đổi tham số Có thể nghiên cứu đánh giá để triển khai d oa thực tế, vừa đảm bảo độ xác vừa đảm bảo thời gian thực ll u nf va an lu oi m z at nh z m co l gm @ an Lu n va ac th si 60 IV DANH MỤC CÁC TÀI LIỆU THAM KHẢO [1] https://worldpaymentsreport.com/resources/world-payments-report-2020/ [2] The Nilson Report (2017) [Online] Available: https://nilsonreport com/upload/content_promo/The_Nilson_ Report_Issue_1118.pdf [3] The Nilson Report, “Global Card Fraud Losses Reach $16.31 Billion-Will Exceed $35 Billion in 2020 Accordin g to The Nilson Report”, August, 2015 [Online] Available: https://www.businesswire.com/news/home/20 150804007054/en/Global-CardFraud-LossesReach-16.31-Billion [Accessed Dec 2019] [4] Jon TS Quah and M Sriganesh Real-time credit card fraud detection lu an using computational Intelligence Expert Systems with Applications, 35(4):1721– n va 1732, 2008 https://doi.org/10.1016/j.eswa.2007.08.093 tn to [5] Tej Paul Bhatla, Vikram Prabhu, and Amit Dua Understanding credit [6] Maes, S., Tuyls, K., Vanschoenwinkel, B., & Manderick, B (2002) Credit p ie gh card frauds Cards business review, 1(6), 2003 w Card Fraud Detection Using Bayesian and Neural Networks Brussel, Belgium oa nl [7] Sahin, Y., & Duman, E (2011) Detecting Credit Card Fraud by Decision Trees and Support Vector Machines Hong Kong, China: The International d an lu MultiConference of Engineers and Computer Scientists u nf va [8] Ehramikar, S (2000) The Enhancement of Credit Card Fraud Detection Systems Toronto, Canada: Master of Applied Science Thesis, University of ll oi m Toronto V Vapnik Statistical Learning Theory Wiley, New York, 1998 z at nh [9] Zaki, M., & Meira, W (2014) Data Mining and Analysis: Fundamental Concepts and Algorithms New York City, New York: Cambridge University Press z https://doi.org/10.1017/CBO9780511810114 @ gm [10] A Niimi, “Deep learning for credit card data analysis,” in World m co 50/6 $31.00 l Congrss on Internet Security (WorldCIS-2015), 2015 © IEEE doi: 9781-908320- [11] Varun Chandola, Arindam Banerjee, and Vipin Kumar Anomaly an Lu detection: A survey ACM Comput Surv., 41(3):15:1–15:58, July 2009 n va ac th si 61 [12] Wang, Ke (2011), “Anomalous Payload-Based Network Intrusion Detection” (PDF), Recent Advances in Intrusion Detection, pp 04-22 [13]https://www.mcafee.com/enterprise/en-us/assets/executivesummaries/es-economic-impact-cybercrime.pdf [14] Introduction Auto-encoder (2015, Dec 21) Auto-encoder [Online] Available: https://wikidocs.net/3413 [15] Cấu trúc mạng neural – nhiethuyettre.net [16] Neural Network - https://cs231n.github.io/ [17] Perceptron lớp - https://www.slideshare.net/ lu an [18] https://computersciencewiki.org n va [19] Bengio, Yoshua "Learning Deep Architectures for AI" Foundations [20] Yann LeCun, Yoshua Bengio3 & Geoffrey Hinton, “Deep learning”, gh tn to and Trends in Machine Learning: Vol 2: No 1, pp 1– 127, (2009) [21] G E Hinton, R R Salakhutdinov, “Reducing the dimensionality of p ie doi:10.1038/nature14539 nl w data with neural network Science”, Science 28 Jul 2006: Vol 313, Issue 5786, pp d oa 504-507, DOI: 10.1126/science.1127647 an lu [22] http://ufldl.stanford.edu u nf 30821674440600 va [23]https://ichi.pro/vi/hoc-sau-ung-dung-phan-3-ma-tu-dong- ll [24] Arpit Devansh, Zhou Yingbo, Ngo Hung, Govindaraju Venu, 2015, m oi Why Regularized Auto-Encoders learn Sparse Representation?, arXiv:1505.05561 z at nh [25] Salakhutdinov Ruslan, Hinton Geoffrey, 2009, Semantic hashing, International Journal of Approximate Reasoning Special Section on z gm @ Graphical Models and Information Retrieval [26] Cho K., 2013, Simple sparsification improves sparse denoising l Machine Learning m co autoencoders in denoising highly corrupted images, In International Conference on an Lu n va ac th si 62 [27] [11-23] Zeng Kun, Yu Jun, Wang Ruxin, Li Cuihua, Tao Dacheng, 2017, Coupled Deep Autoencoder for Single Image Super-Resolution, IEEE Transactions on Cybernetics [28] Gondara Lovedeep, 2016, Medical Image Denoising Using Convolutional Denoising Autoencoders, 2016 IEEE 16th International Conference on Data Mining Workshops.71 [29] Tzu-Hsi Song, Sanchez Victor, Hesham,EIDaly, Nasir Rajpoot M., 2017, Hybrid deep autoencoder with Curvature Gaussian for detection of various types of cells in bone marrow trephine biopsy images, 2017 IEEE 4th lu an International Symposium on Biomedical Imaging n va [30] Xu Jun, Xiang Lei, Liu Qingshan, Gilmore Hannah, Wu Jianzhong, Nuclei Detection on Breast Cancer Histopathology Images, IEEE Transactions on gh tn to Tang Jinghai, Madabhushi Anant, 2016, Stacked Sparse Autoencoder (SSAE) for p ie Medical Imaging [31] Martinez-Murcia Francisco J., Ortiz Andres, Gorriz Juan M., Ramirez nl w Javier, Castillo-Barnes Diego, 2020, Studying the Manifold Structure of Disease: A Deep Learning Approach Using Convolutional d oa Alzheimer's an lu Autoencoders, IEEE Journal of Biomedical and Health Informatics va [32] https://www.google.com.sciencedirect.com u nf [33] Credit card fraud detection anonymized credit card transaction labeled ll as fraudulent or genuine [Online] Available: https://www.kaggle.com/mlg- oi m ulb/creditcardfraud z at nh z m co l gm @ an Lu n va ac th si

Ngày đăng: 12/07/2023, 17:27

Tài liệu cùng người dùng

  • Đang cập nhật ...

Tài liệu liên quan