HỌC VIỆN CƠNG NGHỆ BƯU CHÍNH VIỄN THƠNG - Lưu Thị Thu Lưu Thị Thu NGHIÊN CỨU PHÁT HIỆN GIAN LẬN TRONG GIAO DỊCH THẺ TÍN DỤNG DỰA VÀO HỌC SÂU HỆ THỐNG THÔNG TIN HÀ NỘI – NĂM 2021 LUẬN VĂN THẠC SĨ KỸ THUẬT (Theo định hướng ứng dụng) HÀ NỘI - NĂM 2021 HỌC VIỆN CÔNG NGHỆ BƯU CHÍNH VIỄN THƠNG - Lưu Thị Thu NGHIÊN CỨU PHÁT HIỆN GIAN LẬN TRONG GIAO DỊCH THẺ TÍN DỤNG DỰA VÀO HỌC SÂU Chuyên ngành: HỆ THỐNG THÔNG TIN Mã số: 8.48.01.04 LUẬN VĂN THẠC SĨ KỸ THUẬT (Theo định hướng ứng dụng) NGƯỜI HƯỚNG DẪN KHOA HỌC : TS NGUYỄN VĂN THỦY HÀ NỘI - NĂM 2021 i LỜI CAM ĐOAN Tôi xin cam đoan đề tài: “Nghiên cứu phát gian lận giao dịch thẻ tín dụng dựa vào học sâu” luận văn thân trực tiếp thực Tất giúp đỡ cho việc xây dựng sở lý luận cho luận trích dẫn đầy đủ ghi rõ nguồn gốc rõ ràng phép công bố Tôi xin hoàn toàn chịu trách nhiệm trước pháp luật cam kết Hà Nội, ngày tháng 12 năm 2021 T Tác giả luận văn L Lưu Thị Thu ii LỜI CẢM ƠN Trong trình học tập, nghiên cứu hoàn thành luận văn này, học viên nhận nhiều động viên, khuyến khích giúp đỡ nhiệt tình Thầy Cơ, anh chị em, bạn bè đồng nghiệp gia đình Trước tiên em xin cảm ơn Ban giám đốc, Khoa sau Đại học – Học Viên Bưu Chính Viễn Thơng giúp đỡ tạo điều kiện tốt cho học viên học tập thời gian qua Học viên xin cảm ơn thầy cô khoa Công Nghệ Thông Tin 1Học viện Bưu Viễn thơng truyền đạt cho kiến thức chuyên sâu chuyên ngành suốt thời gian học tập, để học viên có tảng kiến thức hỗ trợ lớn cho học viên trình làm luận văn Học viên muốn bày tỏ biết ơn sâu sắc đến Tiến sĩ Nguyễn Văn Thủy với tư cách người trực tiếp hướng dẫn, tận tình bảo giúp đỡ cho học viên suốt trình thực luận văn Học viên củng xin gửi lời cảm ơn chân thành đến tất Thầy Cơ trường Học Viện Cơng Nghệ Bưu Chính Viễn Thơng giảng dạy dìu dắt chúng em suốt trình học tập Trường giúp Học viên vượt qua giai đoạn khó khăn tạo điều kiện thuận lợi cho học viên học tập tốt hoàn thành luận văn Xin chân thành cảm ơn tất người! iii MỤC LỤC LỜI CAM ĐOAN i LỜI CẢM ƠN ii DANH MỤC CÁC THUẬT NGỮ, CHỮ VIẾT TẮT v DANH MỤC CÁC BẢNG vi DANH SÁCH CÁC HÌNH VẼ, BIỂU ĐỒ vii MỞ ĐẦU 1 Lý chọn đề tài Tổng quan vấn đề nghiên cứu Mục đích nghiên cứu 4 Đối tượng phạm vi nghiên cứu Phương pháp nghiên cứu CHƯƠNG - CƠ SỞ LÝ LUẬN 1.1 Khái niệm tượng gian lận (bất thường) 1.1.1 Định nghĩa tượng gian lận 1.1.2 Phát gian lận (bất thường) 1.2 Giới thiệu ứng dụng AI với ngân hàng hình thức gian lận thẻ tín dụng 1.2.1 Các ứng dụng AI hoạt động ngân hàng 1.2.2 Hình thức gian lận thẻ tín dụng 1.3 Phân loại kỹ thuật phát bất thường 11 1.3.1 Phát gian lận học giám sát (Supervised Anomaly Detection) 11 1.3.2 Phát gian lận học bán giám sát (Semi-Supervised Anomaly Detection) 12 1.3.3 Phát gian lận học không giám sát (Unsupervised Anomaly Detection) 13 1.4 Tổng quan kỹ thuật phát gian lận 15 1.4.1 Tìm hiểu phương pháp phát gian lận thẻ tín dụng với tập liệu cân 16 1.5 Kết luận chương 20 CHƯƠNG - PHƯƠNG PHÁP PHÁT HIỆN GIAN LẬN 21 TRONG GIAO DỊCH THẺ TÍN DỤNG 21 iv 2.1 Mạng neural nhân tạo 21 2.2 Deep Learning 25 2.3 Autoencoder 26 2.3.1 Định nghĩa mơ hình Autoencoder 27 2.3.2 Kiến trúc mạng Autoencoder 29 2.3.3 Phân loại mạng Autoencoder 30 2.3.4 Các ứng dụng mơ hình Autoencoder 33 2.3.5 Xây dựng mơ hình Autoencoder cho toán cụ thể 36 2.4 Kết luận chương 42 CHƯƠNG - THỰC NGHIỆM VÀ ĐÁNH GIÁ 43 3.1 Môi trường thực nghiệm 43 3.2 Chuẩn bị liệu 44 3.3 Tiến hành thực nghiệm 45 3.4 Kết Quả đánh giá mơ hình 51 3.5 Kết luận chương 58 IV DANH MỤC CÁC TÀI LIỆU THAM KHẢO 60 v DANH MỤC CÁC THUẬT NGỮ, CHỮ VIẾT TẮT Viết tắt Tiếng Anh Tiếng Việt ANN Artificial Neural Network Mạng neural nhân tạo AI Artificial Intelligence Trí Tuệ Nhân Tạo BBN Bayesian Belief Networrks Mạng Bayesian Belief CNN Convolutional Neural Network Mạng neural tích chập DBN Deep Belief Network Mạng niềm tin sâu DNN Deep Neural Network Mạng neural sâu FDS Failure Detection System Hệ thống phát gian lận AML Anti-Money Laundering (AML) Gian lận chống rửa tiền KNN K-Nearest Neighbors K láng giềng gần LMS Least Means Square Thuật tốn bình phương tối thiểu MLP Multilayer-Perceptrons Perceptron đa lớp RNN Recurrent Neural Network Mạng neural tái phát SVM Support Vector Machine Máy vectơ hỗ trợ SOM Self-Organizing Map Thuật toán SOM LSTM Long short-term memory Mạng nơ-ron nhớ ngắn hạn GRU Gated Recurrent Units Mạng nơ-ron đơn vị hồi quy có kiểm sốt PCA Principal Component Analysis Giảm chiều liệu MSE Mse mean squared Error (lỗi bình phương trung bình) AUC Area under the curve Đường cong AUC ROC Receiver operating Đường đặc tính hoạt động máy thu characteristic curve RELU Rectified linear unit Định vị tuyến tính vi DANH MỤC CÁC BẢNG Bảng 3.1 Giá trị hàm mát mơ hình Autoencoder 53 Bảng 3.2 Kết độ xác - Accuracy 55 Bảng 3.3 Tỉ lệ thu hồi MLP Autoencoder ngưỡng FPR = 80% 57 vii DANH SÁCH CÁC HÌNH VẼ, BIỂU ĐỒ Hình 1.1 Quy trình phát gian lận giao dịch thẻ tín dụng Hình 1.2 Tập liệu với bất thường Hình 1.3 Sơ đồ trình thực Học bán giám sát 13 Hình 1.4 Minh họa Phân cụm liệu 14 Hình 1.5 Quy trình phát gian lận 15 Hình 1.6 Mơ hình Auto-encoder[14] 16 Hình 1.7 Phương pháp nhân mẫu dương tính 17 Giảm số lượng mẫu âm tính 17 Hình 1.8 Phương pháp giảm số lượng mẫu âm tính 18 Hình 1.9 Phương pháp tạo thêm mẫu dương tính thuật tốn 19 Hình 2.1 Cấu trúc mạng nơ-ron nhân tạo[15] 21 Hình 2.2 Kiến trúc mạng neural nhân tạo [16] 23 Hình 2.3 Mơ hình Perceptron lớp [ 17] 23 Hình 2.4 Mơ hình mạng Multi-Layer Perceptrons [18] 24 Hình 2.5 Các lớp Autoencoder [22] 28 Hình 2.6: Sơ đồ cấu trúc Autoencoder [ 23] 29 Hình 2.7: Kiến trúc mạng LSTM Autoencoder 30 Hình 2.8 Kiến trúc mạng Convolutional Autoencoder 32 Hình 2.9 Mơ hình đào tạo mạng Autoencoder để khử nhiễu hình ảnh 34 Hình 2.10 Hình ảnh sử dụng Autoencoder để khử nhiễu 34 Hình 2.11: Dử dụng Autoencoder để tơ màu hình ảnh 35 Hình 2.12 Tăng độ phân giải hình ảnh với Convolutional Autoencoder 35 Hình 2.13 Kết mã hóa liệu MNIST PCA Linear Autoencoder 37 Hình 2.14 Ảnh khơi phục sau nén PCA Autoencoder 38 Hình 2.15: Quy trình huấn luyện phát bất thường 39 Hình 2.16: Mơ hình Autoencoder[32] 40 Hình 2.17 Mơ hình Autoencoder đề xuất 41 Hình 3.1 Tập liệu 45 Hình 3.2 Lệnh giúp loại bỏ trường không cần thiết 47 Hình 3.3 Lập trình mạng neural Autoencoder 48 viii Hình 3.4 Mơ-đun huấn luyện mơ hình Autoencoder 49 Hình 3.5 Mơ hình tính tỉ lệ báo động nhầm tỉ lệ thu hồi 51 Hình 3.6: Kết xử lý cho 100 epoch 52 Hình 3.7 Lịch sử huấn luyện mạng Autoencoder 52 Hình 3.8 Biểu đồ ROC, AUC mơ hình MLP Autoencoder 54 Hình 3.9 Phân bố lỗi theo mục Autoencoder 56 Hình 3.10 Kết dự báo mơ hình MLP Autoencoder 57 48 Trong đó, lớp ẩn thứ 14 node, lớp ẩn thứ hai node Sử dụng: - Hàm kích hoạt “tanh” cho phân loại đầu lớp ẩn; hàm “relu” cho phân loại lớp đầu - Hàm tối ưu: Adam (tham số thư viện Keras) learning_rate 0.00001 - Hàm loss: mse - Epochs: 100 (epochs số lần trình huấn luyện học qua tất tập liệu tập huấn luyện) # Xây dựng Model Autoencoder input_dim = X_train.shape[1] encoding_dim = 14 input_layer = Input(shape=(input_dim, )) encoder = Dense(encoding_dim, activation="tanh", activity_regularizer=regularizers.l1(10e-5))(input_layer) encoder = Dense(int(encoding_dim / 2), activation="relu")(encoder) decoder = Dense(int(encoding_dim / 2), activation='tanh')(encoder) decoder = Dense(input_dim, activation='relu')(decoder) autoencoder = Model(inputs=input_layer, outputs=decoder) Hình 3.3 Lập trình mạng neural Autoencoder Huấn luyện mơ hình Luận văn sử dụng liệu train làm đầu vào đầu cho mơ hình, sau huấn luyện mơ hình 100 chu kỳ huấn luyện với kích thước lơ 32 lưu mơ hình hoạt động tốt vào tệp ModelCheckpoint Keras cung cấp thực tiện dụng cho công việc Ngồi ra, tiến trình đào tạo xuất định dạng mà TensorBoard hiểu nb_epoch = 100 batch_size = 32 autoencoder.compile(optimizer='adam', loss='mean_squared_error', metrics=['accuracy']) 49 checkpointer = ModelCheckpoint(filepath="model.h5", verbose=0, save_best_only=True) tensorboard = TensorBoard(log_dir='/media/old-tf-hackers-7/logs', histogram_freq=0, write_graph=True, write_images=True) history = autoencoder.fit(X_train, X_train, epochs=nb_epoch, batch_size=batch_size, shuffle=True, validation_data=(X_test, X_test), verbose=1, callbacks=[checkpointer, tensorboard]).history autoencoder = load_model('model.h5') Hình 3.4 Mơ-đun huấn luyện mơ hình Autoencoder ❖ Phương pháp đánh giá: Các tiêu chí sử dụng để đánh giá hiệu hệ thống phát gian lận: Trong toán này, người ta thường định nghĩa lớp liệu quan trọng cần xác định lớp Positive (P-dương tính), lớp cịn lại gọi Negative (N-âm tính) Ta định nghĩa True Positive (TP), False Positive (FP), True Negative (TN), False Negative (FN) dựa confusion matrix chưa chuẩn hoá sau: | Predicted | Predicted | | as Positive | as Negative | | -| -| Actual: Positive | True Positive (TP) | False Negative (FN) | | -| -| Actual: Negative | False Positive (FP) | True Negative (TN) | 50 | -| -| Người ta thường quan tâm đến TPR, FNR, FPR, TNR (R - Rate) dựa normalized confusion matrix sau: | Predicted | Predicted | | as Positive | as Negative | | | | Actual: Positive | TPR = TP/(TP + FN) | FNR = FN/(TP + FN) | | | | Actual: Negative | FPR = FP/(FP + TN) | TNR = TN/(FP + TN) | | | | False Positive Rate gọi False Alarm Rate (tỉ lệ báo động nhầm), False Negative Rate gọi Miss Detection Rate (tỉ lệ bỏ sót) - Accuracy (Độ xác) tỷ lệ số điểm dự đoán tổng số điểm tập liệu kiểm thử: A TP TN TP FN FP TN - Recall tỷ lệ số điểm true positive số điểm thực positive (TP + FN): R ecall T P R TP TP FN TPR: True Positive Rate - Precision (P) thước đo hệ thống có khả phát bình thường hay bất thường: P TP TP FP - F1- score harmonic mean Precision Recall, sử dụng để đánh giá phân lớp có cơng thức sau: F1 1 P recision R ecall Trong đó: + True Positives (TP) số lượng bất thường phân loại bất thường + True Negatives (TN) số lượng bình thường phân loại bình thường 51 + False Positives (FP) số lượng bình thường phân loại sai bất thường + False Negatives (FN) số lượng bất thường phân loại sai thành bình thường Các định nghĩa mơ tả Hình 3.5 Hình 3.5 Mơ hình tính tỉ lệ báo động nhầm tỉ lệ thu hồi 3.4 Kết Quả đánh giá mơ hình Lịch sử huấn luyện mơ hình Kết thử nghiệm 52 Hình 3.6: Kết xử lý cho 100 epoch Sau chạy lệnh xong, kết thực nghiệm sau: - Epoch 100/100: epoch 100 - loss: 0.69 Đây độ lỗi tập train epoch - accuracy: 0.73 Đây độ xác tập train Có nghĩa mạng đạt 73% tập train - val_loss: 0.73 Đây độ lỗi tập test epoch - val_accuracy: 0.74 Đây độ xác tập test Có nghĩa mơ hình đạt 74 % tập test - Thời gian huấn luyện xử lý cho epoch trung bình 29s Hình 3.7 Lịch sử huấn luyện mạng Autoencoder 53 Trước tiên nhìn vào hình 3.7 lịch sử huấn luyện mạng Autoencoder với kích thước khối mã 14 dần hội tụ sau 100 chu kỳ huấn luyện mơ hình, sai số tập train test giảm dần mát tập test có xu hướng hội tụ quanh mốc 0.73 Bảng 3.1 Giá trị hàm mát mơ hình Autoencoder Encoding dim 12 14 16 Test Loss 1.001 0.93 0.82 0.76 0.73 0.71 Để có đánh giá xác hiệu mơ hình dự đốn, nhìn vào số diện tích đường cong AUC (Area under the curve) biểu đồ ROC (Receiver operating characteristic curve) mơ hình hình 3.8 Chỉ số AUC thể tỉ lệ thu hồi mơ hình cách chung ngưỡng khác thay xét ngưỡng định Như thể biểu đồ thấy kích thước khối mã 14 16 mơ hình đạt tỉ lệ thu hồi cao giảm dần kích thước mã thấp n=2 n=8 n=14 n=16 54 Hình 3.8 Biểu đồ ROC, AUC mơ hình MLP Autoencoder • Tính Accuracy mơ hình Q trình, kiểm thử mơ hình chạy cho lần, cho kết Độ xác (Accuracy) sau: 55 Bảng 3.2 Kết độ xác - Accuracy Số lần Accuracy 0.7105 0.7259 0.7404 0.7354 0.7309 Trung bình 0.7286 Kết Độ xác trung bình cho lần chạy kiểm thử: Accuracy ≈ 0.7286 Tỷ lệ % Độ xác tỷ lệ số lượng bất thường dự đoán tổng số lượng traffic tập liệu kiểm thử: Accuracy ≈ 72.86% Tỉ lệ báo động nhầm Ở ngưỡng báo động nhầm 2.4%, mơ hình với kích thước lớp mã n = 14 đạt tỉ lệ thu hồi cao 81.6%, gấp gần 34 lần tỉ lệ báo động nhầm Tuy nhiên để đạt tỉ lệ thu hồi 83% phải tỉ lệ báo động nhầm lên tới 3.4% Để tìm hiểu nguyên nhân tỉ lệ báo động nhầm cao học viên tiến hành phân tích biểu đồ phân bố lỗi hình 3.9 Trên biểu đồ nhận thấy phần lớn báo động nhầm nằm tập trung vài khu vực khoanh hình elip biểu đồ Qua phân tích chi tiết, mẫu khu vực thuộc chu kỳ hoạt động, tượng báo động nhầm liên tiếp ngắt hệ thống xảy lỗi dây chuyền bảo dưỡng Khoảng thời gian từ lúc bắt đầu báo động đến lúc bảo dưỡng kéo dài tiếng, gây nên nhiều mẫu báo động nhầm 56 Hình 3.9 Phân bố lỗi theo mục Autoencoder *Reconstruction error: Giá trị lỗi liệu tái tạo đầu so với liệu gốc đầu vào Tỷ lệ thu hồi Để đánh giá xác tính hiệu việc dự báo mơ hình MLP Autoencoder kiểm tra ma trận Confusion hình 3.10 với ngưỡng báo động nhầm mức 3.4% Từ kết đạt sau thử nghiệm với kích thước mã biến đổi từ đến 16 (bảng 3.2), nhận thấy với kích thước lớp mã 14 mơ hình có khả dự đoán tốt nhất, thu hồi cao ngưỡng báo động nhầm nhỏ 2.4% kích thước mã có khả thu hồi cao ngưỡng báo động nhầm cao 3.4% Với kích thước mã mơ hình có khả thu hồi tương đối tốt báo động nhầm lại cao nhất, thu hồi cao gấp 24 lần báo động nhầm, kích thước mã tăng dần lên 8, 14,16 tỉ lệ thu hồi có xu hướng giảm dần, khơng xác mơ hình có kích thước mã Nhưng tỉ lệ thu hồi báo động nhầm tăng lên Cụ thể mã 14 tỉ lệ thu hồi đạt 81.6% mã 16 tỉ lệ thu hồi lại giảm 79.6% tỉ lệ báo động nhầm giảm 1% 2,4% (với n=14) 2.16% (với n=16) tỉ lệ thu hồi báo động nhầm tăng lên 34 lần (với n=14), 36.9 lần (với n=16) Điều chứng tỏ mơ hình Autoencoder kích thước mã nhỏ khuyến khích mạng học đặc điểm khái 57 quát hiệu liệu, kích thước mã cao dẫn tới việc giải mã đầu giống với đầu vào đồng thời mạng học nhiễu, giảm tỉ lệ dự đốn mơ hình Bảng 3.3 Tỉ lệ thu hồi MLP Autoencoder ngưỡng FPR = 80% Encoding dim Tỉ lệ thu hồi n=2 n=14 14 16 83.7 82.39 80.6 81.6 79.6 n=8 n=16 Hình 3.10 Kết dự báo mơ hình MLP Autoencoder 58 *Confusion matrix (ma trận hỗn loạn, ma trận nhầm lẫn): ma trận trực quan hóa hiệu suất dự đốn, thống kê số lượng lớp thực tế lớp dự đoán 3.5 Kết luận chương Trong chương này, kết cài đặt thử nghiệm Deep Learning sử dụng mơ hình Autoencoder tập liệu thử nghiệm Kaggle cho thấy độ xác hiệu mơ hình cao Do đó, ứng dụng kỹ thuật Deeep Learning vào phát gian lận thẻ tín dụng thời đại số luận văn hướng nghiên cứu để thử nghiệp áp dụng phù hợp 59 KẾT LUẬN Luận văn nghiên cứu mơ hình mạng neural, cụ thể ứng dụng mơ hình huấn luyện Autoencoder vào tốn phát gian lận giao dịch thẻ tín dụng kết phân lớp giao dịch Tuy kết mơ hình đạt độ xác khoảng 73% giải tốn tập liệu cân Đánh giá hiệu suất mơ hình tập liệu thử nghiệm Kaggle Mơ hình Autoencoder xây dựng nghiên cứu cải tiến hiệu chỉnh cho kết khả quan, áp dụng vào hệ thống thực tế Phương pháp Deep Learning xây dựng mơ hình học tính dựa kỹ thuật Autoencoder học tốt tính cải thiện độ xác phát gian lận thẻ tín dụng Hướng phát triển luận văn Trong tương lai, luận văn tiếp tục nghiên cứu thử nghiệm cải tiến để giảm thời gian huấn luyện có hiệu quả, độ xác tốt hơn, tăng khả thu hồi, giảm khả báo động nhầm thu thập tập liệu khác để đánh giá Xem xét tới việc cập nhật tập liệu thời gian huấn luyện lại mơ hình, mức độ thay đổi tham số Có thể nghiên cứu đánh giá để triển khai thực tế, vừa đảm bảo độ xác vừa đảm bảo thời gian thực 60 IV DANH MỤC CÁC TÀI LIỆU THAM KHẢO [1] https://worldpaymentsreport.com/resources/world-payments-report-2020/ [2] The Nilson Report (2017) [Online] Available: https://nilsonreport com/upload/content_promo/The_Nilson_ Report_Issue_1118.pdf [3] The Nilson Report, “Global Card Fraud Losses Reach $16.31 Billion-Will Exceed $35 Billion in 2020 Accordin g to The Nilson Report”, August, 2015 [Online] Available: https://www.businesswire.com/news/home/20 150804007054/en/Global-CardFraud-LossesReach-16.31-Billion [Accessed Dec 2019] [4] Jon TS Quah and M Sriganesh Real-time credit card fraud detection using computational Intelligence Expert Systems with Applications, 35(4):1721– 1732, 2008 https://doi.org/10.1016/j.eswa.2007.08.093 [5] Tej Paul Bhatla, Vikram Prabhu, and Amit Dua Understanding credit card frauds Cards business review, 1(6), 2003 [6] Maes, S., Tuyls, K., Vanschoenwinkel, B., & Manderick, B (2002) Credit Card Fraud Detection Using Bayesian and Neural Networks Brussel, Belgium [7] Sahin, Y., & Duman, E (2011) Detecting Credit Card Fraud by Decision Trees and Support Vector Machines Hong Kong, China: The International MultiConference of Engineers and Computer Scientists [8] Ehramikar, S (2000) The Enhancement of Credit Card Fraud Detection Systems Toronto, Canada: Master of Applied Science Thesis, University of Toronto V Vapnik Statistical Learning Theory Wiley, New York, 1998 [9] Zaki, M., & Meira, W (2014) Data Mining and Analysis: Fundamental Concepts and Algorithms New York City, New York: Cambridge University Press https://doi.org/10.1017/CBO9780511810114 [10] A Niimi, “Deep learning for credit card data analysis,” in World Congrss on Internet Security (WorldCIS-2015), 2015 © IEEE doi: 9781-90832050/6 $31.00 [11] Varun Chandola, Arindam Banerjee, and Vipin Kumar Anomaly detection: A survey ACM Comput Surv., 41(3):15:1–15:58, July 2009 61 [12] Wang, Ke (2011), “Anomalous Payload-Based Network Intrusion Detection” (PDF), Recent Advances in Intrusion Detection, pp 04-22 [13]https://www.mcafee.com/enterprise/en-us/assets/executivesummaries/es-economic-impact-cybercrime.pdf [14] Introduction Auto-encoder (2015, Dec 21) Auto-encoder [Online] Available: https://wikidocs.net/3413 [15] Cấu trúc mạng neural – nhiethuyettre.net [16] Neural Network - https://cs231n.github.io/ [17] Perceptron lớp - https://www.slideshare.net/ [18] https://computersciencewiki.org [19] Bengio, Yoshua "Learning Deep Architectures for AI" Foundations and Trends in Machine Learning: Vol 2: No 1, pp 1– 127, (2009) [20] Yann LeCun, Yoshua Bengio3 & Geoffrey Hinton, “Deep learning”, doi:10.1038/nature14539 [21] G E Hinton, R R Salakhutdinov, “Reducing the dimensionality of data with neural network Science”, Science 28 Jul 2006: Vol 313, Issue 5786, pp 504-507, DOI: 10.1126/science.1127647 [22] http://ufldl.stanford.edu [23]https://ichi.pro/vi/hoc-sau-ung-dung-phan-3-ma-tu-dong30821674440600 [24] Arpit Devansh, Zhou Yingbo, Ngo Hung, Govindaraju Venu, 2015, Why Regularized Auto-Encoders learn Sparse Representation?, arXiv:1505.05561 [25] Salakhutdinov Ruslan, Hinton Geoffrey, 2009, Semantic hashing, International Journal of Approximate Reasoning Special Section on Graphical Models and Information Retrieval [26] Cho K., 2013, Simple sparsification improves sparse denoising autoencoders in denoising highly corrupted images, In International Conference on Machine Learning 62 [27] [11-23] Zeng Kun, Yu Jun, Wang Ruxin, Li Cuihua, Tao Dacheng, 2017, Coupled Deep Autoencoder for Single Image Super-Resolution, IEEE Transactions on Cybernetics [28] Gondara Lovedeep, 2016, Medical Image Denoising Using Convolutional Denoising Autoencoders, 2016 IEEE 16th International Conference on Data Mining Workshops.71 [29] Tzu-Hsi Song, Sanchez Victor, Hesham,EIDaly, Nasir Rajpoot M., 2017, Hybrid deep autoencoder with Curvature Gaussian for detection of various types of cells in bone marrow trephine biopsy images, 2017 IEEE 4th International Symposium on Biomedical Imaging [30] Xu Jun, Xiang Lei, Liu Qingshan, Gilmore Hannah, Wu Jianzhong, Tang Jinghai, Madabhushi Anant, 2016, Stacked Sparse Autoencoder (SSAE) for Nuclei Detection on Breast Cancer Histopathology Images, IEEE Transactions on Medical Imaging [31] Martinez-Murcia Francisco J., Ortiz Andres, Gorriz Juan M., Ramirez Javier, Castillo-Barnes Diego, 2020, Studying the Manifold Structure of Alzheimer's Disease: A Deep Learning Approach Using Convolutional Autoencoders, IEEE Journal of Biomedical and Health Informatics [32] https://www.google.com.sciencedirect.com [33] Credit card fraud detection anonymized credit card transaction labeled as fraudulent or genuine [Online] Available: https://www.kaggle.com/mlgulb/creditcardfraud ... nhằm gian lận giao dịch thẻ tín dụng Gian lận thẻ tín dụng hiểu việc sử dụng giao dịch cách trái phép, hành vi giao dịch có gian lận giao dịch mã thẻ khơng hoạt động Gần gian lận thẻ tín dụng phát. .. thiện độ xác việc phát gian lận Mơ hình phát gian lận giao dịch thẻ tín dụng dựa vào Deep Leaning cụ thể áp dụng Autoencoder để phát gian lận giao dịch thẻ tín dụng mơ hình mới, cần nghiên cứu, ... Autoencoder vào tốn phát gian lận, nhận gian lận giao dịch thẻ tín dụng, đánh giá mơ hình Autoencoder vừa xây dụng vào tốn phát gian lận, nhận gian lận giao dịch thẻ tín dụng Đối tượng phạm vi nghiên cứu