Nghiên cứu này tập trung vào bài toán phát hiện bất thường ở người. Chúng tôi tiến hành đánh giá phương pháp tiên tiến Future frame prediction trên video có độ phân giải thấp, đồng thời đưa ra đề xuất hàm độ lỗi cải thiện hiệu quả cho trường hợp này.
Hội nghị Quốc gia lần thứ 24 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2021) MỘT HÀM LỖI CHO PHÁT HIỆN BẤT THƯỜNG TRÊN VIDEO GIÁM SÁT Vũ Ngọc Tú, Đinh Thanh Toàn, Trần Minh Tùng, Võ Duy Nguyên, Nguyễn Tấn Trần Minh Khang Trường Đại Học Công Nghệ Thông Tin Đại học Quốc gia Thành phố Hồ Chí Minh {18520184,18521504}@gm.uit.edu.vn, tungtm.ncs@grad.uit.edu.vn,{nguyenvd, khangnttm}@uit.edu.vn Tóm tắt—Thành phố thơng minh triển khai hệ thống camera kết hợp trí tuệ nhân tạo nhằm hỗ trợ cho hoạt động giám sát an ninh, việc phát kiện bất thường quan tâm Các kiện bất thường (abnormal event) tình xảy ra, khó lường trước, phụ thuộc nhiều vào ngữ cảnh chất lượng video đầu vào Nghiên cứu tập trung vào toán phát bất thường người Chúng tiến hành đánh giá phương pháp tiên tiến Future frame prediction video có độ phân giải thấp, đồng thời đưa đề xuất hàm độ lỗi cải thiện hiệu cho trường hợp Kết thực nghiệm liệu UCSD Ped1, Subway Entrance cho thấy hiệu phương pháp đề xuất, kết cải thiện 0.79%, 1.90% Bên cạnh đó, nghiên cứu cung cấp khảo sát thực nghiệm mở rộng liệu UCSD Ped2, CUHK Avenue làm sở cho nghiên cứu sau Từ khóa—Phát bất thường, học khơng giám sát, học sâu, dự đốn khung hình video I GIỚI THIỆU Bất thường video giám sát định nghĩa kiện hành động mà không ngờ tới xảy thực tế [1], [2] Bài toán phát bất thường video giám sát nhận vào chuỗi frame trả nhãn frame (bất thường, bình thường) mơ tả Hình Đây tốn vơ quan trọng cần thiết việc hỗ trợ quản lý thành phố, khu dân cư Tuy nhiên, thách thức lớn chất lượng video, đa dạng ngữ cảnh kiện bất thường, gần nhiều nghiên cứu đạt tiến đáng kể việc giải toán [3], [4], [5] Để hướng tới việc quản lý thành phố khu dân cư, nghiên cứu tập trung kiện, hành động bất thường liên quan tới người Thách thức lớn toán định nghĩa bất thường không cụ thể mà phụ thuộc nhiều vào ngữ cảnh, kiện bất thường ngữ cảnh ngữ cảnh khác kiện lại bình thường Ví dụ xe đạp đường dành cho ISBN 978-604-80-5958-3 140 người bất thường, xe đạp đường phố lại kiện bình thường Đầu vào Đầu (Bất thường, Bất thường, Mơ hình Bất thường, Bất thường, Bất thường) Hình 1: Bài tốn nhận vào video (nhiều frame ảnh) cho biết nhãn frame video: bình thường hay bất thường Có hai hướng giải cho tốn phát bất thường: (1) nhóm phương pháp học khơng giám sát [4], [6], [5], [7], (2) nhóm phương pháp học có giám sát yếu [3], [8], [9] Trong đó, nhóm phương pháp học không giám sát tập trung vào việc dự đốn, tái tạo lại khung hình dựa thơng tin khung hình trước Sau khung hình tái tạo so sánh với frame thực tế để thực phân loại frame bình thường hay bất thường [4], [6] Với nhóm phương pháp này, cần định nghĩa bình thường với việc sử dụng tập huấn luyện đầy đủ, giảm bớt tỉ lệ phát bỏ sót frame bất thường Trong nhóm phương pháp này, Future frame prediction [6] phương pháp mở đầu cho bước tiến lớn việc giải toán phát bất thường Trong trình huấn luyện, phương pháp có đầu vào frame frame khứ trạng thái bình thường, phương pháp huấn luyện mơ hình tạo frame (bình thường) Trong trình kiểm tra, mơ hình huấn luyện sinh frame so sánh với frame thực tế để định frame có bất thường hay khơng Tuy nhiên, phương Hội nghị Quốc gia lần thứ 24 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2021) pháp cho thấy hiệu suất chạy liệu có chất lượng thấp Để giải vấn đề này, nghiên cứu đề xuất sử dụng đặc trưng Histogram Of Gradients (HOG) [10] bổ sung vào hàm độ lỗi để giải tình trạng hình dáng đối tượng khơng chi tiết, tích chất đặc trưng video có độ phân giải thấp Đóng góp báo bao gồm: • Đối với việc dự đốn frame tương lai, dựa phương pháp đề xuất [6] nghiên cứu đề xuất thêm thông tin đặc trưng HOG hàm độ lỗi huấn luyện mô hình • Thực nghiệm đánh giá, phân tích kết liệu công bố: UCSD Ped [11], UCSD Ped [11], Subway Entrance [12] CUHK Avenue [13] Từ chứng minh tính hiệu hàm lỗi toán phát bất thường Nội dung lại báo cấu trúc sau Phần II cung cấp tổng quan nghiên cứu liên quan Phần III trình bày hàm lỗi cho toàn phát bất thường Phần IV trình bày thực nghiệm và đánh giá, phân tích kết thực nghiệm Cuối trình bày kết hướng nghiên cứu tương lai trình bày phần V II CÁC NGHIÊN CỨU LIÊN QUAN video chia sẻ tảng mạng xã hội (Youtube, Facebook, ) cho phép thu thập số lượng lớn video bất thường Tuy nhiên gán nhãn liệu, việc xác định xác khoảng thời gian diễn kiện bất thường việc khó khăn, làm mức frame mức độ thách thức cịn tăng lên cao Vì liệu lớn công bố nhà nghiên cứu thường gán nhãn mức video - nghĩa gán video có bất thường hay khơng Việc gán nhãn gọi giám sát yếu (weakly supervised) Nhóm phương pháp phát bất thường giám sát yếu chủ yếu gồm thành phần chính: i) Xử lý nhãn ii) Trích xuất đặc trưng iii) Xác định bất thường dựa đặc trưng trích xuất Tuy nhiên, hạn chế phương pháp hiệu liệu có bất thường Do đó, phương pháp giám sát yếu phù hợp thực bất thường định nghĩa rộng đánh nhau, ẩu đả Generator/ Frame Predictor Unet Frame predictor module Intensity difference Score Anomaly or not? A Kỹ thuật rút trích đặc trưng truyền thống Các kỹ thuật xử lý rút trích đặc trưng ảnh video bao gồm đặc trưng cục (local features), đặc trưng toàn cục (global features), đặc trưng chuyển động (motion features), đặc trưng không gian – thời gian (spatial-temporal features), đặc trưng ngoại hình (appearance features), tư người (human pose), thơng tin hình ảnh (visual information), thơng tin thời gian (temporal information), thông tin ngữ cảnh (context information): SIFT, SURF, MBH, HOG, Color Histogram, Dense trajectory, Couboid, Onset, Actionlet, Poselet Trong phương pháp này, phương pháp sử dụng nhiều phương pháp Histogram of gradients (HOG) HOG phương pháp biểu diễn đặc trưng ảnh đề xuất vào năm 1986 sau sử dụng rộng rãi sau nghiên cứu [10] vào năm 2005 Trong đặc trưng HOG, phân phối hướng đạo hàm ảnh sử dụng làm đặc trưng Đạo hàm ảnh hữu dụng giá trị đạo hàm lớn vùng góc, cạnh ảnh B Các phương pháp phát bất thường giám sát yếu Trong khoảng thời gian gần đây, phổ biến camera giám sát gia tăng số lượng liệu ISBN 978-604-80-5958-3 141 Anomaly decision module Hình 2: Tổng quan kiến trúc phương pháp học không giám sát C Các phương pháp phát bất thường không giám sát Theo định nghĩa bất thường kiện xảy thực tế, kiện bình thường lại xảy thường xuyên Dựa vào định nghĩa đó, nhóm phương pháp học không giám sát tập trung chủ yếu vào thu thập video bình thường làm tập huấn luyện, sau học trường hợp bình thường để phát bất thường Việc định khung hình có bất thường hay không dựa chủ yếu vào so sánh frame thực tế frame tái tạo lại Hướng tiếp cận nhóm phương pháp cho phép mơ hình áp dụng nhiều ngữ cảnh, xử lý nhiều loại bất thường Chỉ cần xây dựng tập huấn luyện định nghĩa bình thường đủ tốt, hướng phương pháp cho phép mơ hình dự đốn với tỉ lệ sai sót thấp Hội nghị Quốc gia lần thứ 24 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2021) Hình 3: Tổng quan kiến trúc huấn luyện mơ hình Future frame prediction [6] Vì ưu điểm nhóm phương pháp học khơng giám sát, nhóm định sử dụng phương pháp Future frame prediction [6] - phương pháp tân tiến giám sát bất thường làm phương pháp tảng để cải thiện Nghiên cứu tập trung vào thay hàm độ lỗi thành phần dự đoán frame tương lai để tăng khả dự đoán frame bình thường Hình III PHƯƠNG PHÁP THỰC NGHIỆM Trên liệu thu thập trước đây, đa phần từ CCTV, có độ phân giải thấp Việc sử dụng phương pháp so sánh dựa điểm ảnh dẫn đến sai lệch lớn, ảnh hưởng kết đánh giá Trong trường hợp đó, dựa phương pháp Future frame prediction đề xuất [6] mơ tả Hình 3, nghiên cứu sử dụng đặc trưng thủ công HOG để biểu diễn đặc trưng người cho thấy xu hướng giá trị vùng điểm ảnh quan tâm A Kiến trúc tổng quan Kiến trúc tổng quan phương pháp gồm thành phần trình bày Hình Với đầu vào video với t frame liên tiếp I1 , I2 , , It , It+1 Mục tiêu tốn xác định frame It+1 có bất thường hay khơng • Thành phần dự đốn frame tương lai: Từ frame I1 , I2 , , It , phương pháp dự đốn frame tương lai bình thường cho frame It+1 Kết dự đoán ký hiệu Iˆt+1 Để huấn luyện Iˆt+1 gần với It+1 , phương pháp dựa tảng mạng sinh đối ngẫu - GAN (generative adversarial network) [14] với thành phần sinh phân biệt Trong đó, hàm mục tiêu bổ sung thêm ràng buộc ngoại hình chuyển động để tăng thêm khả frame dự đốn frame bình thường ISBN 978-604-80-5958-3 142 • Thành phần xác định bất thường: Dựa vào khác Iˆt+1 It+1 , thành phần trả điểm số bình thường (normal score) frame ảnh, điểm số nằm khoảng [0,1] Từ dựa vào ngưỡng xác định sẵn (thông thường chọn 0.5) để định frame frame bình thường hay bất thường (nếu frame có điểm vượt 0.5 coi frame bình thường, ngược lại bị coi bất thường) B Hàm độ lỗi đề xuất Với ảnh đầu vào I, đặc trưng HOG ảnh I ký hiệu h(I) Dựa phương pháp Future frame prediction, thay đổi hàm mục tiêu thành phần dự đoán frame với bổ sung thêm hàm độ lỗi HOG (Hình 4) định nghĩa sau: Lhog = ˆ − h(I)| |h(I) (1) Kết hợp lại với hàm độ lỗi gốc phương pháp Future frame prediction, đề xuất hàm mục tiêu thành phần dự đoán frame sau: LG = λint Lint (Iˆt+1 , It+1 ) + λgd Lgd (Iˆt+1 , It+1 )+ λop Lop (Iˆt+1 , It+1 ) + λadv Ladv (Iˆt+1 , It+1 )+ λhog Lhog (Iˆt+1 , It+1 ) (2) Với LG ký hiệu cho hàm độ lỗi thành phần generator Lgd ký hiệu cho hàm độ lỗi giá trị đạo hàm ảnh Lop ký hiệu cho hàm độ lỗi giá trị optical flow Ladv ký hiệu cho hàm độ lỗi của kết trả từ Discriminator Lhog ký hiệu cho hàm độ lỗi giá trị HOG Việc sử dụng cường độ gradient làm độ lỗi hình dáng đối tượng khiến cho mơ hình dự đốn Hội nghị Quốc gia lần thứ 24 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2021) Generator (Unet) Flownet2 Intensity/ Gradient Loss HOG Loss Optical flow Loss Discriminator Generator Loss Flownet2 Hình 4: Tổng quan kiến trúc huấn luyện phương pháp đề xuất tập trung tối ưu vào chi tiết đường nét tổng thể video Tuy nhiên video có độ phân giải thấp, đặc trưng đường nét đối tượng người lại không rõ ràng nên thường bị bỏ qua Vậy nên việc sử dụng hàm HOG trích xuất thơng tin góc cạnh cục q trình huấn luyện mơ hình dự đốn frame giúp bổ sung thơng tin hình dáng đối tượng, giúp cho mơ hình dự đốn frame dự đốn frame bất thường xác, chi tiết áp dụng video có độ phân giải thấp IV PHÂN TÍCH KẾT QUẢ THỰC NGHIỆM A Bộ liệu Giới thiệu tổng quan liệu sử dụng trình thực nghiệm, vài ví dụ liệu trình bày Hình • Bộ liệu CUHK Avenue [13] chứa 16 video huấn luyện 21 video đánh giá với tổng cộng 47 kiện bất thường bao gồm ném đồ vật, chạy, nhảy, che khuất Kích thước người thay đổi vị trí góc camera • Bộ liệu UCSD [11] gồm phiên bản: UCSD Pedestrian (Ped 1) UCSD Pedestrian (Ped 2) Bộ UCSD Pedestrian (Ped 1) gồm 34 video ISBN 978-604-80-5958-3 143 • huấn luyện 36 video đánh giá với 40 kiện bất thường Tất trường hợp bất thường liên quan tới việc xe đạp, xe máy vào đường dành cho người Bộ UCSD Pedestrian (Ped 2) bao gồm 16 video huấn luyện 12 video đánh giá với 12 kiện bất thường Định nghĩa Ped giống với Ped Sự khác biệt lớn khơng kích thước liệu góc quay mà độ phân giải video Ped có độ phân giải 238x158 so với 360 x 240 Ped Bộ liệu Subway Entrance dataset [12] chứa video chia thành phần dùng để huấn luyện đánh giá Bộ huấn luyện bao gồm 20,000 frame video, phần đánh giá gồm 116524 frame lại B Độ đo đánh giá Trong nghiên cứu phát bất thường [3], [4], [6], [5], độ đo đánh giá tính độ đo Recerver Operation Characteristic (ROC) cách thay đổi ngưỡng điểm bình thường Sau diện tích đường cong - Area Under Curve (AUC) tích lũy thành số khoảng [0,1] để đánh giá hiệu suất phương pháp Giá trị cao cho thấy hiệu suất phát bất thường tốt Hội nghị Quốc gia lần thứ 24 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2021) Độ phân giải thấp UCSD Ped Subway Entrance 82.33% 71.72% 83.07% 73.62% Phương pháp Future frame predict Future frame predict + HOG Độ phân giải cao CUHK Avenue UCSD Ped 85.01% 95.58% 84.88% 95.48% Bảng I: Kết thực nghiệm phương pháp Future frame prediction UCSD Ped Subway Entrance CUHK Avenue Abnormal Normal UCSD Ped D Phân tích kết Throwing object Enter without payment Ride a bike Ride a bike Hình 5: Một vài mẫu liệu bình thường bất thường bộ: UCSD Ped 1, UCSD Ped 2, CUHK Avenue Subway Entrance C Cài đặt thực nghiệm Dữ liệu thực nghiệm chia thành tập: tập huấn luyện (train), tập kiểm tra (test) theo báo [6] Tồn q trình thực nghiệm triển khai GeForce RTX 2080 Ti GPU với nhớ 11019MiB Chúng tiến hành huấn luyện phiên cài đặt Pytorch Future frame prediction Để huấn luyện mơ hình Future frame prediction, nghiên cứu thiết lập thông số môi trường dựa cấu hình mặc định cung cấp mã nguồn với vài tinh chỉnh số lượng epoch kích thước batch size Thơng số tinh chỉnh trình bày Bảng II Epoch Batch size Ped 40000 Ped 80000 Avenue 80000 Subway 40000 Bảng II: Các thơng số mơ hình tinh chỉnh trình huấn luyện Trong báo này, để đánh giá khả phát bất thường, thực nghiệm phương pháp đề xuất liệu gồm: UCSD Ped 1, UCSD Ped 2, CUHK Avenue Subway Entrance Kết thực nghiệm trình bày Bảng I Dựa vào bảng kết quả, thấy phương pháp đạt kết nhỉnh thực nghiệm liệu có chất lượng hình ảnh thấp (UCSD Ped 1, Subway) Với Ped 1, kết ROC-AUC phương pháp đề xuất nhỉnh 0.74% so với phương pháp gốc Trên phương pháp Subway phương pháp đề xuất cao 1.9% Đối với liệu Ped Avenue có chất lượng hình ảnh cao, phương pháp đề xuất có kết nhỏ phương pháp gốc (0.1% 0.13%) Từ kết này, thấy việc sử dụng đặc trưng HOG trích xuất bổ sung thêm đặc trưng đối tượng, từ giúp cải thiện kết phương pháp Tuy nhiên, liệu có độ phân giải cao, đối tượng chi tiết nên đặc trưng khơng có ảnh hưởng tốt Trong đó, từ bảng III, thấy mức tiêu thụ tài ngun tính tốn phương pháp đề xuất cao chút so với phương pháp ban đầu Tuy nhiên, thay đổi diễn hàm lỗi trình huấn luyện khơng địi hỏi phải thêm liệu nên khác biệt nằm thời gian trình huấn luyện mơ hình Đối với mức sử dụng nhớ thời gian kiểm tra, dự đoán bất thường đưa vào thực tế mơ hình đề xuất gần khơng chênh lệch so với mơ hình ban đầu Vì vậy, thấy phương pháp đề xuất cải https://github.com/feiyuhuahuo/Anomaly_Prediction Bộ liệu Phương pháp Bộ nhớ tiêu thụ Thời gian huấn luyện Thời gian kiểm tra FFP 7284 MB 21567.21s 79.84s Ped FFP + HOG 7288 MB 26049.38s 80.01s FFP 7284 MB 44875.4s 26.23s Ped FFP + HOG 7288 MB 46684.18s 26.57s Avenue FFP FFP + HOG 7279 MB 7284 MB 48925.24s 57876.34s 321.97s 322.49s Subway FFP FFP + HOG 1959 MB 1961 MB 11445.22s 11775.57s 2333.79s 2207.85s Bảng III: Mức tiêu thụ tài ngun tính tốn phương pháp tính theo tiêu chí: nhớ thời gian xử lý Bộ nhớ đơn vị tính theo đơn vị Megabyte (MB), thời gian đo theo đơn vị giây (s) FFP ký hiệu cho Future Frame Prediction [6] ISBN 978-604-80-5958-3 144 Hội nghị Quốc gia lần thứ 24 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2021) thiện kết với mức tài ngun tính tốn sử dụng hợp lý V KẾT LUẬN Trong báo này, nghiên cứu đề xuất hàm độ lỗi cho việc dự đoán frame cho phương pháp phát bất thường Phương pháp cho thấy khả xử lý tốt liệu có chất lượng độ phân giải thấp (UCSD Ped 1, Subway Entrance) trì kết tốt liệu có chất lượng độ phân giải cao (UCSD Ped 2, CUHK Avenue) Từ kết đạt được, đề xuất hướng nghiên cứu sử dụng kết hợp phương pháp trích xuất đặc trưng ảnh phương pháp trích xuất sử dụng học sâu đại LỜI CẢM ƠN Chúng xin chân thành cảm ơn Phịng thí nghiệm Truyền thơng Đa phương tiện (MMLab) Trường Đại học Công nghệ Thông tin, ĐHQG-HCM hỗ trợ chúng tơi q trình thực nghiên cứu TÀI LIỆU THAM KHẢO [1] S Zhu, C Chen, and W Sultani, “Video anomaly detection for smart surveillance,” CoRR, vol abs/2004.00222, 2020 [Online] Available: https://arxiv.org/abs/2004.00222 [2] G Pang, C Shen, L Cao, and A V D Hengel, “Deep learning for anomaly detection,” ACM Computing Surveys, vol 54, no 2, pp 1–38, Mar 2021 [Online] Available: https://doi.org/10.1145/3439950 [3] Z Zaheer, A Mahmood, M Astrid, and S.-I Lee, CLAWS: Clustering Assisted Weakly Supervised Learning with Normalcy Suppression for Anomalous Event Detection, 11 2020, pp 358– 376 [4] W Liu, W Luo, Z Li, P Zhao, and S Gao, “Margin learning embedded prediction for video anomaly detection with a few anomalies,” in Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence International Joint Conferences on Artificial Intelligence Organization, Aug 2019 [Online] Available: https://doi.org/10.24963/ijcai.2019/419 ISBN 978-604-80-5958-3 145 [5] M Z Zaheer, J Lee, M Astrid, and S.-I Lee, “Old is gold: Redefining the adversarially learned one-class classifier training paradigm,” 2020 [6] W Liu, W Luo, D Lian, and S Gao, “Future frame prediction for anomaly detection - a new baseline,” in 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2018, pp 6536–6545 [7] H Park, J Noh, and B Ham, “Learning memoryguided normality for anomaly detection,” in 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) IEEE, Jun 2020 [Online] Available: https://doi.org/10.1109/cvpr42600.2020.01438 [8] R Morais, V Le, T Tran, B Saha, M Mansour, and S Venkatesh, “Learning regularity in skeleton trajectories for anomaly detection in videos,” in 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) IEEE, Jun 2019 [Online] Available: https://doi.org/10.1109/cvpr.2019.01227 [9] B Wan, Y Fang, X Xia, and J Mei, “Weakly supervised video anomaly detection via center-guided discriminative learning,” in 2020 IEEE International Conference on Multimedia and Expo (ICME) IEEE, Jul 2020 [Online] Available: https://doi.org/10.1109/icme46284.2020.9102722 [10] N Dalal and B Triggs, “Histograms of oriented gradients for human detection,” in 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05), vol 1, 2005, pp 886–893 vol [11] V Mahadevan, W Li, V Bhalodia, and N Vasconcelos, “Anomaly detection in crowded scenes,” in 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2010, pp 1975–1981 [12] A Adam, E Rivlin, I Shimshoni, and D Reinitz, “Robust real-time unusual event detection using multiple fixed-location monitors,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol 30, no 3, pp 555–560, Mar 2008 [Online] Available: https://doi.org/10.1109/tpami.2007.70825 [13] C Lu, J Shi, and J Jia, “Abnormal event detection at 150 fps in matlab,” in 2013 IEEE International Conference on Computer Vision, 2013, pp 2720–2727 [14] I Goodfellow, J Pouget-Abadie, M Mirza, B Xu, D WardeFarley, S Ozair, A Courville, and Y Bengio, “Generative adversarial networks,” Communications of the ACM, vol 63, no 11, pp 139–144, Oct 2020 [Online] Available: https://doi.org/10.1145/3422622 ... (2) Với LG ký hiệu cho hàm độ lỗi thành phần generator Lgd ký hiệu cho hàm độ lỗi giá trị đạo hàm ảnh Lop ký hiệu cho hàm độ lỗi giá trị optical flow Ladv ký hiệu cho hàm độ lỗi của kết trả từ... bố nhà nghiên cứu thường gán nhãn mức video - nghĩa gán video có bất thường hay khơng Việc gán nhãn gọi giám sát yếu (weakly supervised) Nhóm phương pháp phát bất thường giám sát yếu chủ yếu gồm... kiến trúc phương pháp học không giám sát C Các phương pháp phát bất thường không giám sát Theo định nghĩa bất thường kiện xảy thực tế, kiện bình thường lại xảy thường xuyên Dựa vào định nghĩa