2. Mục đích nghiên cứu
3.3.3 Kết nối các đối tượng ở hai khung hình liên tiếp
Bằng cách dựa trên sự tương đồng giữa hai đối tượng nhau chúng ta có thể kết nối các đối tượng ở hai khung hình khác nhau.
Hình 3.12 Ví dụ về kết nối các đối tượng
Bước đầu tiên của thuật toán theo dõi là nối các đối tượng (Op’s) ở ảnh
trước (In-1) với các đối tượng mới (Oi’s) được phát hiện ở ảnh hiện tại (In). Chúng ta lưu trữ các kết hợp của các đối tượng trong một đồ thị hai phía G (m, n). Trong biểu đồ này, đỉnh đại diện cho các đối tượng (một bên
đại diện cho đỉnh các đối tượng trước Op và bên còn lại đại diện cho các đối
tượng mới, Oi) và các cạnh đại diện cho một sự kết nối giữa hai đối tượng. G
(m, n), m là số các đối tượng trước đó, và n là số các đối tượng mới. Một đồ thị kết hợp đơn giản được thể hiện trong hình 3.11. Để thực hiện kết nối các đối tượng, chúng ta lặp qua danh sách các đối tượng trước và các đối tượng
mới để đánh giá độ tương đồng. Với mỗi đối tượng trước đó (Op ) chúng ta
lặp các đối tượng mới và đầu tiên kiểm tra xem một đối tượng mới Oi trong
danh sách các đối tượng mới có gần Op hay không. Các tiêu chí cho việc đánh
của hai đối tượng này (Op và Oi) nhỏ hơn một hằng số được xác định trước. Việc kiểm tra này được xuất phát từ thực tế là sự di chuyển của một đối tượng giữa các hình ảnh liên tiếp là nhỏ. Nói cách khác, hai đối tượng với trung tâm cp và ci là gần nhau nếu thỏa mãn:
Dist(cp, ci) < τ (3.7)
Với hàm Dist() được định nghĩa là hàm khoảng cách Euclidean giữa hai điểm
2 2 ( ) ) ( ) , (cp ci xcp xci ycp yci Dist = − + − (3.8)
Bởi vì hai đối tượng gần nhau trong một ngưỡng không nhất thiết sẽ được kết nối, trong bước tiếp theo chúng ta kiểm tra khả năng tương đồng giữa hai đối tượng để làm việc kết hợp cho chính xác hơn. Các điều kiện để đánh giá sự tương đồng là tỷ lệ kích thước của ác đối tượng. Việc kiểm tra này cũng xuất phát từ thực tế là đối tượng không lớn hơn hoặc co lại quá nhiều giữa các khung hình liên tiếp. Do đó hai đối tượng được gọi là tương tự nhau nếu chúng thảo mãn:
µ µ < < p i i p s s or s s (3.9)
Với si là kích thước của đối tượng Oi và μ là một ngưỡng được xác định trước. Kiểm tra kích thước các đối tượng đặc biệt hữu ích nếu một đối tượng trong khung trước chia tách thành một vùng rộng lớn và rất nhỏ do phân khúc không chính xác. Điều này kiểm tra loại bỏ khả năng kết hợp một khối lớn với một khối nhỏ.
3.4 PHƯƠNG PHÁP ĐO TỐC ĐỘ
Sau khi theo dõi đối tượng, ta thu được các vị trí hiện tại của đối tượng, sau 1 khoảng thời gian nhất định, ta đo sự khác biệt về vị trí (Diffspace) và đo sự khác biệt khoảng thời gian giữa 2 lần đo (Difftime). Ta lấy V= Diffspace/Difftime, đơn vị đo là (pixcel/s), để chuyển sang (Km/h) ta cần nhân với hệ số alpha tương ứng với khoảng cách đo thực tế giữa các pixcel trong ảnh.
CHƯƠNG 4
KẾT QUẢ THỰC HIỆN
Chương trình được viết trên ngôn ngữ lập trình Visual C++ 2010. Kết quả được thể hiện trong hình sau:
Hình 4.1 Giao diện chương trình
Mỗi đối tượng được gán một ID riêng, tốc độ của từng phép đo sẽ được lưu với từng ID tương ứng, sau đó truy xuất ra file excel, những ID nào có tốc độ lớn hơn tốc độ cho phép sẽ được lọc ra và lưu vào hệ thống lưu trữ.
Kết quả trên được tổng hợp trong biểu đồ với tốc độ trung bình của mỗi xe (tương ứng với một ID)
KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN ĐỀ TÀI
Nhận dạng và phân tích ảnh trong giám sát tốc độ phương tiện giao thông là một lĩnh vực có tiềm năng ứng dụng rất lớn trong các ứng dụng hệ thống giao thông thông minh. Trong đề tài này, đã thực hiện nghiên cứu các phương pháp xử lý ảnh trong việc nhận dạng và bám đuổi đối tượng, dựa vào đó sẽ thực hiện xác định tốc độ của các phương tiện tham gia giao thông.
Để đo được tốc độ của phương tiện giao thông thì ta phải giải quyết được ba bài toán. Thứ nhất là phải phân loại đối tượng chuyển động đó là xe tham gia giao thông hay không. Thứ hai là sau khi xác định được đó là phương tiện tham gia giao thông thì thực hiện theo vết đối tượng. Thứ ba là đo được tốc độ phương tiện giao thông.
Để phân loại được đối tượng chuyển động có phải là xe tham gia giao thông hay không, trong đề tài đã thực hiện nghiên cứu các phương pháp nhận dạng như dựa vào hình dạng và dựa vào chuyển động. Mỗi phương pháp có ưu và nhược điểm riêng và trong bài toán này thực hiện chọn phương pháp phân loại dựa trên hình chiếu. Nghĩa là ta sẽ thực hiện tạo một mẫu cơ sở dữ liệu của các hình chiếu của đối tượng mẫu, sau đó sẽ thực hiện trích rút hình chiếu của mỗi đối tượng phát hiện được trong mỗi khung hình và nhận dạng bằng cách so sánh hình chiếu dựa trên đặc trưng với các hình chiếu trong cơ sở dữ liệu mẫu. Với cơ sở dữ liệu mẫu chuẩn, ta sẽ thực hiện nhận dạng được đối tượng.
Với cơ sở lý thuyết đã nghiên cứu và trình bày, để theo vết đối tượng chuyển động luận văn áp dụng thuật toán Kalman Filter vào bài toán dự đoán chuyển động của đối tượng. Thuật toán Kalman Filter đặc biệt chú ý đến tâm của đối tượng và tỉ lệ kích thước của đối tượng trong mỗi khung
hình, mục tiêu của thuật toán là dự đoán chính xác vị trí của đố trong khung hình tiếp theo.
Tuy nhiên, do thời gian hạn hẹp nên đề tài vẫn còn những hạn chế, phương pháp giám sát và theo dõi đối tượng mới chỉ áp dụng được 1 phương pháp chưa làm được nhiều phương pháp để so sánh, đo tốc độ phương tiện giao thông chưa kiểm tra đối chiếu độ chính xác với các phương pháp khác. Do đó, hướng phát triển tiếp theo của đề tài là xây dựng hoàn chỉnh thuật toán và chương trình giám sát tốc độ để đạt kết quả chính xác hơn.
DANH MỤC TÀI LIỆU THAM KHẢO Tiếng Việt:
[1] Nguyễn Văn Ngọ (2001), Xử lý ảnh, Nxb Khoa học kỹ thuật, Hà Nội.
Tiếng Anh:
[2] Afef SALHI and Ameni YENGUI JAMMOUSSI (2012), “Object tracking
system using Camshift, Meanshift and Kalman filter”, World Academy
of Science, Engineering and Technology.
[3] Amir Salarpour and Arezoo Salarpour and Mahmoud Fathi and MirHossein Dezfoulian (2011), “Vehicle tracking using kalman filter and features”, Signal & Image Processing, Vol.2.
[4] Andrews Sobral, Luciano Oliveira, Leizer Schnitman, Felippe de Souza (2013), “Highway Traffic Congestion Classification Using Holistic
Properties”, Proceedings of the IASTED International Conference.
[5] Benjamin Coifmana, David Beymerb, Philip McLauchlanb, Jitendra Malik (1998), “A real-time computer vision system for vehicle tracking
and traffic surveillance” Transportation Research Part C 6, University
of California, Berkeley.
[6] Benjamin Gorry, Zezhi Chen, Kevin Hammond, Andy Wallace, Greg Michaelson (2008), “Using Mean – Shift Tracking Algorithms for Real – Time Tracking of Moving Image on an Autonomous Vehicle Testbed Platform”, Heriot – Watt University, Riccarton, Scotland.
[7] Benjamin Coifmana, David Beymerb, Philip McLauchlanb, Jitendra
Malik (1998), “A real-time computer vision system for vehicle tracking
and traffic surveillance”.
[8] Bing Han, William Roberts, Dapeng Wu, Jian Li (2005), “Robust Feature
[9] Erhan Bas (2007), Road and Traffic Analysis from Video, Koc University.
[10] Gordon McQuade, Robert D. Ervin, Karl C.Kluge (1998), Method For
Naturalistic Measurement Of lane–Keeping Behavior, The University of Michigan.
[11] Gwang Yul Song, Ki Yon Lee, Jooon Woong Lee (2008),”Vehicle Dection by Edge-Based Candidate Generation and Appearance-bassed
Classification”, IEEE Intelligent Vehicles Symposium.
[12] J. van Leuven, M.B. van Leeuwen, F.C.A. Groen (2001), “Real-Time
Vehicle Tracking in Image Sequences”, IEEE Instrumentation
Measurement .
[13] King Hann LIM, Li-Minn ANG, Kah Phooi SENG and Siew Wen CHIN (2009), Lane-Vehicle Detection and Tracking, Proceeding of the International MultiConference of Engineer and Computer Scientists.
[14] Mital Arun Gandhi (2009), Robust Kalman Filters Using Generalized
Maximum Likelihood – Type Estimators, Virginia Polytechnic Institute and State University.
[15] Osman Ibrahim, Hazem ElGendy, and Ahmed M. ElShafee (2011),
Speed Detection Camera System using Image Processing Techniques on Video Streams
[16] Suree Pumrin (2001), “A Framework for Dynamically Measuring Mean
Vehicle Speed using Un-Calibrated Cameras”, Doctoral Dissertation,
University of Washington
[17] Vibha L*, Venkatesha M*, Prasanth G Rao*, Suhas N*, P Deepa
Shenoy*, Venugopal K R*, L M Patnaik** (2008), Moving Vehicle
Identification using Background Registration Technique for Traffic Surveillance
[18] Y.Bogomolov, G.Dror, S.Lapchev, E.Rivlin, M.Rudzsky (2004), “Classification of Moving Targets Based on Motion and Appearance”,
Computer Science Department, Technion – Israel Institute of Technology.
[19]Yue Wanga, Eam Khwang Teoha, Dinggang Shen (2003), Lane detection
and tracking using B-Snake, University of Pennsylvania, Singapore. [20]Yi˘githan Dedeo˘glu (2004), Moving object detection, tracking and
classification for smart video surveillance, A thesis submitted to the department of computer engineering and the institute of engineering and science of bilkent university in partial fulfillment of the requirements for the degree of master of science.
[21]Zhiwei Zhu, Qiang Ji, Kikuo Fujimura (2002), “Combining Kalman Filtering and Mean Shift for Real Time Eye Tracking Under Active
Illumination”, IEEE. Website: [22] http://opencv.willowgarage.com/documentation/ [23] http://opencv.willowgarage.com/documentation/feature_detection.html [24]http://opencv.willowgarage.com/documentation/motion_analysis_and_obj ect_tracking.html [25] http://opencv.willowgarage.com/documentation/object_detection.html