CHƯƠNG 2. Nghiên cứu các yếu tố ảnh hưởng đến quá trình số hóa bề mặt 3D chi tiết cơ khí sử dụng Kinect v2 43
2.3 Ảnh hưởng của vị trí điểm ảnh trong ảnh độ sâu
Vì các ống kính được sử dụng trong máy ảnh nói chung và thiết bị ToF nói riêng thường là ống kính tiêu chuẩn, dữ liệu thu được bị ảnh hưởng bởi độ méo ảnh do cấu tạo của ống kính gây ra. Độ méo ảnh của ống kính có thể được ước tính và hiệu chỉnh thông qua các bước hiệu chuẩn liên tiếp. Để có thể sử dụng Kinect v2 làm thiết bị số hóa cho quá trình tái tạo hình học bề mặt các sản phẩm cơ khí, việc hiệu chuẩn cho phép thu được thông tin dữ liệu 3D đáng tin cậy từ các đám mây điểm phải được thực hiện. Mục đích của thí nghiệm này là xác định sự ảnh hưởng của của vị trí điểm ảnh trong ảnh độ sâu đến phép đo độ sâu của thiết bị Kinect v2.
2.3.1. Mô tả thí nghiệm
Tiếp tục nghiên cứu các yếu tố ảnh hưởng đến quá trình số hóa bề mặt 3D sử dụng Kinect v2, trong thí nghiệm này, ảnh hưởng của của vị trí điểm ảnh trong ảnh độ sâu tới phép đo độ sâu sẽ được khảo sát. Cụ thể độ lệch khoảng cách của toàn bộ các điểm ảnh trong vùng con 260pixel×220pixel có tâm là điểm cơ sở so với khoảng cách tham chiếu cố định sẽ được đánh giá.
Thí nghiệm được thực hiện với đối tượng đo là mặt bàn phẳng và được mô tả trong hình 2.15. Cũng tương tự như các thí nghiệm đã thực hiện ở phần 2.1 và 2.2, thiết bị phải ổn định trong toàn bộ thí nghiệm để không có sai số sinh ra từ các chuyển vị nhỏ nhất có thể có của thiết bị.
Hình 2.15: Cấu hình thí nghiệm đánh giá ảnh hưởng của vị trí điểm ảnh trong ảnh độ sâu
Khoảng cách tham chiếu được xác định tương tự như xác định vị trí của thí nghiệm trong phần 2.2 với giá trị là 1282mm. Để giảm thời gian tính toán của máy tính qua đó giảm ảnh hưởng của nhiễu, mỗi vị trí khảo sát cách nhau2pixel. Tại mỗi vị trí khảo sát, sẽ có năm mươi khung hình tĩnh được chụp, sau đó sẽ tính toán giá trị khoảng cách trung bình của năm mươi giá trị của mỗi khung hình, đây là chính là giá trị khoảng cách cần xác định.
2.3.2. Phương pháp thực hiện
Dữ liệu từ Kinect v2 phục vụ cho tính toán liên quan đến thí nghiệm này cũng được thu nhận bằng chương trình con viết bởi mã Matlab. Việc tính toán và xử lý dữ liệu sau thí nghiệm được thực hiện theo các công thức dưới đây
dtb = P50 i=1
di
50 (2.5)
∆d=dtb−dtc (2.6)
Nhằm lập trình chương trình thu nhận thông tin cho thí nghiệm, một quy trình thực hiện được mô tả trong thuật toán 2.3. Tương tự như các thí nghiệm trong hai phần 2.1 và 2.2, quá trình thu nhận và xử lý dữ liệu cũng được tiến hành bởi các chương trình Matlab và được mô tả trong phụ lục 2.3.
Thuật toán 2.3 Thu nhận thông tin khoảng cách các điểm ảnh INPUT : h1: Ảnh độ sâu
OUTPUT: pc: Khoảng cách từ Kinect v2 đến đối tượng đo
1: k2 =Kin2(′color′,′depth′); {Lấy ảnh độ sâu}
2: while True do
3: if min(pc) = 0 then
4: depth=k2.getDepth; {Cập nhật ảnh độ sâu sang ma trận Matlab}
5: for m←126 to 386 do
6: for n←102 to 322 do
7: for i←1 to 50 do
8: tg=k2.mapDepthP oints2Camera([mn]);
9: end for{Độ sâu trung bình của điểm có tọa độ m, n}
10: pc=mean(tg); {Khoảng cách từ Kinect v2 đến đối tượng đo}
11: end for
12: end for
13: else
14: break; {Dừng chương trình}
15: end if
16: end while
2.3.3. Kết quả và đánh giá
Việc thu thập dữ liệu từ Kinect v2 diễn ra trong chín giây. Sau khi xử lý dữ liệu, kết quả của thí nghiệm được biểu diễn theo hệ trục tọa độ 3 chiều và được mô tả trong hình 2.16. Qua đồ thị biểu diễn có thể nhận thấy rằng các giá trị
1.275 300 1.28 1.285
250 350
1.29
200 300
250 1.295
150 200
150
Hình 2.16: Khoảng cách đo được của các điểm ảnh trong vùng con 260pixel× 220pixel
khoảng cách thu được của các điểm ảnh phân phối theo hình dạng của các vòng tròn theo hình dạng của ống kính, tức là điểm ảnh càng nằm cách xa điểm cơ sở thì có giá trị khoảng cách nhỏ hơn. Hiện tượng này có thể do nguyên nhân bởi hình nón ánh sáng hồng ngoại trong quá trình chiếu vào đối tượng đo không đồng nhất [71]. Điều này dẫn đến những điểm ảnh ở góc của ảnh độ sâu sẽ có nhiều lỗi hơn so với những điểm ảnh gần điểm cơ sở. Ngoài ra, một số điểm bất thường xuất hiện trong kết quả thí nghiệm, tại vùng con có tọa độ (314,218) đến (378,236) trong hệ tọa độ ảnh đơn vị pixel giá trị khoảng cách đo được có độ lệch khoảng 8cm so với giá trị khoảng cách tham chiếu.
Để đánh giá chi tiết hơn các kết quả thu được, độ lệch khoảng cách đo được so với khoảng cách tham chiếu sẽ được tính toán theo công thức 2.6 đối với từng
150 200 250 300 350
-3 -2 -1 0 1 2 3 4 5 6 7
Hình 2.17: Độ lệch khoảng cách đo được của các điểm ảnh nằm trên trục song song với trục u đi qua tọa độ 212 của điểm cơ sở
trục tọa độ uvàv đi qua điểm cơ sở và lần lượt minh họa trong các hình 2.17 và 2.18. Dường như, các khoảng cách đo được không phân bố tuyến tính. Đối với khoảng cách đo được theo trục u, độ lệch khoảng cách đo được lớn nhất là 6mm tại vị trí có tọa độ u = 350pixel. Tuy nhiên độ lệch chuẩn của khoảng cách đo được theo trục u là 2mm. Không giống như trục u, các giá trị khoảng cách đo được theo trục v lệch không quá lớn. Qua tính toán, độ lệch chuẩn của khoảng cách đo được theo trục v là 1,6mm.
120 140 160 180 200 220 240 260 280 300 320
-6 -4 -2 0 2 4 6
Hình 2.18: Độ lệch khoảng cách đo được của các điểm ảnh nằm trên trục song song với trục v đi qua tọa độ 256 của điểm cơ sở
Như vậy việc sử dụng thiết bị Kinect v2 cho các tác vụ đo lường có độ chính xác cao sẽ phải thực hiện hiệu chuẩn trên từng điểm ảnh được quản lý bởi toàn bộ cảm biến. Tuy nhiên, công việc hiệu chuẩn này tốn nhiều thời gian do xử lý cục bộ trên từng điểm ảnh trên toàn bộ ảnh độ sâu. Bởi vậy, đối với các tác vụ sử dụng Kinect v2 để tái tạo hình học bề mặt có độ chính xác khoảng1mmnên đặt đối tượng cần quét vào khu vực nằm ở trung tâm và được giới hạn của cảm biến IR.