Trễ (delay)

Một phần của tài liệu Nghiên cứu mô phỏng đánh giá chất lượng dịch vụ trên mạng MPLS (Trang 37)

Các mạng hiện nay thường tồn tại các loại trễ sau đây:

Trễ môi trƣờng truyền (propagation): là thời gian để chuyển gói đi, thời gian

này thường phụ thuộc vào băng thông của giao tiếp

Trễ xử lý và xếp hàng: đây là hai loại trễ tồn tại trong mỗi router

Trễ xử lý: là thời gian để một router lấy gói tin từ interface vào và đặt

nó vào hàng đợi. Độ trễ sẽ phụ thuộc vào các yếu tố sau:

- Tốc độ xử lý của CPU.

- Khả năng xử dụng của CPU.

- Mode chuyển mạch IP được sử dụng.

- Cấu trúc của router.

- Các đặc tính cấu hình trên các giao tiếp vào/ra.

Trễ xếp hàng: khoảng thời gian gói nằm trên hàng đợi của router. Thời

gian này phụ thuộc vào số lượng cũng như kích thước của các gói đang có trên hàng đợi và trên băng thông của interface. Đồng thời thông số này cũng phụ thuộc vào cơ chế xếp hàng gói tin.

2.2.3. Độ trƣợt (Jitter)

Khái niệm độ trượt và độ trễ thường liên quan đến nhau. Một gói tin trong mạng với các thành phần độ trễ thay đổi thì luôn tồn tại độ trượt. Vậy khi độ trượt xảy ra thì có làm giảm đến chất lượng dịch vụ hay không?. Đối với các ứng dụng dữ liệu thì độ trượt không làm giảm chất lượng là bao nhưng một số dạng lưu lượng khác như thoại được số hóa đòi hỏi các gói tin phải được truyền nhất quán tức là khoảng cách giữa các gói tin là đồng bộ. Dạng lưu lượng này còn gọi là lưu lượng đẳng thời (isochronous traffic). Dưới đây là một ví dụ để thấy rõ hơn về độ trượt.

37

Xét 3 gói tin thoại đi từ máy 201 đến 301, thời gian truyền của mỗi gói tin là 20ms. Nhưng khi đi đến máy 301 thì gói tin thứ 3 thời gian truyền đã tăng lên 30ms, vậy 10ms chính là độ trượt của gói.

2.2.4. Mất gói (loss)

Mất gói là một thông số quan trọng trong chất lượng dịch vụ, khi tỉ lệ mất gói xảy ra trong mạng quá lớn thì cần phải có biện pháp để khắc phục. Ví dụ như trường sửa lỗi FCS (Frame Check Sequence) sẽ kiểm tra các khung bị lỗi khi truyền trong mạng. Các công cụ của QoS có thể làm giảm mất gói tin khi các hàng đợi quá đầy.

Ở các mạng hiện nay, số các gói tin bị mất do tỉ lệ lỗi bit là rất ít (tỉ lệ bit lỗi BER 10-9 là có thể chấp nhận) đa số các gói tin bị mất là do bộ đệm và các hàng đợi quá tải. Do đó việc khắc phục tình trạng mất gói trong mạng là cần thiết.

Hình 2.2: Mất gói trong mạng

2.2.5. Hoạt động của QoS

Các ứng dụng tạo ra lưu thông với một loạt các tốc độ và thường yêu cầu các mạng có thể truyền dẫn các lưu thông với tốc độ mà chúng tạo ra. Hơn nữa, các ứng dụng có thể là thích ứng hoặc kém thích ứng với sự trễ lưu thông trên mạng cũng như sự biến đổi của độ trễ đó. Một ứng dụng nào đó có thể thích ứng được với một vài mất mát lưu thông, trong khi đó số khác lại không. Nếu tài nguyên mạng là vô hạn, toàn bộ các lưu thông của tất cả các ứng dụng có thể được truyền tại tốc độ mà ứng dụng yêu cầu, không trễ, không mất gói tin. Tuy nhiên, tài nguyên mạng lại chỉ có hạn. Kết quả là tồn tại những khu vực trên mạng mà tại đó tài nguyên không thể đáp ứng được nhu cầu. Các mạng được xây dựng bằng cách kết nối các thiết bị mạng như các chuyển mạch và định tuyến. Chúng chuyển tiếp các lưu thông qua chúng bằng cách sử dụng các giao diện. Nếu tốc độ một lưu thông đến tại một giao diện vượt quá tốc độ mà giao diện đó có thể chuyển tiếp đến thiết bị tiếp theo, sự tắc nghẽn sẽ xẩy ra. Vì thế, dung lượng của một giao diện chuyển tiếp lưu thông là một tài nguyên mạng cơ bản. Cơ chế QoS làm

IP Forwarding IP IP Tail-drop IP IP

38

việc bằng cách phân phối tài nguyên đó ưu tiên một lưu thông nào đó hơn các lưu thông khác.

Để làm được điều này, nó trước hết cần phải định danh các lưu thông khác nhau. Lưu thông đến các thiết bị mạng được chia thành các luồng (flow) thông qua quá trình phân loại gói tin. Lưu thông từ mỗi luồng sau đó được dẫn đến các hàng đợi tương ứng trên giao diện chuyển tiếp. Các hàng đợi trên mỗi giao diện được phục vụ theo một vài thuật toán. Thuật toán phục vụ hàng đợi quyết định tốc độ lưu thông trên mỗi hàng đợi được chuyển tiếp đi, bằng cách đó sẽ quyết định tài nguyên phân phối cho mỗi hàng đợi và cho các luồng tương ứng. Vì vậy, để cung cấp QoS mạng, cần phải cung cấp hoặc định nghĩa các thiết bị mạng như sau :

- Thông tin phân loại nhờ các thiết bị đã phân chia lưu thông vào các luồng.

- Các hàng đợi và các thuật toán phục vụ hàng đợi sẽ xử lý lưu thông từ các luồng phân biệt.

Ta gọi chung cả hai là cơ chế xử lý lưu thông. Nếu để riêng rẽ, các Cơ chế xử lý lưu thông không có ý nghĩa thực tiễn. Chúng cần phải được cung cấp và thiết lập qua nhiều thiết bị trong một cách kết hợp cung cấp các dịch vụ điểm-điểm thực tế trên mạng. Vì vậy, để cung cấp được các dịch vụ thực tế, cần cả các Cơ chế Xử lý lưu thông lẫn các Cơ chế cung cấp và thiết lập chúng[2].

2.3. Các công nghệ QoS

Phần này sẽ giới thiệu các cơ cấu xử lý lưu thông và các cơ chế cung cấp và thiết lập quan trọng được sử dụng để cung cấp QoS.

2.3.1. Cơ chế Xử lý Lƣu thông

Có nhiều cơ chế xử lý lưu thông đang tồn tại. Phần này sẽ tập trung vào một vài cơ chế cơ bản, bao gồm differentiated services (diffserv), 802.1p, integrated services (intserv),

ATM,ISSLOW. Chú ý rằng các cơ chế xử lý lưu thông có thể được phân thành các cơ chế tầng-giao-tiếp và các cơ chế kết hợp. Các cơ chế tầng-giao-tiếp thao tác mỗi một luồng lưu thông một cách riêng rẽ trong khi các cơ chế kết hợp nhóm nhiều luồng lưu thông vào một lớp kết hợp đơn. Sự khác biệt cũng tương tự như việc xử lý các hành khách đi máy bay. Theo chuẩn, các hành được “đánh dấu” là hạng nhất, hạng thương gia hay hạng thường. Tất cả các hành khách ở cùng một hạng sẽ được sử lý giống nhau. Đó là xử lý kết hợp. Xử lý tầng-giao-tiếp tương tự như cung cấp máy bay riêng cho từng hành khách – sang trọng nhưng đắt đỏ.

39

Differentiated Services (Diffserv)

Diffserv là một cơ chế xử lý lưu thông kiểu kết hợp, phù hợp cho việc sử dụng trong một mạng định tuyến lớn. Những mạng này lưu chuyển hàng ngàn giao dịch. Vì thế chúng không thích hợp với xử lý lưu thông dựa trên tầng-giao-tiếp. Diffserv định nghĩa một trường trong mào đầu IP, được gọi là điểm mã hoá diffserv (Difserv Codepoint - DSCP). Các máy chủ và các định tuyến gửi lưu thông vào mạng sử dụng difserv sẽ đánh dấu lên mỗi gói tin truyền đi một giá trị DSCP. Các định tuyến trong mạng diffserv sử dụng DSCP để phân loại các gói tin và áp dụng phương pháp xếp hàng cụ thể dựa vào kết quả phân loại. Lưu thông từ nhiều luồng có yêu cầu QoS tương tự sẽ được đánh dấu bằng cùng một giá trị DSCP, sau đó được kết hợp các luồng vào cùng một hàng đợi chung hay phương pháp định thời chung.

802.1p

802.1p là một cơ chế xử lý lưu thông kiểu kết hợp phù hợp với nhiều mạng cục bộ LAN. Nó định nghĩa một trường trong mào đầu truy nhập môi trường truyền (Media Access - MAC) của gói tin Ethernet, trong đó có thể lưu trữ 1 trong 8 mức ưu tiên. Các máy chủ và định tuyến đánh dấu mỗi gói tin truyền đi bằng một giá trị ưu tiên thích hợp. Các thiết bị mạng LAN, như chuyển mạch, cầu, hay hub sẽ xử lý các gói tin tương ứng với giá trị ưu tiên đó, phạm vi giá trị ưu tiên giới hạn trong mạng LAN.

Intergrated Services (Intserv)

Intserv là một khuôn khổ để định nghĩa các dịch vụ. Như thế, nó bao hàm một tập cơ chế xử lý lưu thông hoạt động dưới nền. Các dịch vụ Intserv về mặt chuẩn thường được áp dụng cho các cơ sở tầng-giao-tiếp. Intserv thường được kết hợp với giao thức tín hiệu RSVP, tuy nhiên không phải là bắt buộc.

ATM, ISSLOW và các cơ chế khác

ATM là một công nghệ lớp liên kết cung cấp việc xử lý lưu thông chất lượng cao. ATM chia các gói tin vào các ô (cell) lớp liên kết, chúng sau đó sẽ được xếp hàng và phục vụ sử dụng thuật toán phục vụ hàng đợi tương tự

ISSLOW là một kỹ thuật phân mảnh chia các gói tin IP khi chúng được truyền qua các liên kết tốc độ chậm như các modem quay số. Khi tín hiệu audio và dữ liệu đuợc kết hợp trên các liên kết này, độ trễ của có thể có ý nghĩa, làm giảm tính khả dụng của ứng dụng. ISSLOW có thể được sử dụng để giảm độ trễ audio trong các ứng dụng này. Các cơ chế xử lý lưu thông được định nghĩa cho một vài dạng đường truyền, bao gồm các modem cáp, cáp đồng trục quang kết hợp (HFC), P134, v..v... Chúng có thể sử dụng các cơ chế tín hiệu lớp liên kết như ATM chẳng hạn.

40

2.3.2. Các cơ chế cung cấp và thiết lập

Để đạt được hiệu quả việc cung cấp QoS mạng, cần thiết phải cung cấp và thiết lập một cách hiệu quả các cơ chế xử lý lưu lượng được mô tả trên đây, thông qua nhiều thiết bị mạng. Các cơ chế cung cấp và thiết lập có thể được chia thành loại trên-xuống và tín hiệu.

Cung cấp trên-xuống

Trong cơ chế Cung cấp trên-xuống, một hệ thống quản trị mạng được sử dụng để đẩy các thiết lập xử lý lưu thông vào các thiết bị mạng. Về mặt chính tắc, các cơ chế xếp hàng được thiết lập trên các giao diện thiết bị. Sau đó các luật phân loại được thiết lập để quyết định các gói tin nào được chuyển thẳng đến các hàng đợi khác nhau trong thiết bị. Các luật phân loại có thể phân loại các gói tin dựa vào bộ 5 giá trị định danh của IP (IP 5-tuple - địa chỉ và cổng IP nguồn và đích và giao thức IP). Các 5-tuple được đặt mặt nạ được sử dụng. Luật phân loại có thể đặc tả chỉ một tập con của IP- tuple, như kiểu “tất cả các gói tin có địa chỉ IP nguồn là 2.2.2.X” ở đây “X” có thể là bất cứ giá trị nào. Nếu DSCP hoặc 802.1p được sử dụng như luật phân loại gói tin thì cần thiết phải “đánh dấu” các dấu DSCP hoặc 802.1p trong các gói tin tại một vài nơi tải lên của thiết bị phân loại. Điều này có thể thực hiện bởi các máy chủ hoặc các thiết bị mạng nằm gần sườn của mạng. Trong các trường hợp sau, việc các thiết bị mạng đánh dấu sẽ được thiết lập để việc đánh dấu dựa vào luật phân loại của giá trị 5-tuple của chính chúng (hoặc một vài tập con của chúng).

Những thách thức của cung cấp trên-xuống: việc quyết định luật phân loại tương ứng để sử dụng có thể là một thách thức. Những người quản trị mạng muốn sử dụng QoS để gắn tài nguyên cho lưu thông của một ứng dụng hay người sử dụng cụ thể chứ không phải các trường trong các mào đầu gói tin như địa chỉ hay cổng IP. Các hệ thống Cung cấp trên-xuống cố gắng hỗ trợ người quản trị bằng cách tạo các ràng buộc giữa các ứng dụng và các cổng IP và giữa người sử dụng và địa chỉ IP. Thật không may, chúng thường không đáng tin cậy. Các ứng dụng có thể sử dụng các cổng chuyển tiếp hoặc có thể tạo ra nhiều luồng lưu thông (yêu cầu QoS khác nhau) trên cùng một cổng. Các địa chỉ IP của người sử dụng có thể thay đổi do sử dụng DHCP. Các máy phụ vụ cho nhiều người sử dụng có thể sử dụng cung một địa chỉ IP cho nhiều người sử dụng. Việc mã hóa IPSec có thể mã hóa các cổng IP, làm cho chúng không thể sử dụng cho các luật phân loại.

Một thách thức thêm nữa trong cung cấp trên-xuống là sự tiên đoán trước các dung lượng lưu thông tại một loạt các nút trong mạng. Ví dụ, một hệ thống quản lý có thể được sử dụng để thiết lập một hàng đợi độ trễ thấp tại mỗi thiết bị mạng, với khả năng xử lý 10 phiên làm việc điện thoại IP đồng thời với một vài độ trễ ràng buộc. Luật phân loại sau đó được thiết lập tại mỗi một thiết bị để hướng thẳng lưu lượng điện

41

thoại đến các hàng đợi có độ trễ thấp. Điều này kéo dài trong 10 phiên làm việc. Tuy nhiên, nếu phiên thứ 11 được thiết lập đi qua một trong những thiết bị đã được thiết lập, nó sẽ gây tắc nghẽn một hàng đợi độ trễ thấp, gây ra một độ trễ lớn hơn ràng buộc thiết lập. Kết quả là dịch vụ sẽ bao gồm không chỉ phiên thứ 11 mà cả 10 phiên đang tồn tại.

RSVP Signaling như một cơ chế thiết lập

RSVP Signaling có thể được sử dụng để bổ xung cho các cơ chế cung cấp trên-xuống. Trong trường hợp này, các máy chủ phát ra các thông điệp tín hiệu (signaling message) mô tả lưu lượng tổng dữ liệu tích hợp với một giao dịch cụ thể. Các thông điệp này đi theo cùng một tuyến với lưu thông dữ liệu trên mạng. Các thông điệp RSVP cung cấp các thông tin sau cho mạng :

Tôi là cái gì – Ứng dụng gốc và tiểu luồng (như luồng in là một giao dịch

không đòi hỏi thời gian)

Tôi là ai - Định danh đã được xác thực của người sử dụng.

Tôi muốn gì - Kiểu dịch vụ QoS cần.

Tôi muốn bao nhiêu – Các ứng dụng cụ thể định luợng yêu cầu tài nguyên của

nó.

Tôi có thể đƣợc nhận ra bằng cách nào – Luật phân loại 5-tuple, cái mà nhờ

nó lưu thông dữ liệu có thể được nhận ra.

Những tài nguyên thiết bị mạng sẽ bị tác động bởi lưu thông dữ liệu kết hợp.

Những tín hiệu dựa vào máy chủ như thế mang lại những lợi ích có ý nghĩa cho các hệ thống quản trị QoS. Một lợi ích rõ ràng của tín hiệu dựa trên máy chủ là nó cung cấp những ràng buộc chặt chẽ giữa các thông tin phân loại và người sử dụng cũng như các ứng dụng. Dựa vào đó, tín hiệu dựa vào máy chủ mang lại việc điều khiển thu nạp động không phụ thuộc vào kiến trúc. Chức năng này là chìa khóa để giải quyết “phiên điện thoại thứ 11” mô tả ở trên. RSVP signaling chuyển một thông điệp quan tâm đến các tài nguyên yêu cầu đến các thiết bị dọc theo tuyến dữ liệu. Vì thế, các thiết bị cung cấp RSVP có thể đánh giá động tác động mà lưu thông dữ liệu tích hợp với nó có thể có tài nguyên của nó và cảnh báo các thiết bị tải lên khi chúng không có tài nguyên để giải quyết thêm các luồng lưu thông. Trong trường hợp “phiên điện thoại thứ 11”, thiết bị mạng sẽ từ chối sự thu nạp luồng lưu thông thứ 11 vào hàng đợi có độ trễ thấp, vì thế sẽ bảo vệ 10 phiên làm việc đang tồn tại. Điều quan trong là phải chú ý rằng sự phát tín hiệu dựa vào máy chủ sẽ không phá vỡ sự điều khiển của người quản trị mạng trên tài nguyên mạng. Nó chỉ đơn thuần cung cấp cho mạng những thông tin có thể được sử dụng để đơn giản hóa việc quản lý tài nguyên mạng.

42

2.3.3. Chất lƣợng

Lưu thông điện thoại được đặc trưng hóa bằng nhu cầu. Nó có các yêu cầu có thể định lượng và giá trị của chúng phụ thuộc vào độ nghiêm ngặt mà các yêu cầu đó cần phải thỏa mãn. Các đảm bảo chất lượng cao về mặt chính tắc được yêu cầu bởi các ứng

Một phần của tài liệu Nghiên cứu mô phỏng đánh giá chất lượng dịch vụ trên mạng MPLS (Trang 37)