Các thước đo thông số vận hành
Dải thông
Dải thông là thuật ngữ mô tả dung lượng truyền qua (throughput) của một môi trường, giao thức hoặc kết nối Nó thể hiện kích thước cần thiết cho một ứng dụng để giao tiếp qua mạng một cách hiệu quả.
Kết nối yêu cầu dịch vụ bảo đảm cần băng thông tối thiểu để hoạt động hiệu quả, với ứng dụng tín hiệu thoại số hóa yêu cầu ít nhất 64 kbps Nếu mạng cung cấp băng thông thấp hơn 64 kbps dọc theo tuyến kết nối, ứng dụng này sẽ gần như không thể sử dụng được.
Trễ và Trƣợt gói tin
Trễ gói tại mỗi chặng bao gồm các loại trễ như trễ nối tiếp, trễ truyền dẫn, trễ truyền lan và trễ chuyển mạch Các định nghĩa dưới đây sẽ mô tả chi tiết về từng loại trễ này.
Trễ nối tiêp hoátruyền dẫn (transmission delay)
Trễ truyền dẫn, hay còn gọi là trễ nối tiếp hóa, là khoảng thời gian mà một thiết bị cần để truyền một gói tin với tốc độ xác định Thời gian này phụ thuộc vào băng thông của đường truyền và kích thước của gói tin Chẳng hạn, một gói 64 byte ở tốc độ 3 Mbps sẽ mất khoảng 171 ns để truyền, trong khi cùng một gói 64 byte ở tốc độ 19,2 kbps sẽ mất tới 26 ms Do đó, trễ nối tiếp hóa là yếu tố quan trọng cần xem xét trong quá trình truyền dữ liệu.
Trễ truyền lan (propagation delay)
Trễ truyền là khoảng thời gian mà một bít được truyền từ nguồn phát đến đích nhận, và trong điều kiện tốt nhất, nó phụ thuộc vào khoảng cách chia cho tốc độ ánh sáng Loại trễ này chỉ liên quan đến khoảng cách và môi trường, không phụ thuộc vào băng thông Đối với các đường truyền WAN, trễ truyền thường ở mức mili giây, với giá trị trễ truyền qua nước Mỹ khoảng 30ms.
Trễ chuyển mạch (switching delay)
Là khoảng thời gian thiết bị bắt đầu truyền một gói tin sau khi thiết bị nhận được nú Khoảng thời gian này thụng thường là dưới 10às
Tất cả các gói tin trong một luồng mạng không gặp phải độ trễ giống nhau, vì độ trễ của mỗi gói có thể thay đổi tùy thuộc vào các điều kiện mạng tại từng thời điểm.
Trong một mạng không bị nghẽn, hàng đợi tại các router là không cần thiết, dẫn đến việc giảm thiểu trễ nối tiếp hóa và trễ truyền dẫn tại mỗi chặng, cùng với trễ truyền lan, tạo thành trễ gói tổng cộng Đây là mức trễ tối thiểu mà mạng có thể đạt được Cần lưu ý rằng trễ nối tiếp hóa và trễ truyền dẫn trở nên không đáng kể khi so sánh với trễ truyền lan trên các đường truyền có tốc độ cao.
Khi mạng bị nghẽn, hiện tượng trễ hàng đợi xảy ra, ảnh hưởng đến độ trễ end-to-end và làm thay đổi độ trễ của các gói dữ liệu khác nhau trong cùng một kết nối Hiện tượng biến đổi độ trễ của các gói này được gọi là trượt gói (packet jitter).
Trượt gói đóng vai trò quan trọng trong việc ước tính độ trễ cực đại giữa các lần tiếp nhận gói ở bộ thu Tùy thuộc vào ứng dụng, bộ thu có thể bù đắp jitter bằng cách bổ sung bộ đệm nhận để chứa số lượng gói tương ứng với giới hạn jitter.
Các ứng dụng playback như cuộc gọi thoại tương tác và hội nghị truyền hình gửi thông tin liên tục, tạo ra trải nghiệm giao tiếp mượt mà và hiệu quả.
Hình 1-1 Các thành phần trễ của gói 1500 byte trên đường truyền xuyên lục địa nước Mỹ với dải thông tăng dần
Hình 1-1 minh họa ảnh hưởng của ba loại trễ tổng hợp khi tốc độ đường truyền tăng dần Khi băng thông tăng, trễ nối tiếp trở nên rất nhỏ so với trễ truyền lan Trễ chuyển mạch có thể coi là không đáng kể khi hàng đợi trống, nhưng sẽ tăng mạnh khi số lượng gói tin trong hàng đợi tăng lên.
Mất gói
Mất gói là hiện tượng xảy ra khi một số lượng gói dữ liệu bị mất trong quá trình truyền dẫn qua mạng Nguyên nhân chủ yếu của việc này là do tắc nghẽn mạng, dẫn đến việc gói bị rớt tại các điểm tắc nghẽn hoặc bị hỏng trên đường dây Mất gói thường xảy ra khi số lượng gói đến vượt quá giới hạn kích thước hàng đợi tại đầu ra hoặc khi kích thước bộ đệm đầu vào không đủ cho các gói nhận được Tỷ lệ mất gói được tính bằng số gói bị mất so với tổng số gói đã truyền trong một khoảng thời gian nhất định.
Nhiều ứng dụng gặp khó khăn hoặc hoạt động kém hiệu quả khi xảy ra hiện tượng mất gói Những ứng dụng này cần có sự đảm bảo về việc không bị mất gói từ mạng để hoạt động ổn định.
Mất gói thường hiếm khi xảy ra trong các mạng được thiết kế tốt với số lượng thuê bao phù hợp hoặc thấp hơn mức cho phép Ngoài ra, hiện tượng này cũng ít xảy ra đối với các ứng dụng dịch vụ được đảm bảo, nhờ vào việc mạng đã dành sẵn tài nguyên cần thiết.
Mất gói thường xảy ra do việc loại bỏ tại các điểm nghẽn mạng trong hệ thống cáp quang, nơi tốc độ lỗi Bit đạt 10E-9, dẫn đến hầu như không có mất gói từ đường dây Tuy nhiên, hiện tượng loại bỏ gói vẫn xảy ra trong quá trình truyền tải lưu lượng best-effort, mặc dù chỉ khi cần thiết Cần lưu ý rằng các gói bị loại bỏ gây lãng phí tài nguyên mạng, vì chúng đã chiếm dụng một phần tài nguyên trên đường đi đến điểm loại bỏ.
Các chức năng QoS
Đánh dấu và phân loại gói tin
Các router ở biên mạng sử dụng chức năng phân loại để xác định loại lưu lượng của các gói dựa trên các trường trong tiêu đề TCP/IP Sau khi phân loại, chức năng đánh dấu sẽ gán giá trị cho trường IP precedence hoặc trường DSCP để đánh dấu lưu lượng đã được phân loại.
Quản lý tốc độ lưu lượng
Các nhà cung cấp dịch vụ sử dụng chức năng khống chế (policing) để theo dõi và so sánh lưu lượng thông tin của khách hàng với đặc điểm lưu lượng của họ Đồng thời, doanh nghiệp cần áp dụng chức năng định dạng lưu lượng để đảm bảo tất cả lưu lượng được gửi đi với tốc độ không đổi, giúp chúng vượt qua chức năng policing của nhà cung cấp dịch vụ Kỹ thuật giỏ thẻ bài (Token bucket) là một phương pháp phổ biến để đo lường lưu lượng thông tin hiệu quả.
Cấp phát tài nguyên
Xếp lịch FIFO là một cơ chế xếp hàng truyền thống, được áp dụng phổ biến trong các router và switch trên Internet hiện nay Mặc dù việc triển khai FIFO khá đơn giản, nhưng nó cũng gặp phải một số vấn đề cơ bản liên quan đến việc cung cấp chất lượng dịch vụ (QoS).
Nó không cung cấp cách thức để cho phép lưu lượng nhạy với trễ được ưu tiên và chuyển đến đầu hàng đợi
Tất cả lưu lượng được xử lý đồng nhất mà không phân biệt giữa các luồng hay dịch vụ Để đảm bảo chất lượng dịch vụ (QoS), thuật toán xếp lịch cần phân biệt các gói trong hàng đợi và nhận diện mức độ dịch vụ của từng gói Thuật toán này quyết định gói nào sẽ được truyền tiếp theo, trong khi tần suất truyền của các gói trong một luồng xác định việc cấp phát tài nguyên và băng thông cho luồng đó.
Chính sách tránh tắc nghẽn và loại bỏ gói
Trong xếp hàng FIFO truyền thống, quản lý hàng đợi thường sử dụng phương pháp loại bỏ cuối hàng (tail drop), chỉ báo hiệu tắc nghẽn khi hàng đợi đã đầy Phương pháp này không thực hiện bất kỳ chức năng quản lý nào để giảm thiểu độ trễ hàng đợi Để cải thiện tình hình, một thuật toán quản lý hàng đợi tích cực có thể giúp các router phát hiện tắc nghẽn trước khi hàng đợi bị tràn, từ đó giảm thiểu độ trễ và tối ưu hóa hiệu suất mạng.
Giao thức báo hiệu QoS
RSVP là một thành phần trong cấu trúc intserv của IETF, nhằm cung cấp chất lượng dịch vụ (QoS) end-to-end trên Internet Nó cho phép các ứng dụng gửi tín hiệu về yêu cầu QoS cho từng luồng dữ liệu tới mạng Các chỉ số dịch vụ được sử dụng để định lượng cụ thể những yêu cầu này, phục vụ cho việc kiểm soát tiếp nhận (admission control).
Chuyển mạch
Router có chức năng chuyển tiếp lưu lượng thông tin nhanh chóng và hiệu quả đến đúng địa chỉ dựa trên bảng chuyển tiếp Mặc dù cơ chế chuyển tiếp truyền thống hiệu quả, nhưng gặp phải vấn đề về quy mô và tình trạng vận hành do bị ảnh hưởng bởi lưu lượng, dẫn đến tăng bộ nhớ lưu trữ và hạn chế hoạt động chuyển mạch trong thời gian mạng không ổn định.
Phương pháp chuyển tiếp dựa trên cấu hình giải quyết các vấn đề liên quan đến cơ chế chuyển tiếp lưu trữ bằng cách tạo ra bảng chuyển tiếp tương ứng với bảng định tuyến của router Kỹ thuật này được gọi là Cisco Express Forwarding (CEF) trong các router của Cisco.
Định tuyến
Định tuyến truyền thống chỉ dựa vào đích đến và hướng gói tin theo đường ngắn nhất từ bảng định tuyến, điều này không đủ linh hoạt cho nhiều cấu hình mạng Định tuyến theo chính sách, một chức năng QoS, cho phép người dùng thay đổi từ định tuyến theo đích sang định tuyến dựa trên các thông số gói mà người dùng có thể điều chỉnh.
Các giao thức định tuyến hiện tại tập trung vào việc tìm kiếm đường ngắn nhất dựa trên các giá trị đo như chi phí hành chính, trọng số hoặc số lượng chặng Tuy nhiên, chúng không xem xét yêu cầu của luồng hoặc mức khả dụng tài nguyên dọc theo tuyến Ngược lại, định tuyến QoS là một cơ chế định tuyến chú trọng đến yêu cầu chất lượng dịch vụ (QoS) của luồng và tích hợp thông tin về khả năng tài nguyên mạng trong các tiêu chí lựa chọn định tuyến.
Các mức độ của chất lƣợng dịch vụ (QoS)
Dịch vụ Nỗ lực cao nhất (Best-effort service)
Kết nối cơ sở không đảm bảo rằng một gói dữ liệu sẽ luôn được chuyển giao đến đích Thông thường, một gói chỉ bị loại bỏ khi các hàng đợi đệm đầu vào hoặc đầu ra của router bị tràn.
Dịch vụ Nỗ lực cao nhất không phải là một phần của QoS vì thiếu sự đảm bảo về dịch vụ và chuyển phát trong lưu lượng Đây là loại dịch vụ phổ biến mà Internet hiện đang cung cấp.
Hầu hết các ứng dụng dữ liệu, bao gồm Giao thức truyền File (FTP), hoạt động tốt nhất khi được cung cấp dịch vụ mạng có độ tin cậy cao, mặc dù chất lượng có thể chưa đạt yêu cầu Để đảm bảo hiệu suất tối ưu, tất cả các ứng dụng này cần tài nguyên mạng đáp ứng các tiêu chí về băng thông, độ trễ thấp và tỷ lệ mất gói tối thiểu.
Dịch vụ có phân loại
Trong dịch vụ phân loại, lưu lượng được chia thành nhiều loại dựa trên yêu cầu dịch vụ của chúng Mỗi loại lưu lượng được mạng phân loại và phục vụ theo các cơ chế QoS đã được thiết lập Kỹ thuật QoS này thường được gọi là CoS (cấp độ dịch vụ - Class of Service).
Chú ý rằng dịch vụ có phân loại thực chất không cung cấp sự đảm bảo dịch vụ
Dịch vụ này phân loại lưu lượng và ưu tiên một loại lưu lượng hơn loại khác, do đó còn được gọi là QoS mềm.
Kỹ thuật QoS hiệu quả cho các ứng dụng dữ liệu băng rộng, yêu cầu phân biệt lưu lượng điều khiển mạng với các lưu lượng dữ liệu khác Việc ưu tiên lưu lượng điều khiển đảm bảo kết nối mạng cơ sở luôn được duy trì liên tục.
Dịch vụ có bảo đảm
Dịch vụ yêu cầu dành trước tài nguyên mạng nhằm đảm bảo rằng mạng có khả năng đáp ứng các yêu cầu dịch vụ cụ thể cho luồng lưu lượng.
Bảng 1-1Các mức dịch vụ và chức năngcơ chế thực hiện QoS
CấpMức dịch vụ QoS lớp 3
(Enabling Layer 3 QoS)Cơ chế thực hiện QoS
Nỗ lực cao nhất Kết nối cơ sở
Có Pphân biệt loại (Differentiated)
Committed Access Rate (CAR) ensures dedicated bandwidth for users, while Weighted Fair Queuing (WFQ) optimizes network resource allocation by prioritizing traffic based on its importance Additionally, Weighted Random Early Detection (WRED) enhances network performance by proactively managing congestion through intelligent packet dropping strategies Together, these techniques improve overall network efficiency and user experience.
Giao thức dành trước tài nguyên (Resource Reservation Protocol -RSVP)
Dịch vụ đảm bảo yêu cầu tài nguyên mạng trên toàn bộ kết nối, được biết đến với tên gọi QoS cứng QoS cứng yêu cầu những cam kết nghiêm ngặt từ mạng để đảm bảo hiệu suất và độ tin cậy trong việc cung cấp dịch vụ.
Dành trước tuyến với đơn vị là từng luồng đơn lẻ không thể mở rộng ở quy mô mạng Internet, phục vụ hàng nghìn luồng cùng lúc Tuy nhiên, bằng phương thức dành trước theo tập hợp, số lượng trạng thái thông tin trong các bộ định tuyến mạng lõi giảm xuống mức tối thiểu Do đó, dành trước theo tập hợp có thể là giải pháp hiệu quả để cung cấp dịch vụ có đảm bảo ở quy mô lớn.
Các ứng dụng yêu cầu dịch vụ đa phương tiện, như âm thanh và hình ảnh, cần độ trễ tối đa khoảng 100ms để đáp ứng nhu cầu cảm nhận của con người Độ trễ này cũng phù hợp với nhiều ứng dụng đa phương tiện khác Để sử dụng điện thoại Internet, băng thông tối thiểu cần đạt 8-Kbps và độ trễ round-trip không vượt quá 100 ms.
Mạng cần dành tài nguyên để có thể đáp ứng những nhu cầu dịch vụ bảo đảm này.
Dịch vụ có bảo đảm (Intergrated Service): Giao thức dành trước tài nguyên (RSVP)
Giao thức dành trước tài nguyên (RSVP)
IETF quy định RSVP là quy trình báo hiệu cho kiến trúc intserv, cho phép các ứng dụng gửi thông tin về yêu cầu QoS cho từng luồng đến mạng Các thông số dịch vụ được sử dụng để định lượng những yêu cầu này nhằm kiểm soát việc tiếp nhận.
RSVP được áp dụng trong các ứng dụng multicast như quảng bá và hội nghị truyền hình/truyền âm thanh Mặc dù mục tiêu ban đầu của RSVP là dành riêng băng thông cho lưu lượng đa phương tiện, nhưng nó cũng mang lại lợi ích rõ ràng trong việc phân bổ băng thông cho lưu lượng unicast, chẳng hạn như Hệ thống File Mạng (NFS) và quản lý Mạng Riêng Ảo (VPN).
RSVP (Resource Reservation Protocol) là giao thức báo hiệu yêu cầu tài nguyên dọc theo tuyến sẵn sàng trong mạng, không tự định tuyến mà phụ thuộc vào các giao thức định tuyến hiện có của Internet Nó sử dụng thông tin từ các giao thức định tuyến để xác định đường dẫn cho lưu lượng điều khiển và dữ liệu Khi cấu trúc mạng thay đổi, các yêu cầu đặt trước của RSVP sẽ được thực hiện trên các đường dẫn mới, giúp giao thức hoạt động hiệu quả với bất kỳ dịch vụ định tuyến nào RSVP cũng cung cấp khả năng truyền tải mờ cho các bản tin kiểm soát lưu lượng và chính sách, đồng thời duy trì hoạt động liên tục qua các vùng không hỗ trợ RSVP.
Hệ thống đầu cuối sử dụng giao thức RSVP để yêu cầu mức độ chất lượng dịch vụ (QoS) từ mạng cho luồng dữ liệu ứng dụng Các yêu cầu RSVP được truyền qua toàn bộ mạng, đi qua các nút mạng nhằm hỗ trợ việc truyền tải dữ liệu Tại mỗi nút, giao thức RSVP cố gắng dành riêng tài nguyên cho luồng dữ liệu để đảm bảo chất lượng dịch vụ.
Các bộ định tuyến sử dụng RSVP sẽ truyền các luồng dữ liệu tới đúng đích
Hình 1-2 cung cấp cái nhìn tổng quan về các khối chức năng chính, cũng như các luồng thông tin điều khiển và dữ liệu giữa bộ định tuyến và máy trạm sử dụng giao thức RSVP.
Hình 1-2 Thông tin luồng dữ liệu và điều khiển của router và máy trạm sử dụng RSVP ứng dụng
Bé ph©n loại gói Bộ xếp lịch gói
Kiểm soát tiÕp nhËn ROUTER
RSVP trong các HOST và ROUTER
Số liệu Các gói RSVP/kiểm soát
RSVP daemon trong bộ định tuyến giao tiếp với hai khối chức năng chính là kiểm soát tiếp nhận và kiểm soát chính sách trước khi thực hiện việc dành trước tài nguyên Kiểm soát tiếp nhận xác định xem nút mạng có đủ tài nguyên để đảm bảo QoS yêu cầu hay không, trong khi kiểm soát chính sách quyết định quyền hạn của người sử dụng trong việc dành riêng tài nguyên Nếu kiểm tra thất bại, thông báo lỗi sẽ được gửi đến ứng dụng yêu cầu; nếu thành công, RSVP daemon sẽ thiết lập các tham số trong bộ phân loại gói và bộ xếp lịch gói để đạt được QoS mong muốn Bộ phân loại gói xác định loại QoS cho từng gói tin, trong khi bộ xếp lịch gói quản lý việc truyền gói tin dựa trên lớp QoS của nó, sử dụng các thuật toán như Weighted Fair Queuing (WFQ) và Weighted Random Early Detection để hỗ trợ xếp lịch cho QoS.
Trong quá trình kiểm soát tiếp nhận, một bản tin được gửi trước để xác định dung lượng yêu cầu nếu vẫn còn đủ dung lượng cho lưu lượng đó Nếu yêu cầu tiếp nhận bị từ chối, lưu lượng sẽ được chuyển tiếp theo dịch vụ mặc định Thậm chí, một yêu cầu tiếp nhận thất bại tại một hoặc nhiều bộ định tuyến vẫn có thể cung cấp chất lượng chấp nhận được, giống như khi yêu cầu thành công, do các dành trước khác có thể không sử dụng hết dung lượng đã được phân bổ.
Các thông tin dành trước cần phải được truyền tải qua cùng một đường dẫn unicast hoặc trên cây multicast liên tục Khi có sự cố xảy ra với kết nối, bộ định tuyến sẽ thông báo cho daemon RSVP, từ đó tạo ra các bản tin RSVP mới trên tuyến kết nối thay thế.
Có thể phân chia quá trình thiết lập việc dành trước thành 5 bước:
1 Bộ truyền dữ liệu gửi đi các bản tin điều khiển RSVP PATH theo cùng một cách gửi dữ liệu thông thường Các bản tin này mô tả dữ liệu chúng đang gửi hoặc định gửi
2 Mỗi bộ định tuyến RSVP thu các bản tin PATH, lưu địa chỉ IP chặng trước đó, ghi địa chỉ của nó như là địa chỉ của chặng trước đó và gửi đi bản tin cập nhật trên cùng tuyến mà dữ liệu ứng dụng đang sử dụng
3 Các trạm thu lựa chọn subnet của các phiên mà chúng nhận thông tin PATH và yêu cầu các dành trước tài nguyên RSVP từ bộ định tuyến chặng trước đó sử dụng bản tin RSVP RESV Các bản tin RSVP RESV đi từ bộ thu đến bộ phát theo đường ngược lại đúng như so với đường dẫn lấy bởi các bản tin RSVP PATH
4 Các bộ định tuyến RSVP quyết định xem chúng có thể chấp nhận các yêu cầu RESV Nếu chúng không thể, chúng sẽ từ chối các yêu cầu dành trước này
Nếu chúng có thể, chúng sẽ hợp các yêu cầu dành trước nhận được và yêu cầu dành trước từ bộ định tuyến chặng trước đó
5 Bộ phát nhận các yêu cầu dành trước từ các bộ định tuyến chặng kế tiếp, cho biết rằng các dành trước đã được thực hiện Lưu ý rằng việc cấp phát dành trước thực tế được thực hiện bởi các bản tin RESV
Hình 1-3 chỉ ra cơ chế thiết lập dành trước RSVP
Hình 1-3 Cơ chế thiết lập dành trước RSVP
Một luồng đơn lẻ được hình thành từ các gói tin di chuyển từ ứng dụng trên máy nguồn đến ứng dụng trên máy đích FlowSpec định nghĩa các yêu cầu của luồng liên quan đến việc kiểm soát tiếp nhận.
Các trách nhiệm hoạt động của ba thành phần RSVP nhƣ sau:
Bộ phát RSVP là ứng dụng tạo lưu lượng trong phiên RSVP Các chỉ tiêu luồng ồng mà bộ phát RSVP có thể gửi qua mạng RSVP là:
Tốc độ dữ liệu trung bình
Kích cỡ bursts cực đại Một mạng router có chức năng RSVP cung cấp đường dẫn giữa các bộ phát và thu RSVP
Bộ thu RSVP là ứng dụng nhận lưu lượng trong phiên RSVP, có thể hoạt động như bộ phát và bộ thu trong các ứng dụng VoIP và hội nghị Các chỉ tiêu luồng mà bộ thu RSVP gửi qua mạng RSVP rất quan trọng cho việc quản lý lưu lượng.
- Tốc độ dữ liệu trung bình
- Kích cỡ bursts cực đại QoS bao gồm:
Các bản tin PATH cũng mô tả trễ trường hợp xấu nhất trên mạng
Dịch vụ tải kiểm soát
Các bộ định tuyến chỉ đảm bảo rằng trễ mạng sẽ đƣợc cực đại
Các kiểu dành trước
Ta có thể phân loại các dành trước luồng RSVP thành hai loại chính – riêng biệt và chia xẻ - đƣợc thảo luận trong các phần sau
Các ứng dụng yêu cầu truyền tải đồng thời nhiều nguồn dữ liệu đa dạng, đặc biệt trong lĩnh vực video, mỗi bộ phát cần phát đi một dòng dữ liệu riêng biệt Điều này đòi hỏi kiểm soát tiếp nhận và quản trị hàng đợi riêng cho từng bộ phát trong các bộ định tuyến trên đường đến bộ thu Do đó, việc dành trước riêng rẽ cho mỗi bộ phát trên mỗi kết nối là cần thiết để đảm bảo chất lượng truyền tải.
Các dành riêng riêng biệt là rõ ràng về bên phát và đƣợc cài đặt sử dụng kiểu dành riêng Fixed Filter (FF)
Các ứng dụng unicast hình thành trường hợp dành riêng riêng biệt đơn giản nhất, trong đó chỉ có một bên phát và một bên thu
Chia sẻ tài nguyên dành riêng là cần thiết cho các ứng dụng yêu cầu nguồn dữ liệu đa dạng không đồng thời, như trong trường hợp các ứng dụng âm thanh số hóa như VoIP Với số lượng ít người nói cùng lúc, số bộ phát hoạt động cũng bị giới hạn, do đó không cần dự phòng riêng cho từng bộ phát Thay vào đó, chỉ cần một hệ thống chia sẻ tài nguyên dành riêng cho các bộ phát trong nhóm, giúp tối ưu hóa hiệu suất và giảm thiểu chi phí.
Hình 1-4 Ví dụ về ba kiểu bộ lọc dành riêng
RSVP đề cập đến luồng chia sẻ và cài đặt nó thông qua phạm vi dành riêng rõ ràng hoặc wildcard Bài viết này sẽ thảo luận về hai loại dành riêng này.
Kiểu dành riêng Shared Explicit (SE) quy đinh cụ thể các luồng dành riêng tài nguyên mạng
Wildcard Filter (WF) được thiết kế để quản lý dải thông và các đặc tính trễ cho mọi bộ phát WF không phân biệt giữa các bộ phát mà chấp nhận tất cả, điều này được thể hiện qua việc thiết lập địa chỉ nguồn và cổng về 0.
Hình 1-4 minh hoạ ba loại bộ lọc dành riêng mô tả trước đây.
Kiểu dịch vụ
RSVP cung cấp hai loại dịch vụ kết hợp mà các bộ thu có thể yêu cầu thông qua các bản tin RSVP RESV: dịch vụ tải kiểm soát và tốc độ bít bảo đảm.
Dịch vụ tải kiểm soát đảm bảo rằng các luồng dữ liệu dành riêng đến đích với nhiễu tối thiểu từ lưu lượng best-effort Các luồng này được tách biệt, giúp bảo vệ chất lượng và hiệu suất của từng luồng khỏi ảnh hưởng của các luồng dành riêng khác có thể tồn tại trên mạng.
Dịch vụ tải kiểm soát là giải pháp quan trọng cho các ứng dụng nhạy cảm với tình trạng quá tải trên internet Những ứng dụng này thường hoạt động hiệu quả trong điều kiện mạng không tải, nhưng sẽ gặp vấn đề nghiêm trọng khi mạng bị quá tải Một ví dụ điển hình cho loại ứng dụng này là dịch vụ File Transfer Protocol (FTP).
1.6.3.2 Tốc độ Bit bảo đảm
Dịch vụ tốc độ bit bảo đảm cung cấp dịch vụ không có mất dữ liệu và độ trễ được giới hạn cho tất cả dữ liệu, giả định rằng không có lỗi trong các thành phần mạng hoặc thay đổi định tuyến Dịch vụ này giúp mạng giảm thiểu tác động từ lưu lượng best-effort và đảm bảo sự cô lập giữa các luồng dữ liệu dành riêng.
Dịch vụ bảo đảm chỉ đảm bảo trễ xếp hàng trong trường hợp xấu nhất, không phải là trễ trung bình hay nhỏ nhất Để tính toán trễ cực đại, cần xác định trễ cố định của đường dẫn và cộng thêm vào trễ xếp hàng trường hợp xấu nhất Cần lưu ý rằng dịch vụ này chỉ bảo đảm trễ xếp hàng cực đại, không phải trễ end-to-end tổng thể cực đại, vì các thành phần khác của trễ tổng cộng như trễ truyền dẫn phụ thuộc hoàn toàn vào đường truyền lưu lượng.
Trễ xếp hàng là tình huống xấu nhất mà dịch vụ bảo đảm hứa, được theo dõi qua bản tin PATH trước khi đến bộ thu Các bản tin PATH chứa thông tin về độ trễ từ nguồn đến bộ thu, giúp bộ thu ước đoán chính xác các điều kiện trễ trên đường dẫn tại mọi thời điểm.
Bộ thu sử dụng thông tin trễ đó trong khi thực hiện yêu cầu đối với dịch vụ bảo đảm
Dịch vụ bảo đảm phù hợp tốt với các ứng dụng thời gian thực và playback
Các ứng dụng playback sử dụng bộ đệm jitter để bù đắp cho các biến đổi trễ của gói tin Để đảm bảo trễ xếp hàng trong trường hợp xấu nhất, dịch vụ bảo đảm ước lượng kích thước bộ đệm jitter cần thiết Các ứng dụng thời gian thực được cung cấp dịch vụ với trễ và băng thông được đảm bảo.
Cả dịch vụ tốc độ bit bảo đảm và tải kiểm soát đều sử dụng bucket thẻ bài để mô tả các tham số lưu lượng của luồng dữ liệu Bucket thẻ bài là một cơ chế kiểm soát tốc độ, giúp xác định tốc độ trung bình, kích thước khối dữ liệu và khoảng thời gian đo.
Trong cả hai dịch vụ, bộ thu cần một tốc độ bit nhất định và kích thước khối dữ liệu trong bản tin RESV Bộ lập lịch WFQ và các kỹ thuật quản lý hàng đợi WRED với trọng số đảm bảo rằng lưu lượng đến bộ thu có độ trễ giới hạn Dịch vụ tải kiểm soát cam kết cung cấp “dịch vụ tốt”, trong khi dịch vụ bảo đảm cung cấp thông tin để tính toán các giới hạn trễ.
Tính quy mô của RSVP
Một nhược điểm của RSVP là lượng thông tin trạng thái yêu cầu gia tăng theo số lượng dành riêng cho mỗi luồng Với hàng trăm nghìn luồng multicast và unicast có thể tồn tại trên mạng Internet cùng một thời điểm, việc phân bổ thông tin trạng thái cho từng luồng trở nên không hợp lý.
RSVP là một giao thức hiệu quả cho các mạng intranet tầm trung với tốc độ kết nối DS3 hoặc thấp hơn Trong các mạng intranet lớn và mạng trục ISP, RSVP hoạt động tốt hơn khi áp dụng yêu cầu cho các nhóm multicast lớn, các lớp tĩnh lớn hoặc tập hợp các luồng tại biên mạng, thay vì chỉ dành riêng cho từng luồng.
Cấu trúc dịch vụ có phân loại (Differentiated Services Architecture)
Cấu trúc diffserv
Phương thức DiffServ cung cấp chất lượng dịch vụ (QoS) thông qua một tập hợp các khối chức năng rõ ràng, cho phép xây dựng các dịch vụ mạng khác nhau Nó định nghĩa byte dịch vụ có phân loại (DS byte), byte dạng dịch vụ trong IPv4 và byte loại lưu lượng trong IPv6, nhằm đánh dấu gói tin với byte DS chuẩn hoá để nhận được đặc tính truyền theo chặng (PHB) tại mỗi nút mạng Cấu trúc DiffServ tạo ra một Framework cho phép nhà cung cấp dịch vụ đưa ra nhiều loại dịch vụ mạng khác nhau, phân biệt bởi chất lượng vận hành Khách hàng có thể lựa chọn mức độ chất lượng cần thiết bằng cách đánh dấu trường mã dịch vụ có phân loại (DSCP) của gói với giá trị cụ thể.
Giá trị PHB xác định gói dịch vụ trong mạng của nhà cung cấp, với việc nhà cung cấp và khách hàng thường đàm phán về tốc độ lưu lượng cho từng mức dịch vụ Các gói ngoài profile đã thoả thuận có thể không nhận được mức độ dịch vụ yêu cầu Cấu trúc diffserv cung cấp cơ chế xử lý gói tin, cho phép xây dựng nhiều dịch vụ khác nhau như các khối chức năng Mỗi dịch vụ định nghĩa các đặc tính nổi bật về truyền tải như thông lượng, trễ, trượt và mất gói, đồng thời có thể được xác định theo tiêu chí ưu tiên truy cập tài nguyên mạng Khi dịch vụ được định nghĩa, PHB sẽ được xác định trên tất cả các nút mạng và DSCP sẽ được gán cho PHB đó PHB là cách thức chuyển tiếp mà nút mạng dành cho các gói mang cùng một DSCP, trong khi lưu lượng yêu cầu mức độ dịch vụ tương ứng với giá trị DSCP trong các gói của nó.
Hình 1-5 Tổng quan về Diffserv
Trong miền Diffserv, tất cả các nút thực thi PHB dựa trên trường DSCP trong gói Các nút mạng tại biên của miền này có vai trò quan trọng trong việc điều hoà lưu lượng vào miền, bao gồm phân loại gói và khống chế lưu lượng, thường được thực hiện trên giao diện đầu vào Điều hoà lưu lượng là yếu tố chủ chốt trong việc vận chuyển lưu lượng bên trong miền Diffserv, giúp mạng thực thi PHB cho tất cả lưu lượng vào miền Cấu trúc Diffserv được mô tả trong Hình 1-5, với hai khối chức năng chính được chỉ rõ trong bảng 1-2.
Bảng 1-2 Các khối chức năng trong cấu trúc Diffserv
Vị trí trong mạng Chức năng chính Hoạt động
Khối điều hoà lưu lượng
Thường ở trên các giao diện đầu vào trên bộ định tuyến biên của miền diffserv
Phân loại gói, định dạng và khống chế lưu lượng
Khống chế lưu lƣợng đến và thiết lập trường DSCP dựa trên profile lưu lượng
PHB Tất cả các Router trong toàn miền Diffserv
Khống chế loại bỏ gói
PHB đƣợc áp dụng cho các gói dựa trên đặc tính dịch vụ đƣợc định nghĩa bởi DSCP
Hình 1-6 Mô hình hoạt động QoS tổng quát
Ngoài hai chức năng chính trên, chính sách phân bổ tài nguyên đóng vai trò quan
Per-hop behavior Khối điều hoà lưu lượng biên mạng khối phân loại và đánh dấu gói
Khống chế và định dạng lưu lượng khối xếp lịch là yếu tố quan trọng trong chính sách phân bổ tài nguyên Chính sách này bao gồm việc loại bỏ gói trọng để xác định quy định kiểm soát tiếp nhận và tỷ số tài nguyên được phân bổ trước mức tối đa.
Mô hình hoạt động QoS tổng quát đƣợc miêu tả trong hình 1-6
Điểm mã dịch vụ có phân loại (DSCP)
Người dùng có thể đánh dấu 6 bit trong byte ToS của tiêu đề IP để xác định DSCP Hai bit bậc thấp nhất hiện tại không được sử dụng (CU) DSCP cung cấp khả năng mở rộng thêm cho việc phân loại lưu lượng mạng.
DSCP, giống như IP precedence, cho phép phân loại và xử lý khác nhau cho các gói tin được đánh dấu Hình 1-7 mô tả byte ToS, hiện được gọi là byte DS, trong khi Hình 1-8 cung cấp hình ảnh về byte DS.
DSCP đƣợc định nghĩa bởi IETF Working Group nhƣ sau [6]:
Nó đƣợc định nghĩa là 000 000
• DSCP lựa chọn loại Chúng được định nghĩa để tương thích ngược với IP precedence và có giá tri nhƣ trong bảng sau: IP precedence và DSCP
Bảng 1-3 IP precedence và DSCP Các lựa chọn loại dịch vụ DSCP
• Expedited Forwarding (EF) PHB- định nghĩa dịch vụ đặc biệt DSCP khuyến nghị là 101110
Assured Forwarding (AF) PHB định nghĩa bốn mức độ dịch vụ, mỗi mức độ có ba mức ưu tiên để loại bỏ gói Kết quả là, AF PHB được đề xuất với 12 điểm mã, được mô tả chi tiết trong bảng 1-4.
Bảng 1-4 AF PHB Ƣu tiên loại bỏ gói
Hình 1-7 Byte ToS theo RFC 1349
Khối điều hoà lưu lượng biên mạng
Khối điều hoà lưu lượng đóng vai trò quan trọng trong việc đảm bảo các chức năng QoS cần thiết cho biên mạng Nút biên mạng thực hiện việc phân loại và đánh dấu lưu lượng thông qua việc thiết lập trường DSCP, đồng thời giám sát lưu lượng vào mạng để đảm bảo rằng nó tuân thủ theo các profile đã định.
DSCP là trường cho biết gói sẽ được xử lý ra sao trong một miền diffserv
Chức năng này được thực hiện thông qua khối phân loại gói, khối đánh dấu DSCP, và chức năng đo lưu lượng, kết hợp với hoạt động của bộ định dạng và bộ loại bỏ gói.
Những chức năng này sẽ đƣợc miêu tả vắn tắt sau đây
Khối phân loại có khả năng chọn một gói trong dòng lưu lượng dựa vào nội dung của phần nào đó trong mào đầu gói Đây là phương pháp phổ biến nhất để phân loại lưu lượng dựa trên trường DSCP, nhưng cũng có thể phân loại dựa trên các trường khác trong mào đầu gói Chức năng này giúp nhận diện loại lưu lượng của gói.
Chức năng này giúp cho việc ghi/ghi lại trường DSCP của gói dựa trên lloại lưu lượng của nó Đo đạc
Chức năng đo kiểm tra tính tương thích của lưu lượng dựa trên mô tả lưu lượng như giỏ thẻ bài (token bucket) Kết quả được chuyển đến khối đánh dấu, sau đó đến khối định dạng hoặc khối loại bỏ gói, nhằm kích hoạt các hoạt động cho các gói phù hợp và không phù hợp với profile.
Chức năng Shaper giúp điều chỉnh lưu lượng mạng bằng cách đệm một số gói dữ liệu để chúng phù hợp với profile đã định sẵn Quá trình này được biết đến với tên gọi là định dạng lưu lượng.
Chức năng loại bỏ gói loại bỏ tất cả lưu lượng không đúng với profile lưu lượng Hoạt động này còn được gọi là khống chế lưu lượng.
Đặc tính truyền theo chặng (PHB)
Nút mạng hỗ trợ DiffServ sử dụng trường DSCP trong tiêu đề IP để chọn một PHB cụ thể cho từng gói dữ liệu PHB là phương pháp chuyển tiếp mà nút mạng áp dụng cho tất cả các gói có cùng một giá trị DSCP nhất định.
Một PHB có thể được định nghĩa dựa trên tiêu chí quyền ưu tiên tài nguyên tương đối so với các PHB khác hoặc so với các đặc tính dịch vụ lưu lượng như độ trễ gói, tỷ lệ mất gói, và trượt gói.
Trong một mạng diffserv, cách thức best-effort đƣợc xem là PHB mặc định
Diffserv đề xuất các giá trị DSCP cụ thể cho từng PHB, tuy nhiên, nhà cung cấp dịch vụ mạng có thể lựa chọn sử dụng trường DSCP khác với các giá trị được khuyến nghị Giá trị DSCP cho phương thức best-effort là 000000.
PHB của một loại lưu lượng cụ thể phụ thuộc một số nhân tố sau:
• Tốc độ đến (hay tải) cho loại lưu lượng Tốc độ đến được điều khiển bởi khối điều hoà lưu lượng tại biên mạng
• Phân bổ tài nguyên cho loại lưu lượng Việc này đƣợc điều khiển bởi khối phân bổ tài nguyên trên các nút trong miền iffserv
• Mất lưu lượng phụ thuộc chính sách loại bỏ gói của các nút trong miền diffserv
Hai dạng PHB là EF và AF đã đƣợc tiêu chuẩn hoá
EF PHB có thể được sử dụng để phát triển dịch vụ end-to-end với các đặc điểm như độ mất gói thấp, độ trễ thấp, độ trượt gói thấp và dải thông đảm bảo trong miền diffserv.
EF PHB là lựa chọn lý tưởng cho các ứng dụng thoại trên nền IP (VoIP) và hội nghị truyền hình, cũng như các dịch vụ kênh thuê riêng ảo, vì nó cung cấp kết nối điểm - điểm cho các nút đầu cuối trong mạng diffserv Dịch vụ này được xem là dịch vụ đặc biệt, nhưng thường gặp vấn đề về trễ gói và trượt gói do trễ xếp hàng từ các hàng đợi dài tích lũy, thường xảy ra tại các điểm tắc nghẽn mạng Tắc nghẽn xảy ra khi tốc độ gói đến vượt quá tốc độ gói đi ra, và để giảm thiểu trễ xếp hàng, tốc độ đến tối đa cần phải nhỏ hơn tốc độ đi ra tối thiểu.
EF thiết lập tốc độ gói đi ra và cho phép điều khiển lưu lượng đến tại nút bằng cách sử dụng các khối điều hoà lưu lượng ở biên mạng PHB EF cần đảm bảo lưu lượng gặp ít hàng đợi, do đó cần cấu hình tốc độ truyền gói sao cho bằng hoặc nhỏ hơn tốc độ gói đến Tốc độ truyền gói phải độc lập với các lưu lượng khác Tốc độ gói đến và đi được đo bằng thời gian cần thiết để truyền một gói có kích thước tối đa (MTU) của đường truyền.
Router có thể phân phối tài nguyên cho tốc độ gói trên một giao diện bằng cách sử dụng các kỹ thuật hỗ trợ EF như Xếp hàng theo trọng số phân loại (CBWFQ), Weighted Round Robin (WRR), và Deficit Round Robin (DRR) Những kỹ thuật này cho phép truyền tải lưu lượng EF qua hàng đợi có trọng số lớn hơn nhiều so với lưu lượng thực tế Bên cạnh đó, có thể điều chỉnh các kỹ thuật xếp lịch để ưu tiên cho hàng đợi lưu lượng EF, nhưng cần đảm bảo rằng hàng đợi này không chiếm dụng quá nhiều tài nguyên của các hàng đợi khác Để kiểm soát vấn đề này, người dùng có thể thiết lập tốc độ tối đa cho lưu lượng EF trong hàng đợi ưu tiên, và nếu lưu lượng vượt quá giới hạn, phần dư thừa sẽ bị loại bỏ Hệ thống điều hòa lưu lượng biên mạng sẽ được cấu hình để đảm bảo lưu lượng EF không bao giờ vượt quá tốc độ tối đa đã thiết lập tại bất kỳ điểm nào trong mạng.
DSCP được khuyến nghị sử dụng cho lưu lượng EF trong mạng là 101110
AF PHB là công cụ cho phép nhà cung cấp dịch vụ quản lý các mức độ khác nhau trong việc đảm bảo chuyển tiếp gói IP từ miền diffserv của khách hàng Công cụ này rất phù hợp với hầu hết các ứng dụng dựa trên TCP.
AF PHB cung cấp bốn loại lưu lượng dịch vụ phân biệt, mỗi loại được phục vụ trong hàng đợi riêng biệt Điều này cho phép quản lý dung lượng độc lập cho từng loại lưu lượng Bên trong mỗi loại AF, có ba mức ưu tiên loại bỏ gói (thấp, trung bình, cao) nhằm hỗ trợ quản lý hàng đợi theo kiểu Phát hiện sớm ngẫu nhiên (Random Early Detection).
Chính sách phân bổ tài nguyên
Phần trên đã nói về các PHB diffserv đã đƣợc định nghĩa trong một mạng
Lưu lượng được điều hòa tại biên và tài nguyên phân bổ trong mạng nhằm đạt được PHB mong muốn thông qua ba giải pháp chính: provisioning mạng, báo hiệu QoS và khối quản lý chính sách.
Giải pháp phân bố tài nguyên trong mạng sử dụng các phương pháp tự khám phá và kỹ thuật mô hình hệ thống để cung cấp tài nguyên hiệu quả Tuy nhiên, phương pháp này chỉ khả thi trong môi trường mạng nhỏ, nơi mà chính sách QoS và profile lưu lượng mạng không thay đổi thường xuyên.
Hình 1-9 Tín hiệu RSVP qua một mạng Diffserv
Trong phương pháp này, các ứng dụng sử dụng giao thức RSVP để báo hiệu yêu cầu QoS Trong bối cảnh này, miền diffserv được coi như một đường truyền riêng biệt trong mạng để kiểm soát tiếp nhận QoS có thể được kết hợp giữa RSVP và các loại diffserv, chẳng hạn như dịch vụ đảm bảo RSVP có thể được tích hợp vào dịch vụ EF diffserv QoS Giải pháp này đặc biệt hữu ích cho các môi trường mạng quy mô lớn, vì RSVP chỉ hoạt động tại các biên mạng, trong khi diffserv được áp dụng trong toàn bộ mạng Sự kết hợp giữa RSVP và diffserv diễn ra tại biên của mạng diffserv, với sự hỗ trợ rộng rãi cho RSVP.
Dịch vụ có phân loại
RSVP toàn trình đi qua một mạng dịch vụ có phân loại
Mạng dịch vụ được phân loại, ví dụ như hệ điều hành Microsoft Windows 2000 hỗ trợ RSVP, cho phép các ứng dụng policy-aware tại biên mạng sử dụng RSVP để báo hiệu QoS mà không lo ngại về quy mô Giải pháp này rất phù hợp cho các mạng doanh nghiệp quy mô lớn.
RSVP có khả năng hỗ trợ tới mức vài nghìn phiên theo luồng chạy đồng thời
Nhiều yêu cầu dành trước RSVP được tổng hợp thành một tập hợp duy nhất cho việc triển khai RSVP trên diện rộng, giúp giảm thiểu thông tin trạng thái trong lõi mạng Tập hợp này có tính chất thay đổi chậm, tương tự như yêu cầu dành trước RSVP thông thường, có thể được kết hợp với một loại Diffserv.
Quản lý chính sách QoS Định nghĩa chính sách xác định QoS được áp dụng cho một luồng lưu lượng
Chính sách nhận biết lưu lượng ứng dụng là yếu tố quan trọng trong mạng, quy định mức QoS cho từng ứng dụng Để đảm bảo QoS, cần có cấu hình chính sách đồng nhất tại tất cả các nút mạng Trong mạng nhỏ, kỹ sư có thể dễ dàng cấu hình thông qua Router, nhưng trong mạng lớn, việc này trở nên phức tạp và khó quản lý Để thực hiện QoS end-to-end, các chính sách phải được áp dụng đồng bộ trên tất cả các nút Do đó, việc sử dụng một người quản lý chính sách tập trung sẽ giúp định nghĩa và cấp phát chính sách cho toàn bộ thiết bị trong mạng, làm cho nhiệm vụ quản lý trở nên dễ dàng hơn.
Dịch vụ chính sách mở chung (Common Open Policy Service - COPS) là giao thức do IETF phát triển nhằm phân phối chính sách mạng Trong hệ thống COPS, Điểm quyết định chính sách (Policy Decision Point - PDP) là máy chủ chính sách trung tâm, trong khi Nút thực thi chính sách (Policy Enforcement Point - PEP) là các thiết bị mạng thực hiện hoặc hỗ trợ chính sách PDP sử dụng giao thức COPS để tải xuống các chính sách vào các PEP trong mạng, và PEP có khả năng gửi tin nhắn đến PDP nếu không thực hiện được chính sách đã được chỉ định.
Mức ưu tiên IP và DSCP
Cấu trúc Diffserv yêu cầu các khối điều hoà lưu lượng tại biên mạng, khối cấp phát tài nguyên và chức năng loại bỏ gói trong lõi mạng để cung cấp dịch vụ EF và AF Do DSCP ban đầu chưa được định nghĩa rõ ràng, cấu trúc Diffserv ban đầu sử dụng 3 bit IP precedence để hỗ trợ.
Trường IP precedence trước đây được sử dụng để đánh dấu chất lượng dịch vụ (QoS) trong các gói IP Cả 3 bit IP precedence và 6 bit trường DSCP đều phục vụ mục đích đánh dấu gói tại biên mạng và kích hoạt các hoạt động xếp hàng trong mạng diffserv Đặc biệt, trường DSCP được định nghĩa tương thích ngược với các giá trị IP precedence, giúp việc hỗ trợ DSCP không yêu cầu thay đổi cấu trúc và chức năng hiện tại Trong tương lai gần, tất cả các chức năng IP QoS sẽ đồng thời hỗ trợ cả trường DSCP và IP precedence.
CÁC CƠ CHẾ THỰC HIỆN INTSERV VÀ DIFFSERV ÁP DỤNG
Định dạng lưu lượng
Hình 2-5 Quá trình định dạng lưu lượng
Lượng phát yêu cầu Gói tin đưa ra
Tốc độ định dạng Phân loại Gói tin đến
TS là cơ chế giúp điều chỉnh luồng lưu lượng trên giao diện, nhằm ngăn chặn tình trạng nghẽn mạng và đáp ứng yêu cầu của nhà cung cấp dịch vụ.
TS làm mịn lưu lượng burst để đạt CIR bằng cách xếp hàng và đệm các gói vượt quá tốc độ trung bình Các gói tin trong hàng được phát đi khi có token Quá trình truyền và xếp hàng được thực hiện theo quy tắc FIFO hoặc xếp hàng theo trọng số (WFQ) Quá trình TS được minh họa trong Hình 2-5.
2.1.4.1 Thiết bị đo lưu lượng dùng cho định dạng lưu lượng
TS sử dụng token bucket để đo lưu lượng, từ đó phân loại một gói tin có phù hợp hay không
Hình 2-6 Nguyên lý token bucket cho chức năng định dạng lưu lượng
Các thẻ bài tuơng ứng với mức Bc đuợc cộng thêm sau mỗi khoảng thêi gian T víi T/CIR
Các thẻ bài tràn bị loại bỏ
Nếu có đủ thẻ bài tuơng ứng với kích th-ớc của gói mới thì gói đ-ợc truyền đi và l-ợng thẻ bài t-ơng ứng bị loại khái bucket
KÝch th-íc bucket Bc+Be
Kích thước tối đa của token bucket được xác định bởi tổng kích thước burst phù hợp Bc và kích thước burst mở rộng BE Các token tương ứng với Bc được thêm vào bucket theo từng khoảng thời gian T, với T = Bc / CIR, trong đó CIR là tốc độ trung bình cho phép của luồng lưu lượng Khi bucket đầy, bất kỳ token nào thêm vào sẽ bị tràn Khi một gói tin đến, token bucket sẽ được kiểm tra để xác định xem có đủ token để gửi gói đó hay không Nếu đủ token, gói tin sẽ được đánh dấu là thích hợp và số lượng token tương ứng với kích thước gói sẽ bị loại ra khỏi bucket Ngược lại, nếu không đủ token, gói tin sẽ bị đánh dấu là không phù hợp và sẽ được xếp hàng để truyền lại sau Token bucket TS được minh họa trong Hình 2-6.
2.1.4.2 Định dạng lưu lượng chung (GTS) và Định dạng lưu lượng phân bố (DTS)
Bảng 2-4 Sự so sánh giữa hai cơ chế TS: GTS và DTS
Thuộc tính đặc trƣng GTS DTS
Thứ tự quá trình phát những gói trong bộ đệm
Sử dụng WFQ nhƣ một thuật toán xếp lịch
Có thể dùng hoặc là FIFO hay WFQ phân bố (DWFQ) nhƣ là một thuật toán xếp lịch
Chỉ tiêu phù hợp lưu lƣợng
Có hai chế độ: Hoặc là tất cả lưu lượng, hay lưu lƣợng phù hơp vơi một danh sách truy cập IP đơn giản hay mở rộng
Các loại lưu lượng đƣợc định nghía bởi người sử dụng thông qua một trong những đặc trƣng phân loại (CAR hay
Loại thiết bị hỗ trợ Tất cả những dòng router có bộ xử lý đơn (Không đƣợc phân phối)
Giao thức hỗ trợ Tất cả các giao thức Chỉ giao thức IP
Chúng ta có thể hoàn tất việc định dạng lưu lượng trên bất kỳ giao diện cơ bản nào bằng cách sử dụng hai cơ chế: định dạng lưu lượng chung (GTS) và định dạng lưu lượng phân bố (DTS) Bảng 2-4 cung cấp sự so sánh giữa hai cơ chế này.
Chú ý: TS chỉ hoạt động đối với lưu lượng ngoài biên, TS không thể được áp dụng cho lưu lượng bên trong đối với một giao diện
Bộ điều hoà lưu lượng biên mạng đóng vai trò quan trọng trong việc phân loại gói tin, đánh dấu và quản lý tốc độ lưu lượng Việc phân loại gói tin tại biên mạng giúp đảm bảo rằng chúng nhận được các dịch vụ khác nhau, tối ưu hóa hiệu suất mạng.
Phân loại gói tin là cần thiết để phân biệt các loại lưu lượng dựa trên mức độ dịch vụ Việc phân loại có thể thực hiện thông qua một hoặc nhiều trường trong tiêu đề IP Khi gói tin được nhận diện, chức năng đánh dấu sẽ tô màu gói bằng cách thiết lập mức ưu tiên IP, DSCP hoặc giá trị nhóm QoS.
Quản lý tốc độ lưu lượng trên router biên mạng là rất quan trọng để đảm bảo tài nguyên khả dụng và chất lượng dịch vụ (QoS) trong mạng lõi Công nghệ CAR được áp dụng để giới hạn tốc độ của bất kỳ lưu lượng nào cố gắng vượt qua mức đã được thiết lập.
CAR có khả năng gửi đi lưu lượng burst với tốc độ đường truyền cao, nhưng sẽ bắt đầu loại bỏ gói tin khi đạt đến tốc độ giới hạn Trong khi đó, TS giúp làm mịn lưu lượng bằng cách xếp hàng các gói tin và gửi chúng với tốc độ đã được thiết lập.
TS phù hợp với TCP hơn so với CAR, vì khi một gói tin bị mất, TCP có thể giảm kích thước cửa sổ xuống còn 1, dẫn đến tốc độ dòng TCP giảm xuống dưới mức cho phép Bằng cách chọn các tham số burst phù hợp theo từng ứng dụng TCP cụ thể, tốc độ dòng TCP có thể đạt được mức đã thiết lập.
Các cơ chế xếp lịch cho gói tin
Khi quá trình nghẽn mạch xảy ra, việc cấp phát tài nguyên cho một luồng trên bộ định tuyến phụ thuộc vào quy tắc xếp lịch cho các gói tin trong hệ thống hàng đợi Chương trình xếp lịch quyết định gói tin nào được phép rời khỏi hàng đợi Tần suất phục vụ các gói tin này sẽ xác định dải băng thông và mức độ cấp phát tài nguyên.
Cơ chế xếp lịch truyền thống trên Internet sử dụng phương pháp FIFO (first in first out), trong đó các gói tin được truyền theo thứ tự vào hàng đợi Mặc dù FIFO đơn giản và dễ thực hiện, nó không thể phân biệt giữa các luồng khác nhau Do đó, phương pháp này không thể đảm bảo chất lượng dịch vụ cho từng luồng ưu tiên, dẫn đến việc không thể cấp giới hạn chất lượng cho các luồng khác nhau.
Xếp hàng theo trọng số (WFQ) là cơ chế xếp lịch cho phép các luồng lưu lượng khác nhau có mức độ ưu tiên riêng trong hàng đợi Mỗi luồng hoặc loại lưu lượng được gán một trọng số, với tốc độ dịch vụ tương ứng với trọng số đó WFQ ưu tiên các luồng lưu lượng khác nhau và đảm bảo sự công bằng, đồng thời bảo vệ các luồng có trọng số theo nguyên lý cấp phát chia sẻ cân bằng Max - Min.
Hỗ trợ xếp lịch cho QoS
Tính linh hoạt của các gói tin trong mạng có thể dẫn đến tình trạng nghẽn mạch, đặc biệt tại các bộ định tuyến kết nối nhiều mạng với băng thông khác nhau Khi mạng không bị tắc nghẽn, không cần thực hiện xếp lịch, nhưng khi xảy ra nghẽn mạch, hàng đợi sẽ hình thành và thuật toán xếp lịch sẽ xác định thứ tự phục vụ các gói tin Để đảm bảo chất lượng dịch vụ (QoS), thuật toán xếp lịch cần phân biệt các gói tin trong hàng đợi và nhận biết mức dịch vụ của chúng Điều này đòi hỏi việc cấp phát tài nguyên dựa trên từng luồng hoặc tạo độ ưu tiên giữa các luồng khác nhau, có thể thực hiện ở cấp độ luồng hoặc loại lưu lượng từ các gói tin khác nhau Phân loại lưu lượng sẽ được thảo luận chi tiết trong phần 2.1.
Thuật toán xếp lịch đóng vai trò quan trọng trong việc đảm bảo sự công bằng và bảo vệ giữa các luồng có cùng quyền ưu tiên, như các luồng best-effort.
Các thuật toán xếp lịch cần phải dễ thực hiện và dễ điều khiển để đảm bảo tài nguyên cho các luồng yêu cầu.
Mặc dù phương pháp WFQ khó thi hành hơn phương pháp FIFO, nhưng nó hỗ trợ đầy đủ các yêu cầu về QoS mà FIFO không thể đáp ứng WFQ cũng tương thích với giao thức RSVP, cho phép quản lý tài nguyên hiệu quả hơn Ngoài ra, phương pháp này cung cấp quy trình điều khiển tiếp nhận cho các luồng báo hiệu yêu cầu dành trước tài nguyên thông qua RSVP.
Theo định luật bảo toàn từ lý thuyết xếp hàng, bất kỳ quy tắc xếp hàng nào chỉ có thể giảm độ trễ trung bình của một luồng trong khi làm tăng độ trễ ở một luồng khác Đôi khi, độ trễ được đánh đổi để cấp băng tần cho các luồng khác Khi một luồng được xử lý ưu đãi, các luồng khác sẽ chịu thiệt.
2.2.1 Xếp hàng Vào trước ra trước (FIFO)
Xếp hạng FIFO (First In, First Out) là cơ chế xếp hàng trong đó các gói được phục vụ theo thứ tự mà chúng đến, nghĩa là gói đầu tiên vào hàng sẽ là gói đầu tiên ra Hình 2-7 minh họa rõ ràng cách hoạt động của xếp hàng FIFO.
FIFO là cơ chế xếp hàng phổ biến nhất cho các router hiện nay, dễ thực hiện nhưng không phân biệt giữa các luồng, dẫn đến việc không thể ưu tiên chúng Cơ chế này không chỉ không ưu tiên một luồng so với các luồng khác mà còn không cung cấp sự bảo vệ hay bình đẳng cho các luồng có độ ưu tiên tương đương Điều này có nghĩa là một luồng lớn, hoạt động kém cũng chia sẻ tài nguyên như các luồng hoạt động tốt, theo nguyên lý điều khiển luồng thích nghi end-to-end, như điều khiển cửa sổ động TCP.
Với phương pháp FIFO, các luồng dữ liệu được phục vụ theo tỉ lệ tương đương với tốc độ gửi dữ liệu vào mạng, điều này dẫn đến sự không công bằng khi ưu đãi những luồng xấu, chiếm nhiều băng thông hơn so với những luồng hoạt động hiệu quả Do đó, bất kỳ thuật toán công bằng nào cũng cần phải có cơ chế bảo vệ chống lại những luồng xấu này.
2.2.2 Nguyên lý cấp phát chia xẻ công bằng Max-Min
Nguyên lý cấp phát công bằng được định nghĩa khi FIFO không phân bổ tài nguyên một cách công bằng giữa các luồng Một trong những nguyên lý phổ biến và được chấp nhận rộng rãi trong việc chia sẻ tài nguyên là nguyên lý chia xẻ công bằng max-min, đảm bảo mỗi luồng nhận được một phần tài nguyên công bằng.
Nhu cầu tài nguyên của người dùng rất đa dạng, vì vậy có thể phân loại họ theo mức độ tăng dần của nhu cầu này Cấp phát và chia sẻ tài nguyên một cách công bằng theo nguyên tắc max-min được định nghĩa như sau:
- Tài nguyên đƣợc phân phát theo nhu cầu tăng dần
- Không người dùng nào được cấp phát tài nguyên lớn hơn nhu cầu
- Người dùng với những nhu cầu không thỏa mãn sẽ được chia xẻ tài nguyên bằng nhau
Để hiểu cách tính cấp phát công bằng, hãy xem xét một ví dụ với tài nguyên có dung lượng 14 phục vụ 5 người dùng A, B, C, D, E với nhu cầu lần lượt là 2, 2, 3, 5, 6 Ban đầu, tài nguyên được chia đều cho mỗi người dùng, dẫn đến A và B nhận 2.8, trong khi họ chỉ cần 2, tạo ra 1.6 tài nguyên thừa Số tài nguyên thừa này được phân phối cho C, D, E, mỗi người nhận 3.33 Tiếp theo, người dùng C, có nhu cầu nhỏ nhất, được cấp phát 3.33 nhưng chỉ cần 3, dẫn đến 0.33 tài nguyên thừa Phần thừa này được chia cho D và E, mỗi người nhận 3.5.
Có thể tính cấp phát công bằng theo công thức:
Cấp phát công bằng = (Tổng tài nguyên – Lƣợng tài nguyên đã cấp phát cho người dùng)/Số lượng người dùng vẫn cần cầp phát tài nguyên
Ví dụ này được minh họa trong hình 2-8, 2-9, 2-10 Trong bước 1, nhu cầu của
Tài nguyên yêu cầu của A và B được đáp ứng đầy đủ trong phạm vi cấp phát công bằng Tuy nhiên, nhu cầu của C, D và E vượt quá mức cấp phát này, dẫn đến việc không thể đáp ứng Do đó, tài nguyên không sử dụng của A và B sẽ được phân phối đều cho C, D và E.
Hình 2-8 Cấp phát tài nguyên cho người dùng A và B
Cấp phát cân bằng (FA) = 14 - 0
Các cơ chế tránh tắc nghẽn và chính sách loại bỏ gói tin
Chính sách loại bỏ gói tin là thuật toán quản lý hàng đợi, giúp điều chỉnh việc xử lý các gói tin và kiểm soát chiều dài hàng đợi trong hệ thống.
Quản lý hàng đợi theo phương pháp vào trước, ra trước (FIFO) thường áp dụng cơ chế loại bỏ cuối hàng đơn giản (tail-drop policy), trong đó bất kỳ gói tin nào đến khi hàng đợi đã đầy sẽ bị rớt.
Giao thức TCP hiện đang là tiêu chuẩn chính cho việc truyền tải dữ liệu trên Internet Bài viết này sẽ tập trung vào cơ chế điều khiển tắc nghẽn của giao thức TCP, nhằm đảm bảo hiệu suất và độ tin cậy trong việc truyền tải thông tin.
TCP và lưu lượng TCP phản ứng với việc loại bỏ cuối hàng thông qua thuật toán quản lý hàng đợi tích cực, cụ thể là phát hiện sớm ngẫu nhiên (Random Early Detection - RED) Thuật toán này giúp ngăn ngừa nghẽn mạng bằng cách loại bỏ gói tin một cách chủ động, từ đó gửi tín hiệu cảnh báo về tình trạng nghẽn mạng đến các nguồn TCP với cơ chế kiểm soát phản hồi thích nghi toàn trình (end-to-end).
2.3.1 Khởi động chậm giao thức kiểm soát truyền dẫn (TCP Slow Start) và Loại trừ nghẽn
Nguồn TCP sử dụng cửa sổ nghẽn mạng để quản lý và loại trừ tình trạng nghẽn Khi một phiên TCP được thiết lập, cửa sổ nghẽn mạng được khởi tạo theo cơ chế khởi động chậm, với giá trị thường là một phân đoạn, tương ứng với kích thước lớn nhất của phân đoạn (MSS) mà đầu cuối đối diện thông báo hoặc cài đặt mặc định, thường là 536 bytes hoặc 512 bytes Cửa sổ nghẽn mạng xác định tổng dữ liệu lớn nhất mà người gửi có thể truyền qua phiên TCP mà không cần nhận được thông báo phúc đáp.
Khi gói tin đầu tiên được phúc đáp, nguồn TCP sẽ tăng kích thước cửa sổ lên
Tại thời điểm này, có thể gửi 2 gói tin Khi 2 gói tin được phúc đáp, kích thước cửa sổ sẽ tăng lên 4 Như vậy, kích thước cửa sổ sẽ tăng theo hàm mũ.
Việc tăng kích thước cửa sổ trong giao thức TCP không hoàn toàn chính xác theo hàm mũ, bởi vì bộ thu TCP không cần phải gửi phúc đáp cho mỗi gói tin Thay vào đó, nó thường sử dụng các phúc đáp trễ, gửi một phúc đáp cho cả hai gói tin mà nó nhận Nguồn TCP hoạt động theo thuật toán khởi động chậm, gửi các gói tin mới vào mạng với tốc độ phúc đáp nhận được từ đầu cuối đối diện, từ đó tạo ra sự tự đồng bộ trong TCP.
Trong giao thức TCP, mất gói tin là dấu hiệu của tắc nghẽn mạng Khi nguồn TCP không nhận được phản hồi cho một gói tin trong thời gian quy định (Retransmit Timer Timeout - RTT), nó sẽ nhận diện tình trạng tắc nghẽn Trong tình huống này, nguồn TCP sẽ đặt lại kích thước cửa sổ tắc nghẽn xuống còn 1 phân đoạn và khởi động lại thuật toán Slow-start Đồng thời, ngưỡng khởi động chậm (slow start threshold - ssthresh) cũng sẽ được giảm xuống một nửa kích thước cửa sổ tắc nghẽn tại thời điểm yêu cầu truyền lại Khi một phiên TCP được thiết lập, giá trị ssthresh sẽ được cài đặt bằng kích thước cửa sổ nhận mà đầu cuối đối diện thông báo, hoặc mặc định là 65,535 bytes.
Sau khi xảy ra timeout RTT, bên gửi áp dụng thuật toán khởi động chậm cho đến khi kích thước cửa sổ đạt ngưỡng ssthresh Sau đó, kích thước cửa sổ sẽ tăng lên gần như tuyến tính (1/cwnd) với mỗi phản hồi nhận được Tốc độ tăng kích thước cửa sổ chậm lại sau khi đạt ngưỡng ssthresh, vì ngưỡng này phản ánh tỷ lệ độ trễ và băng thông của kết nối TCP Thuật toán khởi động chậm và cơ chế loại trừ tắc nghẽn của TCP được minh họa trong hình 2-23.
Hình 2-23 Mô tả cửa sổ nghẽn mạng TCP khởi động chậm và các hoạt động tránh nghẽn mạng
Khi mất gói tin do nhiều nguyên nhân khác ngoài nghẽn mạng, việc chờ đợi thời gian RTT có thể ảnh hưởng tiêu cực đến hiệu suất, đặc biệt trong mạng tốc độ cao Để khắc phục tình trạng này, các thuật toán TCP truyền lại nhanh (TCP fast retransmit) và thuật toán khôi phục được áp dụng.
2.3.2 Hoạt động của lưu lượng TCP trong mô hình loại bỏ cuối hàng (Tail-
2 Hết thời gian định thời phát lại
3 Chống tắc nghẽn/tâng tuyến tính
Thêi gian Ng-ỡng khởi động chậm
Khi hàng đợi đạt kích thước tối đa, các gói tin mới sẽ bị loại bỏ cho đến khi kích thước hàng đợi giảm xuống nhờ việc truyền bớt gói tin Kỹ thuật quản lý hàng đợi này được gọi là loại bỏ cuối hàng (tail-drop).
Việc gói tin bị loại bỏ báo hiệu ngẽn mạng đến một nguồn TCP, trong khi cơ chế loại bỏ cuối hàng chỉ hoạt động khi hàng đợi đầy hoàn toàn Khi một gói tin bị loại bỏ, nguồn TCP sẽ giảm kích thước cửa sổ xuống còn một phân đoạn và bắt đầu chế độ khởi động chậm, dẫn đến giảm lưu lượng mạnh mẽ từ nguồn Với hàng nghìn luồng TCP đi qua một bộ định tuyến lõi trên Internet, kịch bản loại bỏ cuối hàng sẽ làm mất gói tin cho nhiều phiên TCP, khiến tất cả các nguồn TCP đồng loạt chậm lại Kết quả là lưu lượng đến hàng đợi giảm mạnh, dẫn đến giảm kích thước hàng đợi một cách đáng kể.
Hình 2-24 Đồng bộ toàn cục
Các nguồn TCP bắt đầu khởi động chậm với kích thước cửa sổ 1 phân đoạn và sau đó tăng kích thước cửa sổ theo hàm mũ, dẫn đến việc gia tăng lưu lượng tại hàng đợi Sự gia tăng lưu lượng này tạo ra các hàng đợi trở lại, gây ra hiện tượng loại bỏ gói tin Việc loại bỏ gói tin một lần nữa trở thành nguyên nhân chính cho các vấn đề về hiệu suất mạng.
1 Loại bỏ cuối hàng làm cho một lƣợng lớn các nguồn TCP đổi kích thước cửa sổ thành 1 và bước vào chế độ khởi động chậm trong cùng một lúc
2 Hoạt động khởi động chậm của một lƣợng lớn các nguồn TCP xảy ra cùng một lúc,
Chiều dài hàng đợi tổng cộng
Thời gian giảm tốc độ của nhiều nguồn TCP dẫn đến hiện tượng giảm lưu lượng mạng Khi các nguồn TCP tăng kích thước cửa sổ một cách đồng đều, điều này có thể gây ra tắc nghẽn và làm rớt các gói tin.
ĐO KIỂM MỘT SỐ CƠ CHẾ HOẠT ĐỘNG CỦA
Kết quả đo thông số Diffserv
CAR là một cơ chế QoS của CISCO, bao gồm các chức năng sau:
Gói đa trường có thể được phân loại thông qua danh sách truy cập mở rộng, cho phép định nghĩa các loại lưu lượng Việc đánh dấu hoặc đánh dấu lại gói là cần thiết, vì ngay cả những lưu lượng từ các ứng dụng không hỗ trợ diffserv cũng có thể được gán một mức ưu tiên nhất định Quá trình đánh dấu lại thường diễn ra tại các router ở biên mạng giữa hai miền diffserv, nhằm thay đổi mức ưu tiên cho phù hợp với chính sách của từng miền.
Khống chế tốc độ là việc xác định và giới hạn ngưỡng tối đa cho một loại lưu lượng mạng Chức năng này được sử dụng tại router biên mạng để thực hiện các thoả thuận về mức độ dịch vụ, giúp giới hạn lưu lượng ở một tốc độ nhất định Đây là một chức năng quan trọng nhằm đảm bảo việc phân bổ tài nguyên mạng một cách hợp lý.
Hình 3-1 Cấu hình đo tốc độ truy cập cam kết
Trên một giao diện, CAR có thể được thực hiện ở cả lưu lượng đầu vào và đầu ra trên cả các giao diện vật lý và giao diện logic
Bài đo Khống chế, trường hợp Exceed Action [20]
Khi tốc độ lưu lượng của một luồng vượt quá ngưỡng đã được thiết lập, lưu lượng thừa sẽ bị loại bỏ hoặc được truyền tiếp với mức ưu tiên khác, tùy thuộc vào cài đặt hành động vượt ngưỡng.
Tại INFN, lưu lượng được phát ra và thu tại DANTE hoặc SWITCH với tốc độ phát 1,3Mbps cho mỗi loại lưu lượng Dải băng thông của một kết nối là 2Mbps Đối với lưu lượng đến DANTE, hành động vượt quá (exceed action) là drop, trong khi đối với lưu lượng đến SWITCH, hành động vượt quá là đặt lại mức ưu tiên thành giá trị 0.
Bảng 3-1 so sánh các số liệu thông lƣợng đƣợc đo bởi hai bộ thu
Bảng 3-1 Ảnh hưởng của các exceed action CAR khác nhau lên lưu lượng UDP (thông lƣợng trên không bao gồm overhead)
Thông lƣợng tại phía thu (Mbps) SWITCH
Exceed action = set precedence to 0
Bảng kết quả chỉ ra rằng lưu lượng bị hạn chế về tốc độ sẽ bị loại bỏ, tương ứng với ngưỡng do CAR thiết lập cho lưu lượng đến DANTE Trong khi đó, đối với lưu lượng gửi đến SWITCH, dòng UDP có khả năng sử dụng thêm tài nguyên khi thông lượng vượt quá 800 Kbps.
Khi thực hiện CAR, tốc độ truyền của các luồng sẽ bị giới hạn dựa trên mức ưu tiên và tốc độ tối đa được chỉ định cho từng loại luồng Dung lượng vượt quá tốc độ tối đa có thể được truyền tiếp hoặc bị rớt tùy thuộc vào cài đặt Nếu không gặp nghẽn mạch, tốc độ của luồng có thể vượt qua ngưỡng CAR, miễn là exceed action cho phép truyền tiếp ở mức ưu tiên nhất định.
3.1.2 Bài đo kích thước bursts bình thường và vượt quá
Hoạt động của bộ khống chế được xác định bởi hai thông số quan trọng: bursts bình thường và bursts vượt quá Khi hai thông số này được đặt bằng nhau, thuật toán của bộ khống chế tương tự như token bucket truyền thống với kích thước bucket thông thường, dẫn đến hiện tượng loại bỏ cuối hàng (tail dropping) khi hết token.
Việc thực hiện kích thước bursts vượt quá giúp giảm thiểu ảnh hưởng của việc loại bỏ gói lên lưu lượng TCP Nhờ vào việc xác suất loại bỏ gói chỉ tăng từ từ, hiện tượng loại bỏ gói hàng loạt đã được tránh, chỉ xảy ra loại bỏ gói cục bộ Điều này cho phép dòng TCP dần thích nghi với việc mất gói khi tốc độ tổng hợp gần đạt đến ngưỡng CAR.
*Cấu hình đo: như hình dưới đây Hình 3-2 Cấu hình đo kích thước bursts bình thường và vượt quá
TCP lines are transmitted from the testing workstation at the IT station to the testing workstation SWITCH The committed access speed is set at 1.296 Mbps, with the exceed action configured to drop.
Bảng 3-2 là kết quả thông lƣợng của một kết nối TCP đơn lẻ
Luồng TCP đi đến SWITCH tốc độ max: 1,296Mbps Exceed action: rớt
Khi kích thước burst bình thường được đặt ở mức thấp, thông lượng của luồng không đạt ngưỡng CAR Tuy nhiên, nếu kích thước burst được tăng dần vượt qua mức này, thông lượng sẽ có xu hướng cải thiện và đạt ngưỡng CAR.
Bảng 3-2 Thông lượng của một kết nối TCP khi tăng giá trị của kích thước burst bình thường và vượt quá
Thông lƣợng của một kết nối TCP (Mbps) Bình thường (bytes)
3.1.3 Bài đo chức năng Xếp hàng có trọng số theo loại (Class-Based Weighted Fair Queuing - CB-WFQ)
CB-WFQ là một phương pháp phân phối tài nguyên công bằng cho các dòng lưu lượng, dựa trên chính sách đã được thiết lập Mỗi dòng lưu lượng được cấp một hàng đợi riêng biệt với kích thước có thể cài đặt, và các hàng đợi này được phục vụ với tốc độ tỷ lệ thuận với trọng số của từng hàng, trong đó trọng số này phụ thuộc vào băng thông được cấp cho dòng lưu lượng đó.
Với CB-WFQ, người dùng có thể định nghĩa các loại lưu lượng dựa trên các tiêu chí phù hợp thông qua danh sách truy cập Mỗi loại lưu lượng sẽ được cấp một dải băng thông cụ thể, trong đó CB-WFQ xác định dải băng thông tối thiểu cần thiết cho từng loại Điều này cho phép WFQ không giới hạn bất kỳ dòng lưu lượng nào nhận thêm dung lượng khi đường truyền không bị tắc nghẽn.
Bài đo Độ cách ly lưu lượng (traffic isolation) đối với CB-WFQ sẽ được thực hiện nhằm xác nhận rằng các dòng có mức ưu tiên cao được bảo vệ hiệu quả trước lưu lượng lớn từ các dòng best-effort.
Hình 3-3 Cấu hình đo chức năng Xếp hàng có trọng số theo loại (Class-
Based Weighted Fair Queuing - CB-WFQ)
Bài đo được thực hiện bằng cách đánh dấu CAR tại router biên và cài đặt CB-WFQ tại giao diện ra mạng trục Phân loại lưu lượng dựa trên các giá trị ưu tiên do CAR thiết lập Lưu lượng vượt quá ngưỡng CAR sẽ bị rớt để đảm bảo không sử dụng băng thông vượt mức quy định của CB-WFQ.
Các dòng TCP với tốc độ 2Mbps được phát đi và đưa lưu lượng vào cùng một giao diện của router kết nối với đường truyền ATM tốc độ 2Mbps Để đảm bảo hiệu suất tối ưu, mức độ ưu tiên cao được đặt cho một hoặc nhiều dòng, trong khi các dòng còn lại hoạt động theo chế độ best-effort mà không bị giới hạn tốc độ.