GIỚI THIỆU TỔNG QUAN VỀ SDN
Khái niệm khái quát về SDN
Hiện nay định nghĩa về SDN còn khá chung chung và gây khó hiểu cho nhiều đối tượng mới được tiếp xúc lần đầu với nó Trên thế giới đã đưa ra nhiều định nghĩa về SDN (Software defined Network) nhưng theo một nhà tổ chức uy tín ONF (Open Networking Foundation – một tổ chức phi lợi nhuận đang hỗ trợ việc phát triển SDN thông qua việc nghiên cứu các tiêu chuẩn mở phù hợp) thì mạng SDN được định nghĩa như sau: “Mạng định nghĩa được bằng phần mềm hay Sofware Defined Network (SDN) là một kiểu kiến trúc mạng mới, năng động, dễ quản lý, chi phí hiệu quả, dễ thích nghi và rất phù hợp với nhu cầu mạng ngày càng tăng hiện nay Kiến trúc này phân tách phần điều khiển mạng (Control Plane) và chức năng vận chuyển dữ liệu (Forwarding Plane hay Data Plane), điều này cho phép việc điều khiển mạng trở nên có thể lập trình được dễ dàng và cơ sở hạ tầng mạng độc lập với các ứng dụng và dịch vụ mạng”.
Công nghệ mạng được xác định bằng phần mềm (Software-defined network – SDN) là một cách tiếp cận theo hướng điện toán đám mây, tức là tập trung hóa việc quản trị thiết bị mạng, giảm thiểu công việc riêng lẻ, tốn nhiều thời gian trên từng thiết bị cụ thể, tạo điều kiện thuận lợi cho việc quản lý mạng và cho phép cấu hình mạng hiệu quả bằng các chương trình được lập trình để cải thiện hiệu suất và tăng cường khả năng giám sát mạng SDN nhằm mục tiêu giải quyết vấn đề kiến trúc tĩnh, phi tập trung, phức tạp của các mạng truyền thống không phù hợp với yêu cầu về tính linh hoạt và xử lý sự cố dễ dàng của các hệ thống mạng hiện tại.
Có thể thấy sự khác biệt cơ bản giữa mạng truyền thống và mạng SDN là:
• Phần điều khiển và phần vận chuyển dữ liệu trên mạng truyền thống đều được tích hợp trong thiết bị mạng trong khi trong mạng SDN, phần điều khiển được tách riêng khỏi thiết bị mạng và được chuyển đến một thiết bị được gọi là bộ điều khiển SDN.
• Phần thu thập và xử lý các thông tin: Đối với mạng truyền thống, phần này được thực hiện ở tất cả các phần tử trong mạng còn trong mạng SDN, phần này được tập trung xử lý ở bộ điều khiển SDN.
• Mạng truyền thống không thể được lập trình bởi các ứng dụng Các thiết bị mạng phải được cấu hình một cách riêng lẽ và thủ công Trong khi đối với mạng SDN, mạng có thể lập trình bởi các ứng dụng, bộ điều khiển SDN có thể tương tác đến tất cả các thiết bị trong mạng.
Hình 1.1: So sánh sự khác biệt giữa mạng truyền thống và mạng SDN.
Kiến trúc cơ bản của SDN
Về cơ bản kiến trúc của SDN bao gồm ba lớp: lớp ứng dụng (Appication Layer), lớp điều khiển (Control Layer) và lớp hạ tầng (Infrastructure Layer).
- Lớp ứng dụng, đúng như tên gọi của nó, chứa các ứng dụng hoặc các chức năng mạng điển hình mà các tổ chức sử dụng như các hệ thống phát hiện xâm nhập, cân bằng tải hoặc tường lửa Điều này khác với một mạng truyền thống, với kiến trúc mạng truyền thống, trong mạng truyền thống, để thực hiện các chức năng này, mạng sẽ cần sử dụng một thiết bị chuyên dụng, như tường lửa hoặc thiết bị cân bằng tải riêng biệt Trong khi với SDN các thiết bị này sẽ được thay thế bằng một ứng dụng phần mềm sử dụng bộ điều khiển để quản lý hành vi của mặt phẳng dữ liệu.
- Lớp điều khiển đại diện cho phần mềm điều khiển SDN tập trung hoạt động như bộ não của mạng Bộ điều khiển này nằm trên một máy chủ và quản lý các chính sách và luồng lưu lượng trên toàn mạng.
- Lớp hạ tầng bao gồm các thiết bị chuyển mạch vật lý trong mạng.
Ba lớp này giao tiếp bằng cách sử dụng các giao diện lập trình ứng dụng (API) cầu bắc (northbound API) và cầu nam (southbound API) tương ứng Các phần mềm phía tầng ứng dụng giao tiếp với lớp điều khiển thông qua northbound API, trong khi lớp điều khiển và các bộ chuyển mạch trong lớp hạ tầng giao tiếp với nhau thông qua các southbound API, như OpenFlow Khi nghe đến SDN chúng ta hay nghe đến OpenFlow, thực chất thì OpenFlow chính là một giao thức southbound API cho phép giao tiếp giữa lớp hạ tầng và lớp điều khiển Trên thực tế có rất nhiều các giao thức khác tồn tại, nhưng OpenFlow vẫn tương đối phổ biến vì lí do lịch sử và là tiêu chuẩn đầu tiên cho các southbound API.
Hình 1.2: Kiến trúc cơ bản của SDN 1.3 Lợi ích của việc sử dụng SDN hiện nay
SDN cung cấp một mạng tập trung, có thể lập trình, có thể cung cấp hệ thống mạng linh động để giải quyết các nhu cầu thay đổi của các doanh nghiệp Với SDN, quản trị viên có thể thay đổi bất kỳ quy tắc chuyển đổi mạng nào khi cần thiết, cô lập hoặc thậm chí chặn các loại gói cụ thể với mức độ kiểm soát và bảo mật cụ thể Điều này đặc biệt hữu ích trong kiến trúc có nhiều nhà cung cấp cloud, bởi vì nó cho phép người quản trị quản lý lưu lượng một cách linh hoạt và hiệu quả hơn Về cơ bản, điều này cho phép quản trị viên sử dụng các thiết bị mạng ít tốn kém hơn và có quyền kiểm soát lưu lượng mạng nhiều hơn Nó cũng cung cấp các lợi ích kỹ thuật và kinh doanh:
• Thiết lập trực tiếp: Chính sách mạng SDN được thiết lập trực tiếp vì các chức năng điều khiển được tách rời khỏi các chức năng chuyển tiếp, cho phép mạng được cấu hình theo chương trình bởi các công cụ tự động hóa nguồn mở hoặc độc quyền, bao gồm OpenStack, Puppet và Chef.
• Quản lý tập trung: Mạng thông minh được tập trung một cách logic trong phần mềm điều khiển SDN duy trì chế độ xem toàn hệ thống của mạng, như một ứng dụng.
• Giảm CapEx: SDN có khả năng hạn chế nhu cầu mua phần cứng mạng, dựa trên ASIC và thay vào đó hỗ trợ các mô hình trả tiền khi cần phát triển
• Giảm OpEX: SDN cho phép kiểm soát thuật toán mạng của các thành phần mạng (như Router/Switch/Hardware) giúp cho việc thiết kế, triển khai, quản lý và mở rộng mạng dễ dàng hơn Khả năng tự động hóa, tối ưu hóa việc cung cấp và điều phối tính khả dụng và độ tin cậy của dịch vụ bằng cách giảm thời gian quản lý chung và các lỗi do yếu tố con người.
• Cung cấp sự linh hoạt: SDN giúp các tổ chức triển khai nhanh chóng các ứng dụng, dịch vụ và cơ sở hạ tầng mới để nhanh chóng đáp ứng các mục tiêu kinh doanh thay đổi.
• Kích hoạt Đổi mới: SDN cho phép các tổ chức tạo các loại ứng dụng, dịch vụ và mô hình kinh doanh mới có thể cung cấp luồng doanh thu mới và nhiều giá trị hơn từ mạng.
Quản trị viên mạng chỉ cần thao tác với một bộ điều khiển trung tâm để phân phối các chính sách cho các thiết bị được kết nối, thay vì phải cấu hình nhiều thiết bị riêng lẻ Khả năng này cũng là một lợi thế bảo mật vì bộ điều khiển có thể giám sát lưu lượng và triển khai các chính sách bảo mật Ví dụ, nếu bộ điều khiển thấy lưu lượng đáng ngờ, nó có thể định tuyến lại hoặc thả các gói SDN cũng ảo hóa phần cứng và dịch vụ trước đây được thực hiện bằng phần cứng chuyên dụng, dẫn đến việc giảm sự phụ thuộc vào phần cứng và giảm chi phí vận hành.
Ngoài ra, SDN đã góp phần vào sự xuất hiện của công nghệ Software Define Wide Area Network (SD-WAN) SD-WAN sử dụng khía cạnh ảo hóa của công nghệ SDN, trừu tượng hóa các liên kết kết nối của một tổ chức trong toàn bộ mạng LAN của nó và tạo ra một mạng ảo có thể sử dụng bất kỳ kết nối nào mà Controller thấy phù hợp để truyền lưu lượng.
Lợi ích của việc sử dụng SDN hiện nay
Hơn hầu hết các loại triển khai trung tâm dữ liệu chính thống thì trung tâm dữ liệu hiện đại đã kéo dài mạng lưới truyền thống đến điểm đột phá Với trung tâm dữ liệu mới đã nêu bật tầm quan trọng của công nghệ trung tâm dữ liệu trong việc đẩy nhanh tính cấp thiết và phù hợp của SDN Trong các phiên bản khác nhau từ trước đến nay, SDN đã được đặc biệt phát triển để giải quyết những hạn chế của mạng truyền thống vốn đã gây ra những bất cập đáng kể nhất trong trung tâm dữ liệu lớn ngày nay. Trong bài này, chúng tôi nghiên sẽ tìm hiểu và nghiên cứu sâu hơn về công nghệ mạng trung tâm dữ liệu thông qua lợi ích của SDN hiện tại và sau này Cụ thể, trong chương này, chúng ta xem xét:
- Nhu cầu của Trung tâm Dữ liệu: Những thiếu sót cụ thể tồn tại trong các mạng Trung tâm Dữ liệu hiện nay là gì?
- Công nghệ trong Trung tâm Dữ liệu: Những công nghệ nào được sử dụng trong trung tâm dữ liệu, cả hiện nay và với sự ra đời của SDN?
- Các trường hợp sử dụng Trung tâm dữ liệu: Một số ứng dụng cụ thể của SDN trong trung tâm dữ liệu là gì? Để trả lời những câu hỏi trên, chúng ta cần làm sáng tỏ mối quan hệ tồn tại giữa sức mạnh của công nghệ SDN và trung tâm dữ liệu ngày nay.
2.1 Định nghĩa trung tâm dữ liệu.
Hãy để chúng tôi định nghĩa chính xác trung tâm dữ liệu là gì để hiểu rõ hơn nhu cầu của nó và các công nghệ đã phát sinh để giải quyết những nhu cầu đó Ý tưởng về một trung tâm dữ liệu không phải là mới Các giá đỡ dày đặc của máy tính và bộ nhớ công suất cao đã tồn tại trong nhiều thập kỷ, ban đầu cung cấp môi trường cho các máy tính lớn Nhưng rồi những thứ này cuối cùng đã nhường chỗ cho các máy tính mini và sau đó là các máy chủ mà chúng ta biết đến để xử lý dữ liệu ngày nay Theo thời gian, mật độ của các máy chủ đó và các mảng lưu trữ phục vụ chúng đã làm cho nó có thể lưu trữ một lượng lớn sức mạnh tính toán chỉ trong một phòng duy nhất.
Các trung tâm dữ liệu ngày nay chứa hàng nghìn, thậm chí hàng chục nghìn máy chủ vật lý Các trung tâm dữ liệu này có thể được tách biệt thành ba loại sau:
- Đơn thuê tư nhân: Các tổ chức cá nhân duy trì trung tâm dữ liệu của riêng họ thuộc loại hình này Trung tâm dữ liệu dành cho mục đích sử dụng riêng của tổ chức và chỉ có một tổ chức hoặc người thuê sử dụng trung tâm dữ liệu.
- Đa thuê tư nhân: Các tổ chức cung cấp các dịch vụ trung tâm dữ liệu chuyên biệt thay mặt cho các tổ chức khách hàng khác thuộc loại hỉnh này IBM và EDS (nay là HP) là những ví dụ về các công ty có các trung tâm dữ liệu như vậy Chúng được xây dựng và duy trì bởi tổ chức cung cấp dịch vụ và có nhiều khách hàng có dữ liệu được lưu trữ ở đó, gợi ý thuật ngữ multitenant Các trung tâm dữ liệu này là riêng tư vì họ cung cấp dịch vụ của mình theo hợp đồng cho các khách hàng cụ thể.
- Đa thuê công: Các tổ chức cung cấp dịch vụ trung tâm dữ liệu tổng quát cho bất kỳ cá nhân hoặc tổ chức nào thuộc loại này Ví dụ về các công ty cung cấp các dịch vụ này bao gồm Google và Amazon Các trung tâm dữ liệu này cung cấp dịch vụ của họ
SDN TRONG TRUNG TÂM DỮ LIỆU
Định nghĩa trung tâm dữ liệu
Hãy để chúng tôi định nghĩa chính xác trung tâm dữ liệu là gì để hiểu rõ hơn nhu cầu của nó và các công nghệ đã phát sinh để giải quyết những nhu cầu đó Ý tưởng về một trung tâm dữ liệu không phải là mới Các giá đỡ dày đặc của máy tính và bộ nhớ công suất cao đã tồn tại trong nhiều thập kỷ, ban đầu cung cấp môi trường cho các máy tính lớn Nhưng rồi những thứ này cuối cùng đã nhường chỗ cho các máy tính mini và sau đó là các máy chủ mà chúng ta biết đến để xử lý dữ liệu ngày nay Theo thời gian, mật độ của các máy chủ đó và các mảng lưu trữ phục vụ chúng đã làm cho nó có thể lưu trữ một lượng lớn sức mạnh tính toán chỉ trong một phòng duy nhất.
Các trung tâm dữ liệu ngày nay chứa hàng nghìn, thậm chí hàng chục nghìn máy chủ vật lý Các trung tâm dữ liệu này có thể được tách biệt thành ba loại sau:
- Đơn thuê tư nhân: Các tổ chức cá nhân duy trì trung tâm dữ liệu của riêng họ thuộc loại hình này Trung tâm dữ liệu dành cho mục đích sử dụng riêng của tổ chức và chỉ có một tổ chức hoặc người thuê sử dụng trung tâm dữ liệu.
- Đa thuê tư nhân: Các tổ chức cung cấp các dịch vụ trung tâm dữ liệu chuyên biệt thay mặt cho các tổ chức khách hàng khác thuộc loại hỉnh này IBM và EDS (nay là HP) là những ví dụ về các công ty có các trung tâm dữ liệu như vậy Chúng được xây dựng và duy trì bởi tổ chức cung cấp dịch vụ và có nhiều khách hàng có dữ liệu được lưu trữ ở đó, gợi ý thuật ngữ multitenant Các trung tâm dữ liệu này là riêng tư vì họ cung cấp dịch vụ của mình theo hợp đồng cho các khách hàng cụ thể.
- Đa thuê công: Các tổ chức cung cấp dịch vụ trung tâm dữ liệu tổng quát cho bất kỳ cá nhân hoặc tổ chức nào thuộc loại này Ví dụ về các công ty cung cấp các dịch vụ này bao gồm Google và Amazon Các trung tâm dữ liệu này cung cấp dịch vụ của họ cho công chúng Bất kỳ ai muốn sử dụng chúng đều có thể truy cập chúng qua web trên toàn thế giới, có thể là cá nhân hoặc tổ chức mở rộng.
Trước đây, các trung tâm dữ liệu này thường được lưu trữ để chúng chỉ có thể được tiếp cận thông qua các kênh liên lạc riêng Tuy nhiên, trong những năm gần đây, các trung tâm dữ liệu này bắt đầu được thiết kế để có thể truy cập thông qua Internet Các loại trung tâm dữ liệu này thường được gọi là điện toán đám mây Ba loại đám mây con đang được sử dụng phổ biến là đám mây công cộng, đám mây riêng và đám mây lai.
- Trong một đám mây công cộng, một nhà cung cấp dịch vụ hoặc tổ chức lớn khác cung cấp dịch vụ cho công chúng qua Internet Các dịch vụ đó có thể bao gồm nhiều loại ứng dụng hoặc dịch vụ lưu trữ, trong số những thứ khác Ví dụ về cung cấp đám mây công cộng bao gồm Microsoft Azure Services Platform và Amazon Elastic Compute Cloud.
- Trong một đám mây riêng, một tập hợp máy chủ và tài nguyên mạng được chỉ định riêng cho một đối tượng thuê và được bảo vệ sau tường lửa dành riêng cho đối tượng thuê đó Các tài nguyên vật lý của đám mây được sở hữu và duy trì bởi nhà cung cấp đám mây, có thể là một thực thể khác biệt với bên thuê Cơ sở hạ tầng vật lý có thể được quản lý bằng cách sử dụng một sản phẩm như vCloud của VMware Amazon Web Services là một ví dụ về cách một đám mây riêng cũng có thể được lưu trữ bởi bên thứ ba (tức là Amazon).
- Một mô hình ngày càng phổ biến là đám mây lai, trong đó một phần của đám mây chạy trên các tài nguyên dành riêng cho một người thuê nhưng các phần khác nằm trên các tài nguyên được chia sẻ với những người thuê khác Điều này đặc biệt có lợi khi các tài nguyên được chia sẻ có thể được mua lại và giải phóng một cách linh hoạt khi nhu cầu tăng và giảm Sự bùng nổ đám mây của Verizon cung cấp một ví dụ về cách một đám mây kết hợp có thể hoạt động như thế nào Lưu ý rằng khả năng tự động chỉ định tài nguyên giữa người thuê và công chúng là động lực chính thúc đẩy sự quan tâm đến ảo hóa mạng và SDN.
Kết hợp giữa việc mật độ ngày càng tăng của máy chủ và lưu trữ cũng như sự gia tăng về tốc độ mạng và băng thông đã khiến cho xu hướng lưu trữ ngày càng nhiều thông tin trong các trung tâm dữ liệu ngày càng lớn Thêm vào đó là mong muốn của các doanh nghiệp trong việc giảm chi phí vận hành đã cho thấy rằng việc hợp nhất nhiều trung tâm dữ liệu thành một trung tâm dữ liệu duy nhất lớn hơn là kết quả tất nhiên. Đồng thời với mật độ vật lý tăng lên này là một chuyển động hướng tới ảo hóa. Các máy chủ vật lý hiện nay thường chạy phần mềm ảo hóa cho phép một máy chủ duy nhất thực sự chạy cùng với một số máy ảo Việc tiến tới ảo hóa trong không gian máy tính mang lại một số lợi ích, từ việc giảm yêu cầu điện năng đến việc sử dụng phần cứng hiệu quả hơn và khả năng nhanh chóng tạo, xóa và phát triển hoặc thu nhỏ các ứng dụng và dịch vụ.
Một trong những tác dụng phụ của việc chuyển đổi sang điện toán đám mây là nó thường liên quan đến hệ thống thanh toán nhạy cảm với việc sử dụng Ba mô hình kinh doanh chính của điện toán đám mây là Cơ sở hạ tầng như một dịch vụ (IaaS), Nền tảng như một dịch vụ (PaaS) và Phần mềm như một dịch vụ (SaaS) Ba loại này đều được cung cấp và bán theo yêu cầu, trên cơ sở phù hợp với việc sử dụng, chuyển chi phí từ CAPEX sang OPEX Sự phổ biến của mô hình kinh doanh mới này đã là động lực chính cho sự bùng nổ về quy mô và số lượng trung tâm dữ liệu.
Do đó, ba xu hướng hướng tới điện toán đám mây, mật độ gia tăng và ảo hóa đã đặt ra nhu cầu về mạng trung tâm dữ liệu mà trước đây chưa từng tồn tại Chúng tôi xem xét những nhu cầu đó trong phần tiếp theo.
Những nhu cầu của trung tâm dữ liệu
Do các xu hướng phát triển ngày càng phát triển đã nảy sinh một số nhu cầu mạng quan trọng cần phải được đáp ứng để công nghệ trung tâm dữ liệu phát triển mạnh ngày nay Và để hiểu rõ hơn về những nhu cầu cần đáp ứng thì hãy cùng xem phần dưới đây:
2.2.1 Vượt qua các giới hạn mạng lưới hiện nay
Khả năng dễ dàng kích hoạt và phá hủy các máy ảo là một sự rời xa hoàn toàn khỏi thế giới vật chất mà các nhà quản lý mạng truyền thống phải đối mặt Các giao thức mạng được kết hợp với các cổng vật lý và điều này là không phải thứ ta sẽ cần đào sâu hơn để tìm hiểu sau này Bản chất động và số lượng máy ảo tuyệt đối trong trung tâm dữ liệu đã đặt ra yêu cầu về dung lượng của các thành phần mạng mà trước đó được cho là an toàn trước những áp lực như vậy Đặc biệt, các khu vực này bao gồm Kích thước Bảng Địa chỉ MAC, Số lượng VLAN và Cây khung.
Bùng nổ địa chỉ MAC
Trong các bộ chuyển mạch và bộ định tuyến, Bảng Địa chỉ MAC được thiết bị sử dụng để nhanh chóng xác định cổng hoặc giao diện mà thiết bị sẽ chuyển tiếp gói tin. Đối với tốc độ, bảng này được thực hiện trong phần cứng Như vậy, nó có một giới hạn vật lý đối với kích thước của nó Đương nhiên, các nhà cung cấp thiết bị sẽ xác định số lượng mục nhập tối đa cần giữ trong bảng MAC dựa trên việc kiểm soát chi phí của chính họ, đồng thời cung cấp đủ số lượng mục nhập cho nhu cầu của mạng Nếu bảng quá lớn, nhà cung cấp sẽ tốn quá nhiều tiền để tạo thiết bị Nếu bảng quá nhỏ, thì khách hàng sẽ gặp phải những vấn đề mà chúng tôi sẽ mô tả dưới đây.
Các mạng trước đây có giới hạn có thể quản lý được về số lượng địa chỉ MAC tối đa cần có trong Bảng địa chỉ MAC tại bất kỳ thời điểm nào Điều này một phần được cho là do giới hạn vật lý của các trung tâm dữ liệu và số lượng máy chủ sẽ là một phần của mạng một lớp hai Nó cũng bị ảnh hưởng bởi cách bố trí vật lý của mạng Trước đây, các mạng lớp hai tách biệt về mặt vật lý vẫn tách biệt về mặt logic Nhưng giờ đây, với việc ảo hóa mạng và sử dụng công nghệ Ethernet trên các mạng WAN, mạng lớp hai đang được kéo dài về mặt địa lý hơn bao giờ hết Với ảo hóa máy chủ, số lượng máy chủ có thể có trong một mạng lớp hai đã tăng lên đáng kể Với vô số NIC ảo trên mỗi máy chủ ảo, vấn đề về số lượng địa chỉ MAC tăng vọt càng trở nên trầm trọng hơn Các thiết bị chuyển mạch lớp hai được thiết kế để xử lý trường hợp bỏ sót bảng MAC bằng cách làm khung tràn ra tất cả các cổng ngoại trừ cổng mà nó đã đến, như thể hiện trong Hình 2.1 Điều này có lợi là đảm bảo rằng khung đến đích của nó khi đích đó đang tồn tại trên mạng lớp hai Trong trường hợp bình thường, khi đích nhận được khung ban đầu đó thì nó sẽ nhắc nhở phản hồi từ điểm đến Khi nhận được phản hồi, bộ chuyển mạch có thể tìm hiểu cổng mà địa chỉ MAC nằm trên đó và điền vào bảng MAC của nó cho phù hợp Điều này hoạt động tốt trừ trường hợp khi bảng địa chỉ MAC đầy và khi nằm trong trường hợp đó thì nó sẽ xảy ra tình trạng không thể tìm hiểu địa chỉ Do đó, các khung mà vẫn được gửi đến đích đó liên tục sẽ dẫn đến trường hợp bị quá tải Đây là cách sử dụng băng thông rất kém hiệu quả và có thể có tác động tiêu cực đáng kể đến hiệu suất Vấn đề này còn càng trở nên trầm trọng hơn trong lõi của mạng trung tâm dữ liệu Khi thiết kế mạng không ảo hóa thì mạng truyền thống sẽ được sử dụng, nơi tất cả các địa chỉ MAC có thể nhìn thấy trong cấu trúc liên kết và áp lực lên các bảng địa chỉ MAC là rất lớn.
Vì VLAN được sử dụng rộng rãi trong các mạng lớp hai hiện nay nên chúng ta hãy cùng xem xét kỹ hơn về trọng tâm VLAN trong Hình 2.1 Khi một gói được gắn thẻ VLAN không khớp với nó thì nó sẽ chỉ bị tràn ra tất cả các cổng trên VLAN đó và từ đó phần nào giảm thiểu sự kém hiệu quả của việc quá tải Ngược lại, một máy chủ có thể là thành viên của nhiều VLAN, trong trường hợp đó, nó sẽ chiếm một mục nhập bảng địa chỉ MAC trên mỗi VLAN và gây ra càng làm trầm trọng thêm vấn đề tràn bảng địa chỉ MAC.
Hình 2.1: Tràn bảng địa chỉ MAC.
Khi nhóm IEEE 802.1 tạo ra phần mở rộng 802.1Q cho định nghĩa mạng cục bộ, họ không nghĩ rằng sẽ cần nhiều hơn mười hai bit để đảm bảo khả năng sử dụng của ID VLAN Thẻ IEEE 802.1Q cho VLAN được miêu tả ở hình 2.2 đó hỗ trợ cho 2 12 − 2 (4094) VLAN (nó là phép trừ cho hai vì tất cả các só không và tất cả các số một đều được giữ) Khi các thẻ này được giới thiệu vào giữa đến cuối những năm
1990, các mạng nhỏ hơn và nhu cầu rất hạn chế cho nhiều miền ảo trong một mạng vật lý duy nhất.
Sự ra đời của các trung tâm dữ liệu đã tạo ra nhu cầu tách biệt lưu lượng để đảm bảo an ninh và tách biệt lưu lượng của các mạng đối tượng thuê khác nhau Công nghệ chịu trách nhiệm cung cấp sự phân tách này là các VLAN Miễn là các trung tâm dữ liệu
Nhóm 9 vẫn còn là mạng cho một người thuê, số lượng tối đa 4094 VLAN dường như là quá đủ Khi mở rộng trường mười hai bit này một cách không cần thiết và không khôn ngoan, vì các bảng khác nhau trong bộ nhớ và trong ASIC phải đủ lớn để chứa số lượng tối đa Do đó, để làm cho giá trị lớn nhất lớn hơn 4094 có một nhược điểm nhất định tại thời điểm công việc thiết kế được thực hiện.
Tuy nhiên, khi các trung tâm dữ liệu tiếp tục mở rộng, đặc biệt là với sự đa mạng hóa và ảo hóa máy chủ, số lượng VLAN được yêu cầu có thể dễ dàng vượt quá 4094. Khi không còn nhiều VLAN khả dụng thì khả năng chia sẻ tài nguyên vật lý giữa các bên thuê nhanh chóng trở nên phức tạp Vì số lượng bit được phân bổ để giữ VLAN có kích thước cố định và phần cứng đã được xây dựng trong nhiều năm phụ thuộc vào kích thước cụ thể đó, nên việc mở rộng kích thước của trường này để chứa nhiều VLAN hơn là điều không cần thiết Chính vì thế nên cần một số giải pháp khác để khắc phục hạn chế này.
Và kết quả của giới hạn 4094 VLAN đã được đưa ra là sự gia tăng sử dụng MPLS MPLS không bị cùng một giới hạn về số lượng thẻ MPLS như tồn tại với VLAN ID và chúng không cần phải tách biệt với một mạng lớp hai Do vì nó là công nghệ lớp ba nên với mặt phẳng điều khiển phức tạp hơn và tương ứng hơn nên MPLS chủ yếu được triển khai trong mạng WAN Tuy nhiên, có khả năng MPLS sẽ được sử dụng nhiều hơn trong trung tâm dữ liệu ngày nay.
Trong những năm đầu của Ethernet, các cầu nối được xây dựng như một thiết bị trong suốt có khả năng chuyển tiếp các gói tin từ phân đoạn này sang phân đoạn khác mà không cần cấu hình rõ ràng các bảng chuyển tiếp bởi người vận hành Các bảng chuyển tiếp đã được phát triển tốt hơn nhờ các cây khung bằng cách quan sát lưu lượng được chuyển tiếp qua chúng Trí thông minh phân tán trong các thiết bị này có khả năng xác định tập thể xem có các vòng lặp trong mạng hay không và cắt bớt các vòng lặp đó để ngăn cấm các vấn đề như các cơn bão phát sóng gây ảnh hưởng đến mạng. Điều này được thực hiện bởi các cầu nối hoặc chuyển mạch giao tiếp chung với nhau để tạo ra một cây bao trùm thực thi cấu trúc phân cấp không có vòng lặp trên mạng trong các tình huống tồn tại các vòng lặp vật lý Cây khung này sau đó được tính toán bằng cách sử dụng Giao thức cây khung (STP) Quá trình xác định cây khung này được gọi là hội tụ, và trong những ngày đầu sẽ mất một khoảng thời gian (hàng chục giây) để cây khung hội tụ sau khi có sự thay đổi vật lý đối với các thiết bị mạng và liên kết của chúng.
Theo thời gian, thông qua các cải tiến đối với STP, quá trình hội tụ cây khung đã tăng lên về tốc độ Ví dụ: với những cải tiến trong các phiên bản gần đây của bản tiêu chuẩn, thời gian hội tụ cho các mạng lớn thông thường đã giảm đáng kể Nhưng bên cạnh đó vẫn còn bất chấp những cải tiến này, STP vẫn để lại các liên kết chức năng hoàn hảo không được sử dụng và với các khung được chuyển tiếp đến gốc của cây bao trùm, đó là chắc chắn không phải là con đường tối ưu Các trung tâm dữ liệu cần nhiều băng thông mặt cắt hơn Điều này có nghĩa là sử dụng đường dẫn hiệu quả nhất giữa hai nút bất kỳ mà không áp đặt một hệ thống phân cấp giả tạo trong các mẫu lưu lượng truy cập.
Thực tế là tính linh hoạt của ảo hóa trung tâm dữ liệu đã làm tăng tần suất thay đổi và gián đoạn, do đó yêu cầu tái hội tụ xảy ra thường xuyên hơn và làm tăng thêm tính kém hiệu quả của STP trong trung tâm dữ liệu STP đơn giản không được xây dựng cho thế giới trung tâm dữ liệu hiện đại của các công tắc ảo và địa chỉ MAC tạm thời.
2.2.2 Thêm vào, chuyển đi và xóa tài nguyên
Các trung tâm dữ liệu được ảo hóa ngày nay có thể thực hiện các thay đổi nhanh hơn nhiều so với trước đây Mạng cần phải thích ứng để bắt kịp với khả năng ảo hóa của máy chủ và bộ nhớ Tốc độ và tự động hóa có tầm quan trọng thực sự lớn khi nói đến việc xử lý những thay đổi nhanh chóng do các máy chủ và bộ nhớ ảo hóa yêu cầu. Điều quan trọng rõ ràng nhất ở đây là các thay đổi đối với cơ sở hạ tầng mạng diễn ra với tốc độ tương tự như vậy đối với máy chủ và bộ nhớ Các mạng sau này còn yêu cầu cần để có những thay đổi quan trọng liên tục theo từng ngày đối với VLAN và các nhu cầu về hệ thống các ống mạng khác Một phần lớn lý do cho điều này là do hậu quả của việc thay đổi mạng nhầm lẫn có thể dễ dàng ảnh hưởng đến tất cả các tài nguyên của trung tâm dữ liệu, bao gồm không chỉ mạng mà còn cả các thành phần máy tính và lưu trữ của nó Việc phối hợp các thay đổi với tất cả các bộ phận khác nhau này thường khó tránh khỏi tình trạng phức tạp.
Những thay đổi này cần phải có khả năng được tự động hóa để những thay đổi khi xảy ra phải ngay lập tức có thể tự diễn ra mà không cần sự can thiệp của con người Các giao thức cũ được thiết kế để phản ứng sau khi dịch vụ mới được kích hoạt trực tuyến Với SDN, người ta có thể biết trước rằng một dịch vụ mới sắp được bắt đầu và chủ động phân bổ dung lượng mạng mà nó sẽ yêu cầu.
Công nghệ kéo dài cho Trung tâm dữ liệu
Trước đây trong chương này, chúng tôi đã lưu ý về tác động của ảo hóa máy chủ.Một trong những phản ứng đối với ảo hóa máy chủ là sự ra đời của khái niệm ảo hóa mạng Một trong những định nghĩa thay thế của SDN, mà được gọi là SDN qua lớp phủ dựa trên siêu giám sát Vào thời điểm đó, chúng tôi đã chỉ ra cách các công nghệ đường hầm dựa trên siêu giám sát được sử dụng để đạt được sự ảo hóa mạng này Có một số công nghệ đào đường hầm được sử dụng trong trung tâm dữ liệu và một số công nghệ đường hầm hướng trung tâm dữ liệu này có trước SDN Có ba công nghệ chính đang được sử dụng ngày nay để giải quyết nhiều nhu cầu của trung tâm dữ liệu mà chúng tôi đã trình bày trong Phần 2.2 Các phương pháp tạo đường hầm này là Virtual eXtensible Local Area Network (VXLAN), Network Virtualization sử dụng Generic Routing Encapsulation (NVGRE) và Stateless Transport Tunneling (STT).
Tất cả các giao thức đường hầm này đều dựa trên khái niệm đóng gói toàn bộ khung MAC lớp hai bên trong một gói IP Đây được gọi là MAC-in-IP tunneling Các máy chủ tham gia giao tiếp với nhau không biết rằng có bất cứ thứ gì khác ngoài một mạng vật lý truyền thống giữa chúng Các máy chủ xây dựng và gửi các gói tin theo cách giống hệt như việc không có sự liên quan đến ảo hóa mạng Theo cách này, ảo hóa mạng giống như ảo hóa máy chủ, trong đó các máy chủ không biết rằng chúng đang thực sự chạy trong môi trường máy ảo Phải thừa nhận rằng thực tế là các gói được đóng gói khi chúng truyền qua mạng vật lý sẽ làm giảm kích thước đơn vị truyền tải tối đa (MTU) và phần mềm máy chủ phải được cấu hình lại để tính đến chi tiết đó.
Tất cả ba phương pháp đào hầm này có thể được sử dụng để tạo thành các đường hầm kết hợp các Điểm cuối đường hầm ảo (VTEP) với nhau trong một SDN thông qua hệ thống Lớp phủ dựa trên siêu giám sát Với nền tảng này và hành vi phổ biến của các công nghệ đào hầm này, các phần tiếp theo sẽ cái nhìn sâu hơn về các công nghệ này và kiểm tra xem chúng khác nhau như thế nào Ba công nghệ này cạnh tranh để giành thị phần và trong khi số liệu thống kê về tỷ lệ chấp nhận rất khó nắm bắt và được giả định rằng:
• VXLAN sẽ được hưởng lợi từ sự hỗ trợ đáng kể của mạng Cisco.
• NVGRE sẽ được áp dụng rộng rãi trong các trung tâm dữ liệu Azure phổ biến của Microsoft.
• STT có thể gặp khó khăn trong việc chấp nhận do tính mới tương đối của nó và thực tế là VMware là người đóng góp và quảng bá chính của VXLAN, do đó có một cơ sở được cài đặt đáng kể.
2.3.1 Mạng ảo cục bộ có thể mở rộng
Công nghệ VXLAN được phát triển chủ yếu bởi VMware và Cisco, như một phương tiện để giảm thiểu tính không linh hoạt và những hạn chế của công nghệ mạng. Một số đặc điểm chính của VXLAN là:
• VXLAN sử dụng MAC-in-IP tunneling
• Mỗi mạng ảo hoặc lớp phủ được gọi là một phân đoạn VXLAN.
• Các phân đoạn VXLAN được xác định bởi một ID phân đoạn 24 bit, cho phép lên đến 224 (khoảng 16 triệu) phân đoạn.
• VXLAN tunnels là không trạng thái.
• Điểm cuối của đoạn VXLAN là các công tắc thực hiện đóng gói và được gọi là VTEP.
• Các gói VXLAN được thống nhất giữa hai VTEP và sử dụng các định dạng gói UDP trên IP.
• Nó dựa trên UDP Số cổng UDP cho VXLAN là 4789.
Hình 2.3 minh họa định dạng của gói VXLAN Như bạn có thể thấy trong sơ đồ, tiêu đề bên ngoài chứa địa chỉ MAC và IP thích hợp để gửi một gói unicast đến bộ chuyển mạch đích, hoạt động như một điểm cuối đường hầm ảo Tiêu đề VXLAN theo sau tiêu đề bên ngoài và chứa Mã nhận dạng mạng VXLAN có độ dài 24 bit, đủ cho khoảng 16 triệu mạng.
Những người ủng hộ công nghệ VXLAN cho rằng nó hỗ trợ cân bằng tải trong mạng Phần lớn cân bằng tải trong mạng trung tâm dữ liệu dựa trên các giá trị của các trường gói khác nhau bao gồm số cổng đích và cổng nguồn Thực tế là cổng nguồn của phiên UDP được tạo ra bằng cách băm các trường khác của luồng dẫn đến chức năng phân phối mượt mà để cân bằng tải với mạng.
Hình 2.3: Mẫu gói tin VXLAN.
2.3.2 Mạng lưới ảo hóa sử dụng GRE
Công nghệ NVGRE được phát triển chủ yếu bởi Microsoft, với các nhà đóng góp khác bao gồm Intel, Dell và Hewlett-Packard Một số đặc điểm chính của NVGRE là:
• NVGRE sử dụng đường hầm MAC-trong-IP.
• Mỗi mạng ảo hoặc lớp phủ được gọi là mạng ảo lớp hai.
• Mạng ảo NVGRE được xác định bằng Mã định danh mạng con ảo 24 bit, cho phép lên đến 224 (16 triệu) mạng con.
• Đường hầm NVGRE cũng giống như đường hầm GRE, không có trạng thái.
• Các gói NVGRE được unicast giữa hai điểm cuối NVGRE, mỗi gói chạy trên một switch NVGRE sử dụng định dạng tiêu đề được chỉ định bởi tiêu chuẩn GRE.
Hình 2.4 cho thấy định dạng của một gói NVGRE Tiêu đề bên ngoài chứa các địa chỉ MAC và IP thích hợp để gửi một gói unicast đến switch đích, hoạt động như một điểm cuối đường hầm ảo, giống như VXLAN Nhớ lại rằng đối với VXLAN, giá trị giao thức IP là UDP Đối với NVGRE, giá trị giao thức IP là 0x2F, có nghĩa là GRE GRE là một giao thức IP riêng biệt và độc lập cùng lớp với TCP hoặc UDP Do đó, như bạn có thể thấy trong sơ đồ, không có cổng TCP hoặc UDP nguồn và cổng đích Tiêu đề
NVGRE theo sau tiêu đề bên ngoài và chứa Mã định danh mạng con NVGRE có độ dài
24 bit, đủ cho khoảng 16 triệu mạng con.
Hình 2.4: Mẫu gói tin NVGRE.
2.3.3 Đường vận chuyển không trạng thái Đường hầm vận chuyển không trạng thái (STT) là một bước tiến gần đây vào lĩnh vực công nghệ đường hầm mạng được sử dụng để ảo hóa mạng Nhà tài trợ chính của nó ban đầu là Nicira Một số đặc điểm chính của STT là:
• STT sử dụng đường hầm mạng MAC-in-IP.
• Ý tưởng chung về mạng ảo tồn tại trong STT, nhưng được bao gồm trong một định danh tổng quát hơn được gọi là ID ngữ cảnh.
• ID ngữ cảnh STT là 64 bit, cho phép số lượng mạng ảo lớn hơn nhiều và phạm vi mô hình dịch vụ rộng hơn.
• STT cố gắng đạt được hiệu suất tăng so với NVGRE và VXLAN bằng cách tận dụng Tải trọng phân đoạn TCP (TSO) được tìm thấy trong Thẻ giao diện mạng (NIC) của nhiều máy chủ TSO là một cơ chế được thực hiện trên NIC của máy chủ cho phép các gói dữ liệu lớn được gửi từ máy chủ đến NIC trong một yêu cầu gửi duy nhất, do đó giảm chi phí liên quan đến nhiều yêu cầu nhỏ hơn.
• STT, như tên của nó, là không trạng thái.
• Các gói STT được unicast giữa các điểm cuối đường hầm, sử dụng TCP theo cách không trạng thái được liên kết với TSO Điều này có nghĩa là nó không sử dụng sơ đồ cửa sổ TCP điển hình, sơ đồ này yêu cầu trạng thái để đồng bộ hóa TCP và kiểm soát luồng.
Hình 2.5 cho thấy định dạng của một gói STT Giống như các giao thức đường hầm mạng khác được thảo luận ở đây, tiêu đề bên ngoài chứa địa chỉ MAC và IP thích hợp để gửi một gói tin unicast đến công tắc đích, hoạt động như một VTEP Đối với VXLAN, giá trị giao thức IP là UDP và đối với NVGRE, giá trị giao thức IP là GRE Đối với STT, giao thức IP là TCP Cổng TCP cho STT vẫn chưa được phê chuẩn, nhưng, giá trị 7471 dự kiến đã được sử dụng Tiêu đề STT theo sau tiêu đề bên ngoài và chứa
Mã nhận dạng ngữ cảnh STT có độ dài 64 bit, có thể được chia nhỏ và sử dụng cho nhiều mục đích; tuy nhiên điều đó đã được thực hiện, có không gian rộng rãi cho nhiều mạng ảo theo yêu cầu.
Hình 2.5: Mẫu gói tin STT.
Kỹ thuật định tuyến trong trung tâm dữ liệu
Một trong những vấn đề quan trọng trong các trung tâm dữ liệu hiện nay là việc sử dụng hiệu quả các liên kết mạng vật lý kết nối các thiết bị mạng tạo thành cơ sở hạ tầng mạng của trung tâm dữ liệu Với quy mô và nhu cầu của các trung tâm dữ liệu, bắt buộc tất cả các liên kết phải được sử dụng hết công suất của chúng.
Như đã giải thích trong Phần 2.2.1, một trong những thiếu sót của công nghệ mạng lớp hai chẳng hạn như cây khung bao trùm là nó sẽ cố tình chặn một số liên kết nhất định để đảm bảo mạng phân cấp không có vòng lặp Đúng là vậy, trong trung tâm dữ liệu, nhược điểm này trở nên quan trọng hơn vấn đề thời gian hội tụ chậm đã hình thành nên phần lớn các phê bình ban đầu về STP.
Và mạng lớp ba cũng yêu cầu định tuyến thông minh các gói khi chúng đi qua mạng vật lý Phần này khám phá một số công nghệ liên quan đến đường dẫn nhằm cung cấp một số thông tin cần thiết để sử dụng hiệu quả nhất mạng và các liên kết kết nối của nó.
2.4.1 Các vấn đề chung về định tuyến đa đường
Trong một mạng điển hình gồm các mạng con lớp ba, sẽ có nhiều bộ định tuyến được kết nối theo một cách nào đó để cung cấp các liên kết dự phòng cho chuyển đổi dự phòng Nhiều liên kết này có tiềm năng được sử dụng để cân bằng tải Định tuyến đa đường là danh mục chung cho các kỹ thuật sử dụng nhiều tuyến đường để cân bằng lưu lượng truy cập trên một số tuyến đường tiềm năng Các vấn đề phải được xem xét trong bất kỳ lược đồ đa đường nào là:
• Khả năng phân phối không theo thứ tự (OOOD) của các gói, các gói này đi theo các con đường khác nhau và người nhận phải sắp xếp lại thứ tự.
• Khả năng xảy ra sự khác biệt về kích thước gói tối đa trên các liên kết trong các đường dẫn khác nhau, gây ra sự cố cho một số giao thức nhất định, chẳng hạn như TCP và phát hiện MTU đường dẫn của nó.
Mặc dù đây là những vấn đề chung về đa đường, nhưng chúng có thể tránh được phần lớn trong một trung tâm dữ liệu hiện đại được định cấu hình đúng cách Với điều kiện mạng thực hiện cân bằng tải trên mỗi luồng và các MTU lõi cao hơn nhiều so với MTU truy cập, các vấn đề này nên tránh được.
2.4.2 Giao thức đa cây khung
Giao thức đa cây khung (Multiple Spanning Tree Protocol - MSTP) đã được giới thiệu để đạt được hiệu quả sử dụng liên kết mạng tốt hơn với công nghệ cây bao trùm khi có nhiều VLAN hiện diện Mỗi VLAN sẽ hoạt động theo cây bao trùm của riêng nó Việc sử dụng các liên kết được cải thiện là để một cây bao trùm của một VLAN sử dụng các liên kết chưa được sử dụng từ các VLAN khác khi hợp lý để làm như vậy MSTP ban đầu được giới thiệu là IEEE 802.1s Bây giờ nó là một phần của IEEE 802.1Q-2005 Cần phải có một số lượng lớn các VLAN để đạt được mức độ sử dụng được phân phối tốt trên các liên kết mạng vì sự phân phối duy nhất là ở mức độ chi tiết của VLAN Và MSTP có trước giao thức cầu nối đường dẫn ngắn nhất và không bị giới hạn.
2.4.3 Cầu nối tuyến ngắn nhất
IEEE 802.1aq là tiêu chuẩn Cầu nối đường dẫn ngắn nhất (SPB) và mục tiêu của nó là cho phép sử dụng nhiều đường dẫn trong mạng lớp hai Do đó, SPB cho phép tất cả các liên kết trong miền lớp hai hoạt động.
SPB là một giao thức trạng thái liên kết, có nghĩa là các thiết bị có nhận thức về cấu trúc liên kết xung quanh chúng và có thể đưa ra quyết định chuyển tiếp bằng cách tính toán đường dẫn tốt nhất đến đích Nó sử dụng giao thức định tuyến của Hệ thống Trung gian này đến Hệ thống Trung gian khác (IS-IS) để khám phá và quảng bá cấu trúc liên kết mạng và xác định đường dẫn đến tất cả các cầu nối khác trong miền của nó.
SPB hoàn thành mục tiêu của mình bằng cách sử mạng Đóng gói này có thể là MAC-in-MAC (IEEE
802.1ad). dụng tính năng đóng gói ở rìa 802.1ah) hoặc Q-in-Q (IEEE
Hình 2.6 cho thấy định dạng khung cho Q-in-Q Như có thể thấy trong hình, Q- in-Q có nghĩa là đẩy thẻ VLAN vào gói sao cho thẻ bên trong trở thành VLAN ban đầu, còn được gọi là ID VLAN khách hàng (C-VLAN) hoặc C-VID Thẻ ngoài có nhiều tên, tùy thuộc vào ngữ cảnh sử dụng Chúng được gọi là Thẻ Metro để sử dụng trong mạng lưới Metro Ethernet và VLAN Edge của nhà cung cấp (PE- VLAN), ID VLAN của nhà cung cấp dịch vụ (S-VLAN) hoặc S-VID để sử dụng trong VLAN của nhà cung cấp C-VID đại diện cho thẻ VLAN của khách hàng ban đầu Khi gói đến rìa mạng nội bộ của nhà cung cấp, một thẻ VLAN mới sẽ được đẩy vào gói để xác định VLAN mà gói sẽ di chuyển trên đó khi nó ở bên trong mạng của nhà cung cấp Khi nó thoát, thẻ VLAN đó sẽ bị xóa.
Hình 2.7 cho thấy định dạng khung cho MAC-in-MAC Tiêu đề MAC mới bao gồm địa chỉ nguồn (SA) và đích (DA) của đường trục Ngoài ra, một phần của tiêu đề là mã định danh VLAN cho mạng của nhà cung cấp đường trục (B-VID), cũng như ID phiên bản dịch vụ của đường trục (I-SID) cho phép nhà cung cấp tổ chức khách hàng vào các dịch vụ cụ thể và cung cấp các mức QoS thích hợp và thông lượng cho mỗi dịch vụ Khi một gói đến biên của nhà cung cấp, phần đầu mới sẽ được gắn vào phần đầu của gói và được gửi qua mạng của nhà cung cấp Khi nó rời khỏi miền của nhà cung cấp, tiêu đề sẽ bị loại bỏ.
Hình 2.6: Cầu nối tuyến ngắn nhất, dùng Q-trong-Q (VLAN).
Hình 2.7: Cầu nối tuyến ngắn nhất, dùng MAC-trong-MAC.
2.4.4 Đa đường đồng giá trị
Một trong những hoạt động quan trọng nhất phải được thực hiện trong các mạng lớn là tính toán đường dẫn tối ưu Chỉ việc đưa một gói tin đến đích của nó đơn giản hơn nhiều so với việc đưa nó đến đó theo cách hiệu quả nhất có thể Trong các giao thức OSPF và IS-IS là các giao thức trạng thái liên kết hiện đại được sử dụng để tính toán các tuyến đường trong mạng lớp ba phức tạp Chúng tôi vừa giải thích trong Phần 2.4.3 rằng IS-IS được sử dụng làm cơ sở để tính toán các tuyến trong giao thức SPB lớp hai Có một chiến lược định tuyến chung được gọi là Đa đường chi phí ngang nhau (ECMP) có thể áp dụng trong trung tâm dữ liệu Định tuyến đa đường là một tính năng được phép rõ ràng trong cảOSPF và IS-IS Ý tưởng là khi tồn tại nhiều hơn một đường dẫn có chi phí ngang nhau đến một đích, nhiều đường dẫn này có thể được tính toán bằng một thuật toán đường đi ngắn nhất và tiếp xúc với logic chuyển tiếp gói tin Tại thời điểm đó, một số sơ đồ cân bằng tải phải được sử dụng để lựa chọn giữa nhiều đường dẫn có sẵn.
Vì một số giao thức định tuyến có thể tạo ra nhiều đường dẫn và có nhiều cách để cân bằng tải trên nhiều đường dẫn, ECMP là một chiến lược định tuyến hơn là một công nghệ cụ thể.
Một công nghệ tính toán đường dẫn phức tạp khác là Kiến trúc dựa trên yếu tố tính toán đường dẫn (PCE) Vì điều này đã được sử dụng chủ yếu trong mạng WAN và không được sử dụng nhiều trong trung tâm dữ liệu.
2.4.5 SDN và Tuyến ngắn nhất linh hoạt
Kết cấu Ethernet trong trung tâm dữ liệu
Kỹ thuật lưu lượng trong trung tâm dữ liệu đang gặp nhiều thách thức khi sử dụng các thiết bị chuyển mạch Ethernet truyền thống được sắp xếp theo hệ thống phân cấp Điển hình của các thiết bị chuyển mạch ngày càng mạnh mẽ khi một thiết bị chuyển mạch lên phân cấp gần hơn với lõi Trong khi các liên kết kết nối tăng băng thông khi một liên kết di chuyển đến gần lõi hơn, các liên kết này thường bị đăng ký quá mức và có thể dễ dàng xảy ra chặn Băng thông tiềm năng tổng hợp đi vào một cấp của hệ thống phân cấp lớn hơn băng thông tổng hợp đi đến cấp tiếp theo.
Một giải pháp thay thế cho mạng của các thiết bị chuyển mạch truyền thống này là kết cấu Ethernet Các loại Ethernet dựa trên kiến trúc không chặn trong đó mọi cấp được kết nối với cấp tiếp theo có băng thông tổng hợp bằng hoặc cao hơn Điều này được tạo điều kiện thuận lợi bởi một cấu trúc liên kết được gọi là cấu trúc liên kết cây béo Việc mô tả cấu trúc liên kết như vậy trong Hình 2.8 Trong cấu trúc liên kết dạng cây béo , số lượng liên kết đi vào một công tắc trong một bậc nhất định của cấu trúc liên kết bằng với số liên kết rời khỏi chuyển đổi đó sang bậc tiếp theo Điều này ngụ ý rằng khi chúng ta tiếp cận lõi, số lượng liên kết đi vào các công tắc sẽ lớn hơn nhiều so với các liên kết hướng tới các lá của cây Gốc của cây sẽ có nhiều liên kết hơn bất kỳ công tắc nào thấp hơn nó Cấu trúc liên kết này cũng thường được gọi là kiến trúc Clos Kiến trúc chuyển mạch đóng có từ những ngày đầu của điện thoại xưa và là một kiến trúc chuyển mạch không chặn hiệu quả Nhưng vẫn có lưu ý rằng kiến trúc Clos không chỉ được sử dụng trong việc xây dựng cấu trúc liên kết mạng mà còn có thể được sử dụng trong kiến trúc bên trong của chính các thiết bị chuyển mạch Ethernet. Đối với các loại Ethernet, đặc điểm chính là băng thông tổng hợp không giảm từ cấp này sang cấp khác khi chúng ta tiếp cận lõi Cho dù điều này đạt được bằng số lượng lớn hơn các liên kết băng thông thấp hay số lượng ít hơn các liên kết băng thông cao về cơ bản không làm thay đổi tiền đề cây béo.
Khi chúng ta tiếp cận lõi của mạng trung tâm dữ liệu, các liên kết kết nối này ngày càng được xây dựng từ các liên kết 100Gb và sẽ rất tốn kém nếu chỉ cố gắng quản lý quá mức mạng với các liên kết bổ sung Do đó, một phần của giải pháp kết cấuEthernet là kết hợp nó với công nghệ ECMP để tất cả băng thông tiềm năng kết nối cấp này với cấp khác đều có sẵn cho kết cấu.
Hình 2.8: Cấu trúc liên kết Cây béo 2.6 Các trường hợp sử dụng SDN trong trung tâm dữ liệu
Chúng em đã mô tả một số định nghĩa về mạng do phần mềm xác định với SDN ban đầu mà chúng em gọi là Open SDN, SDN qua API và SDN via Overlays dựa trên siêu giám sát Chúng em cũng đã mô tả SDN thông qua việc Mở thiết bị, nhưng ở đây chúng em sẽ tập trung vào ba phần đầu tiên, vì chúng là những cái duy nhất đã đạt được sức hút thương mại đáng kể tính đến thời điểm hiện nay trên thị trường.
Làm thế nào để các phiên bản SDN này giải quyết nhu cầu của trung tâm dữ liệu ngày nay như chúng em đã mô tả trong chương này? Để trả lời cho câu hỏi đó thì hãy cùng tìm hiểu qua các phần sau dưới đây.
Chúng em sẽ trình bày theo thứ tự lần lượt là SDN qua Lớp phủ đầu tiên, tiếp theo là
Open SDN và cuối cùng là SDN qua API Mọi người cần lưu ý rằng trong bài tiểu luận này khi chúng em sử dụng biểu thức SDN via Overlays thì có nghĩa là SDN via Overlays dựa trên việc siêu giám sát Sự khác biệt này rất quan trọng vì có những cơ chế lớp phủ khác không dựa trên siêu giám sát sẽ mang lại một kết quả khác nhau Lý do cho việc này là vì SDN via Overlays là một công nghệ giải quyết cụ thể của trung tâm dữ liệu và vì vậy người ta mong đợi giải pháp từ lớp phủ sẽ giải quyết trực tiếp hầu hết các vấn đề này Đặc biệt qua bảng 2.1 bên dưới đây sẽ tóm tắt ngắn gọn khả năng của các định nghĩa SDN khác nhau trong việc giải quyết các nhu cầu của trung tâm dữ liệu mà chúng em đã đề cập trong bài này Và chúng em sẽ còn thảo luận sâu hơn các khía cạnh của bảng này trong các phần tiếp theo.
Các trường hợp sử dụng SDN trong trung tâm dữ liệu
Bổ sung, di chuyển và thay đổi khả năng truyền mạng
Tình trạng phục hồi lỗi
Mở rộng thêm lưu lượng
Kỹ thuật truyền và hiệu năng khi truyền
Có Có Không Có Không
Khả thi Có Có Có Có
Phụ thuộc và việc triển khai Phụ thuộc vào việc triển khai Phụ thuộc vào việc triển khai Phụ thuộc vào việc triển khai Phụ thuộc vào việc triển khai
2.6.1 Vượt qua các giới hạn mạng hiện nay
Trong phần này, chúng em xem xét cách SDN via Overlays, Open SDN và SDN qua API để giải quyết các hạn chế về kích thước bảng địa chỉ MAC và số lượng VLAN tối đa cũng như các khía cạnh khác liên quan đến Bảng 2.1 đã trình bày ở trên.
Giải pháp đơn giản và nhanh chóng nhất cho những vấn đề liên quan đến việc tạo đường hầm mạng thì SDN via Overlays là một lựa chọn đúng đắn và hợp lý nhất Các địa chỉ MAC duy nhất có thể nhìn thấy qua tầng mạng vật lý là địa chỉ MAC của các điểm cuối đường hầm mạng và chúng được thấy tại các siêu giám sát Lấy một ví dụ thông dụng hiện nay như là khi nếu có tám máy ảo trên mỗi siêu giám sát, thì bạn đã giảm tổng số địa chỉ MAC đi một hệ số là tám Còn nếu các điểm cuối của đường hầm càng ngược dòng hoặc số lượng máy ảo trên mỗi siêu giám sát nhiều hơn, thì việc tiết kiệm địa chỉ MAC thậm chí còn lớn hơn. Đối với vấn đề cạn kiệt VLAN, tức là vượt quá giới hạn 4094 thì giải pháp này là ưu việt hơn, vì cơ chế đa chiều mới là đường hầm mạng chứ không phải VLAN Như chúng em đã giải thích trong Phần 2.3, số lượng mạng hoặc phân đoạn đường hầm có thể là 16 triệu hoặc lớn hơn bằng cách sử dụng công nghệ đường hầm VXLAN, NVGRE hoặc STT. Đối với vấn đề sử dụng tất cả các liên kết trong cơ sở hạ tầng vật lý, SDN via Overlays sẽ không giải quyết các vấn đề địa chỉ mạng liên quan đến cơ sở hạ tầng vật lý Mà các nhà thiết kế mạng sẽ cần phải tự mình tìm hiểu và sử dụng các công nghệ SDN khác hoặc sử dụng công cụ khác để giảm thiểu các loại hạn chế vật lý này.
Khi được cho là SDN via Overlays sẽ không giải quyết được các vấn đề về khôi phục lỗi và kỹ thuật lưu lượng thì điều quan trọng chứng tỏ là công nghệ này không ngăn cản các giải pháp cho những vấn đề được thực hiện trong mạng lớp phủ Và có thể hiểu đơn giản là SDN via Overlays sẽ không thể cung cấp cho nó giải pháp khắc phục nếu như chúng ta không tạo ra phương pháp khác.
Open SDN cũng có khả năng giải quyết các hạn chế mạng này Tuy nhiên, nó không giải quyết những hạn chế này theo cách tương tự như SDN via Overlays vì do bản chất cơ bản của phương pháp này là chủ yếu sử dụng đường hầm mạng Việc chuyển chức năng điều khiển khỏi thiết bị sang bộ điều khiển chung sẽ không giải quyết trực tiếp các hạn chế như kích thước bảng địa chỉ MAC và số lượng VLAN tối đa Tuy nhiên, Open SDN rất phù hợp để tạo ra một giải pháp là một phiên bản mới lạ khác của SDN via Overlays.
Bộ điều khiển SDN có thể tạo các đường hầm theo yêu cầu tại những nơi sẽ trở thành điểm cuối của đường hầm và sau đó các quy tắc OpenFlow được sử dụng để đẩy lưu lượng truy cập từ các máy chủ vào đường hầm thích hợp Vì phần cứng tồn tại có hỗ trợ tìm hầm tích hợp nên các thiết bị SDN có thể được tạo ra để thu được những lợi ích này từ việc đào hầm, nhưng cũng cần kết hợp với hiệu suất tăng của phần cứng để thực hiện công việc được hiệu quả hơn Do đó, Open SDN có thể giải quyết những hạn chế mạng này tương tự như giải pháp thay thế SDN via Overlays.
Việc thêm các API SDN vào thiết bị mạng không giải quyết trực tiếp các giới hạn mạng như chúng ta đã thảo luận trong chương này Tuy nhiên, một số giải pháp SDN của trung tâm dữ liệu thông qua API đã được tạo bằng cách sử dụng các giao thức hiện có hoặc mới mẻ hơn Đặc biệt:
• Trung tâm Dữ liệu APIC (APIC-DC) của Cisco sử dụng một giao thức mới gọi là OpFlex Giao thức này được thiết kế để truyền thông tin mức chính sách từ bộ điều khiển APIC-DC đến các thiết bị thông minh có khả năng hiển thị các chính sách đã nhận.
• Juniper's Contrail và biến thể mã nguồn mở OpenContrail, sử dụng các giao thức hiện có như NETCONF, MPLS và XMPP kết hợp với các API hiện có trong các thiết bị ngày nay để tạo ra một mạng ảo hóa nhắm mục tiêu vào trung tâm dữ liệu.
Vì vậy, mặc dù đúng là SDN thông qua API không giải quyết các giới hạn mạng, nhưng việc sử dụng sáng tạo các giao thức và API hiện có này có thể mang lại những cải thiện về hành vi mạng.
2.6.2 Bổ sung, di chuyển và thay đổi khả năng truyền mạng
Loại chức năng này rất quan trọng trong các trung tâm dữ liệu để bắt kịp với tốc độ do tự động hóa máy chủ và lưu trữ mang lại Bây giờ chúng ta xem xét các cách mà công nghệ SDN có thể giải quyết những vấn đề này như thế nào qua:
Thuộc tính chính của SDN via Overlays khi nó giải quyết việc thêm địa chỉ mạng là di chuyển và thay đổi tức là công nghệ xoay quanh ảo hóa Nó không liên quan đến cơ sở hạ tầng vật lý ở tất cả đường mạng Các thiết bị mạng mà nó thao tác thường là các công tắc ảo chạy trong các siêu giám sát Hơn nữa, các thay đổi mạng cần thiết để hoàn thành nhiệm vụ rất đơn giản và chỉ giới hạn trong việc xây dựng và xóa các mạng ảo, được thực hiện trong các đường hầm được tạo rõ ràng cho mục đích đó Và những thao tác này là những thao tác có thể được dễ dàng thông qua phần mềm.
Do đó, nhiệm vụ thêm, di chuyển, xóa và thay đổi trong lớp mạng khá đơn giản và dễ dàng tự động Bởi vì nhiệm vụ bị cô lập và hạn chế trong các đường hầm, các vấn đề phức tạp ít xuất hiện hơn so với những trường hợp sẽ xảy ra nếu các thay đổi cần được áp dụng và nhân rộng trên tất cả các thiết bị vật lý trong mạng Do đó, nhiều người sẽ tranh luận rằng lớp phủ là cách đơn giản nhất để cung cấp tính năng tự động hóa và tính linh hoạt cần thiết để hỗ trợ việc thêm, di chuyển, xóa và thay đổi thường xuyên.
Nhưng bên cạnh đó cũng có những nhược điểm của sự linh hoạt này là do các mạng ảo không được kết hợp chặt chẽ với mạng vật lý, nên dễ dàng thực hiện các bổ sung, di chuyển và thay đổi này mà không chắc chắn rằng mạng vật lý bên dưới có khả năng xử lý chúng Giải pháp rõ ràng nhất ở đây là khai thác quá mức mạng vật lý với dung lượng dư thừa lớn, nhưng đây lại không phải là giải pháp hiệu quả cho vấn đề này.
Như chúng ta đã thảo luận trong phần trước, nếu Open SDN đang được sử dụng để tạo đường hầm và mạng ảo, thì việc Open SDN sẽ đạt được kết quả tương tự như đã thảo luận trước đó là điều sẽ dễ dàng nhận thấy Nhiệm vụ được đưa ra là tạo các đường hầm lớp phủ theo yêu cầu và sử dụng các quy tắc OpenFlow để đẩy các gói tin vào các đường hầm thích hợp.
So sánh giữa Open SDN, Overlays và API
Chúng ta thấy trong chúng trong việc giảm bớt xét kỹ hơn trong các phần
Bảng 2.1 so sánh các loại SDN khác nhau và đóng góp của các vấn đề với mạng trong trung tâm dữ liệu Chúng em xem sau.
• Công nghệ này được thiết kế để giải quyết các vấn đề về trung tâm dữ liệu.
• Công nghệ này thường sử dụng các công nghệ trung tâm dữ liệu hiện đại, đặc biệt là VXLAN và NVGRE, và do đó, công nghệ này không hoàn toàn mới.
• Công nghệ tạo ra một mạng lớp phủ ảo và do đó thực hiện rất tốt công việc khắc phục các hạn chế của mạng và cải thiện sự nhanh nhẹn.
• Công nghệ không giải quyết bất kỳ vấn đề nào liên quan đến việc cải thiện hoạt động của cơ sở hạ tầng vật lý Tuy nhiên, điều này có lợi thế là phát sinh ít hoặc không có chi phí liên quan đến thiết bị mạng mới.
• Đôi khi rất khó để chẩn đoán các vấn đề và xác định xem chúng liên quan đến mạng ảo hay mạng vật lý.
• Công nghệ được thiết kế để giải quyết các vấn đề mạng trong nhiều lĩnh vực, không chỉ trung tâm dữ liệu.
• Open SDN có thể được triển khai bằng cách sử dụng các thiết bị mạng được thiết kế cho Open SDN Phần cứng chuyển đổi kế thừa thường có thể được tăng cường bằng cách thêm OpenFlow để hoạt động như các thiết bị Open SDN.
• Công nghệ, được sử dụng cùng với các mạng ảo (ví dụ: VXLAN và NVGRE),thực hiện rất tốt công việc giải quyết tất cả các vấn đề về mạng mà chúng ta đã thảo luận.
• Công nghệ có phạm vi rộng hơn; do đó, nó gây gián đoạn hơn và có thể gây ra nhiều vấn đề chuyển tiếp hơn so với SDN via Overlays.
•Mặc dù cả Open SDN và SDN via Overlays đều cho phép đổi mới đáng kể nhưng các trường hợp sử dụng Open SDN sẽ cho thấy cách người triển khai đã định nghĩa lại mạng một cách triệt để Khi làm như vậy, họ từ bỏ các cấu trúc kế thừa và cấu trúc mạng để hoạt động phù hợp chính xác với các yêu cầu ứng dụng.
• Công nghệ này có thể tận dụng các thiết bị mạng hiện có với những nâng cấp tối thiểu.
•Một số giải pháp (ví dụ: APIC-DC và OpFlex) vốn là các giải pháp dựa trên chính sách còn trong khi các giải pháp khác sẽ được thêm vào giải pháp hiện có để thực hiện được.
• Các giải pháp khác dịch các kiến trúc thành công hiện có từ một miền sang miền trung tâm dữ liệu Tuy nhiên, đây là trường hợp của Contrail sử dụng công nghệ MPLS trong trung tâm dữ liệu MPLS thường được sử dụng trong mạng WAN Hiệu quả của bản dịch này vẫn chưa được chứng minh, nhưng nó chắc chắn có nhiều hứa hẹn trong tương lai sắp tới.
• Có sự hỗ trợ của các nhà cung cấp chính từ Juniper và Cisco, mỗi nhà cung cấp cho giải pháp trung tâm dữ liệu của riêng họ, giải pháp này có thể được chứng minh là có ý nghĩa quan trọng trong việc xác định sự thành công hay thất bại của một công nghệ mới.
Những điểm này chỉ ra rằng SDN via Overlays là một giải pháp tốt và có thể là một giai đoạn chuyển tiếp dễ dàng và thành công hơn trong thời gian tới, trong khi
Open SDN có nhiều hứa hẹn nhất theo nghĩa rộng hơn và toàn diện hơn Mặc dù Bảng
2.1 minh họa rằng SDN thông qua API có thể không phải là giải pháp tối ưu trong trung tâm dữ liệu do xử lý các vấn đề cũ nhưng một số vấn đề của trung tâm dữ liệu có thể được giải quyết bởi SDN cụ thể thông qua các giải pháp API Các giải pháp SDN thông qua API đơn giản hơn trên thực tế và có thể đại diện cho kế hoạch chuyển đổi dễ dàng nhất cho các nhà lập trình mạng trong ngắn hạn vì cần thay đổi ít triệt để hơn so với yêu cầu chuyển sang phương pháp Overlay hoặc Open SDN.
Triển khai trung tâm dữ liệu thế giới thực
Trong chương này, chúng em đã dành thời gian xác định nhu cầu của các trung tâm dữ liệu mới mẻ và chúng em đã tìm hiểu các cách thức mà mỗi công nghệ SDN đã giải quyết những nhu cầu đó Người ta có thể tự hỏi liệu có ai đang thực sự triển khai các công nghệ SDN này trong trung tâm dữ liệu hay không?
Thì câu trả lời có thể là mặc dù nó vẫn đang trong quá trình hoàn thiện, nhưng có những tổ chức đang chạy thử nghiệm SDN và trong một số trường hợp đã đưa nó vào sản xuất Trong Bảng 2.2, chúng em liệt kê một số doanh nghiệp nổi tiếng và việc triển khai SDN sớm của họ trong các trung tâm dữ liệu của họ Bảng hiển thị kết hợp giữa
Open SDN và SDN via Overlays, nhưng không có ví dụ nào về SDN qua API Phần lớn các nỗ lực hướng về API không thực sự là những gì đã được định nghĩa là SDN. Chúng sử dụng các công nghệ tương tự tức là các công cụ điều phối và các plugin VMware để điều khiển mạng bằng SNMP và CLI Một số thử nghiệm với các API SDN mới hơn có lẽ đang được tiến hành, nhưng mạng SDN của trung tâm dữ liệu sản xuất có xu hướng trở thành lớp phủ dựa trên siêu giám sát với một vài ví dụ sử dụng
Open SDN Điều đáng nói là Juniper’s Contrail có phần khác đặc biệt nhất ở đây Đó chính là Contrail đã được triển khai trong môi trường trung tâm dữ liệu thương mại và do đó có thể được coi là một ví dụ về SDN sản xuất thông qua triển khai API Trong bất kỳ trường hợp nào, giữa Open SDN và phương pháp tiếp cận lớp phủ, quan sát của chúng em là các ví dụ về trung tâm dữ liệu trường xanh cực lớn thu hút về Open SDN,trong khi lớp phủ dựa trên siêu giám sát đã được áp dụng nhiều hơn trong các trung tâm dữ liệu quy mô điển hình hơn.
Phần kết luận
Chương này đã mô tả nhiều nhu cầu cấp thiết và quan trọng đã khiến mạng trung tâm dữ liệu trở thành một trở ngại cho sự tiến bộ công nghệ trong lĩnh vực đó Chúng em đã kiểm tra các công nghệ và tiêu chuẩn mới nhằm giải quyết những nhu cầu đó Sau đó, chúng em đã trình bày ra ba cách lựa chọn thay thế SDN chính là sử dụng lại chính các công nghệ đó, cũng như các ý tưởng mới do SDN đưa ra để giải quyết những nhu cầu đó. Cuối cùng, chúng em đã liệt kê cách một số doanh nghiệp lớn đang sử dụng SDN ngày nay trong môi trường trung tâm dữ liệu của họ Và tiếp đến trong Chương 3,
Nhóm 9 chúng ta sẽ xem xét các trường hợp sử dụng khác cho SDN, chẳng hạn như mạng di động và mạng doanh nghiệp.
SDN TRONG CÁC MÔI TRƯỜNG KHÁC
Mạng tại khu vực lớn
Trước đây, mạng WAN được sử dụng để kết nối các mạng đảo xa, chẳng hạn như kết nối các mạng LAN phân tán về mặt địa lý tại các văn phòng khác nhau thuộc cùng một doanh nghiệp hoặc tổ chức Một số công nghệ không phải Ethernet đã được sử dụng để hỗ trợ kết nối WAN này, bao gồm:
•Kênh thuê riêng: Những kết nối điểm với điểm này đã được sử dụng trong những ngày đầu của mạng và vận hành rất tốn kém.
• Chuyển mạch: Kết nối quay số là một ví dụ về loại kết nối này, có băng thông hạn chế, nhưng rất rẻ.
• Chuyển mạch gói: Các mạng mang tại trung tâm thực hiện lưu lượng truy cập từ điểm cuối này đến điểm cuối khác, sử dụng các công nghệ như X.25 và Frame-Relay.
• Rơ le di động: Các công nghệ như ATM vẫn được sử dụng ngày nay, có kích thước ô cố định và mạch ảo.
• Cáp và vòng lặp thuê bao kỹ thuật số Những công nghệ này đóng một vai trò quan trọng trong việc mang kết nối WAN đến gia đình.
Tuy nhiên, gần đây các công nghệ này đã nhường chỗ đáng kể cho các liên kết WAN dựa trên Ethernet Ngày nay, các công ty và tổ chức đang sử dụng Ethernet để kết nối các mạng phân tán về mặt địa lý, sử dụng hệ thống mạng riêng hoặc trong một số trường hợp nhất định là Internet Ethernet ở đây đã được chứng minh là một giải pháp tuyệt vời trong các lĩnh vực mà trước đây chưa được hình dung Tuy nhiên, việc chuyển sang Ethernet không chỉ mang lại lợi thế của công nghệ đó mà còn mang lại nhiều thách thức mới lạ và khó khăn Còn phần sau đây sẽ đề cập đến một số vấn đề chính có liên quan đến môi trường WAN.
Các vấn đề chính mà các nhà thiết kế mạng phải đối mặt khi nói đến mạng WAN là độ tin cậy và sử dụng hiệu quả nhất băng thông có sẵn Băng thông là một mặt hàng khan hiếm so với mạng LAN oo chi phí của các liên kết đường dài trong mạng WAN khá đắt đỏ Trong các môi trường như trung tâm dữ liệu, có thể tạo ra các liên kết dự phòng mà không cần quan tâm nhiều đến chi phí, vì cáp tương đối rẻ Hơn nữa, nhu cầu băng thông có thể được đáp ứng bằng cách thêm nhiều cổng và liên kết Với mạng WAN thì không như vậy, trong đó chi phí băng thông là các đơn hàng có cường độ lớn hơn theo khoảng cách so với mức chúng nằm trong trung tâm dữ liệu hoặc khuôn viên cố định Thêm các cổng dự phòng chỉ làm trầm trọng thêm vấn đề này Do đó, điều quan trọng là phải thúc đẩy việc sử dụng và hiệu quả cao hơn trong các liên kết WAN.
3.1.1 SDN được áp dụng cho WAN
Khắc phục tình trạng mất kết nối trên một liên kết bằng cách sử dụng tính năng dự phòng và chuyển đổi dự phòng là điều phổ biến trong tất cả các hình thức mạng, bao gồm cả mạng WAN Công nghệ này tồn tại trong các thiết bị ngày nay và đã tồn tại trong nhiều năm Tuy nhiên, các quyết định định tuyến được thực hiện trong quá trình chuyển đổi dự phòng không thể dự đoán được trong khoảng thời gian tổng hợp và thường không tối ưu ngay cả sau khi đã tổng hợp Các đường dẫn dưới được tối ưu là do thiếu chế độ xem trung tâm để xem tất cả các đường dẫn cũng như khả năng băng thông và các tiêu chí khác Kiến thức từ toàn cầu như vậy cho phép các quyết định có thể lặp lại và tối ưu Khía cạnh độ tin cậy này rất được mong muốn bởi các tổ chức dựa vào các kết nối diện rộng để vận hành doanh nghiệp và tổ chức của họ Như chúng ta đã biết bộ điều khiển SDN có thể có quyền truy cập vào tất cả thông tin này và vì nó có lẽ chạy trên một máy chủ hiệu suất cao, nó có thể tính toán các đường dẫn tối ưu nhanh hơn và đáng tin cậy hơn so với cách tiếp cận phân tán truyền thống.
Có một số công nghệ tiền SDN cố gắng cho phép các quyết định định tuyến tối ưu. Bao gồm các:
• Ứng dụng Giám sát Mạng và Quản lý Lưu lượng Ví dụ: sFlow và NetFlow thu thập thông tin cần thiết để hệ thống quản lý mạng có thể đưa ra quyết định định tuyến tối ưu.
• MPLS-Traffic Engineering (MPLS-TE) sử dụng các cơ chế kỹ thuật lưu lượng để chọn các đường dẫn tối ưu cho các Đường dẫn Chuyển mạch Nhãn MPLS (LSP). LSP là một đường dẫn thông qua mạng MPLS Các gói được chuyển tiếp dọc theo con đường này bởi các bộ định tuyến trung gian định tuyến các gói bằng một ánh xạ được chỉ định trước của các cặp cổng-nhãn đi vào đến các cặp cổng đi vào và cổng đi ra. Một LSP đôi khi được gọi là một đường hầm MPLS.
• Kiến trúc dựa trên yếu tố tính toán đường dẫn (PCE) xác định đường dẫn tối ưu giữa các nút dựa trên tập hợp các điều kiện tải mạng lớn hơn có thể được xem xét trong phân tích đường dẫn tốt nhất đơn giản như IS-IS.
Ngay cả khi các công nghệ tiền SDN này cố gắng đưa ra các quyết định về đường đi tối ưu dựa trên chế độ xem toàn cầu của mạng, chúng vẫn bị cản trở bởi các thiết bị giữ lại các mặt phẳng điều khiển tự động của chúng Chúng em xem xét một ví dụ về điều này trong phần sau.
3.1.2 MPLS LSP trong GOOGLE WAN
Trong Google, để mô tả các giải pháp WAN trước thì SDN của họ xử lý trường hợp liên kết không thành công Trong trường hợp cụ thể này, vấn đề xoay quanh việc định tuyến lại các LSP MPLS trong trường hợp liên kết bị lỗi.
Hình 3.2: Google không có OpenFlow
Chúng em mô tả tình hình trước SDN trong Hình 3.2 Trong hình, liên kết bên phải có nhãn Tuyến đường tốt nhất đi xuống Khi một liên kết gặp sự cố và mạng cần kết nối lại, tất cả các LSP sẽ cố gắng định tuyến lại Quá trình này được thực hiện tự động bởi các bộ định tuyến dọc theo đường dẫn bằng Giao thức dành riêng tài nguyên (RSVP) để thiết lập đường dẫn và dự trữ băng thông Khi LSP đầu tiên được thiết lập và dự trữ băng thông còn lại trên một liên kết, các liên kết khác phải thử lại trên các đường dẫn còn lại Bởi vì quá trình này được thực hiện độc lập và đột xuất, nó có thể được lặp lại nhiều lần với một chỉ có một liên kết duy nhất hoàn thành và được đề ra. Điều này có thể lặp lại trong một thời gian cho đến khi LSP cuối cùng được thiết lập.
Nó không có tính xác định ở chỗ không biết LSP nào sẽ là LSP cuối cùng trong bất kỳ liên kết nhất định nào Đây là một vấn đề thực tế và giải pháp trước OpenFlow này rõ ràng là thiếu sót.
Chúng em đối chiếu điều này với Hình 3.3, cho thấy cách một hệ thống SDN với bộ điều khiển tập trung chứa kiến thức về tất cả các tuyến đường khả thi và băng thông khả dụng hiện tại có thể giải quyết vấn đề này hiệu quả hơn nhiều Để thực hiện điều này, bộ điều khiển hoạt động cùng với ứng dụng Traffic Engineering (TE) được hiển thị trong hình Việc tính toán một giải pháp tối ưu để ánh xạ các LSP tới mạng còn lại có thể được thực hiện một lần và sau đó được lập trình vào các thiết bị Giải pháp dựa trên SDN này có tính xác định ở chỗ mỗi lần sẽ có cùng một kết quả.
Google đã đi đầu trong công nghệ SDN ngay từ khi mới thành lập và họ đã tận dụng công nghệ này để làm lợi thế của mình trong việc quản lý mạng WAN cũng như các trung tâm dữ liệu của họ Họ đã kết nối các trung tâm dữ liệu của mình bằng cách sử dụng công tắc OpenFlow được kết nối với bộ điều khiển mà họ đã thiết kế với các tính năng mà chúng em vừa mô tả Những lợi ích mà Google đã nhận ra từ việc chuyển đổi của họ sang OpenFlow trong mạng WAN là:
• Chi phí quản lý thiết bị thấp hơn
• Các quyết định định tuyến có thể đoán trước và xác định được trong trường hợp chuyển đổi dự phòng
• Quyết định định tuyến tối ưu dựa trên băng thông và tải
Nhà cung cấp dịch vụ và truyền mạng
Nhà cung cấp dịch vụ (SP) và mạng của nhà cung cấp dịch vụ có bản chất là diện rộng và đôi khi được gọi là mạng backhaul, vì chúng tập hợp các mạng biên, mang một lượng lớn dữ liệu và lưu lượng thoại qua các khu vực địa lý, thường thay mặt cho các Nhà cung cấp dịch vụ viễn thông và Internet Ví dụ về Nhà cung cấp dịch vụ và nhà cung cấp dịch vụ là Verizon, AT&T, Sprint, Vodafone và China Mobile.
Nhà cung cấp dịch vụ mạng bán băng thông mạng cho người đăng ký, họ thường làNhà cung cấp dịch vụ Internet Một nhà cung cấp dịch vụ thường được liên kết với các ngành viễn thông và di động, những người trước đây chủ yếu quan tâm đến lưu lượng thoại Nhà cung cấp dịch vụ thường sở hữu các phương tiện thông tin liên lạc vật lý Ranh giới giữa các nhà cung cấp dịch vụ và SP ngày càng được phai nhòa đi Các nhà cung cấp dịch vụ và SP hiện mang một hỗn hợp lưu lượng đa dạng hơn nhiều, bao gồm cả Thoại qua IP (VoIP) và video Bên cạnh sự đa dạng của các loại hình giao lưu thông tin, tổng lượng giao lưu thông tin phát triển với tốc độ ngày càng cao Điện thoại thông minh với gói dữ liệu đã đóng một vai trò lớn trong việc tăng tổng lượng truy cập cũng như tính đa dạng của nó.
Nếu không áp dụng cách tiếp cận mới để quản lý băng thông, sự tăng trưởng về tính đa dạng và khối lượng lưu lượng truy cập này dẫn đến chi phí vượt ngoài tầm kiểm soát Việc cung cấp quá mức các liên kết để điều chỉnh các mẫu lưu lượng thay đổi là quá tốn kém cho các liên kết WAN được SP sử dụng Theo truyền thống, quản lý băng thông được cung cấp thông qua các nền tảng quản lý mạng, chắc chắn có thể đo lường việc sử dụng lưu lượng và thậm chí có thể đề xuất các thay đổi có thể được thực hiện theo cách thủ công để đáp ứng các mẫu lưu lượng.
Băng thông mạng không chỉ cần được sử dụng hiệu quả nhất mà còn cần phải đáp ứng ngay lập tức với những thay đổi về yêu cầu do nâng cấp và hạ cấp hợp đồng dịch vụ Nếu khách hàng muốn lưu lượng của họ di chuyển trên mạng với mức độ ưu tiên cao hơn hoặc ở tốc độ lớn hơn, SP muốn có thể thực hiện các thay đổi đối với chính sách dịch vụ của họ ngay lập tức mà không làm gián đoạn các luồng hiện có Có thể cung cấp băng thông theo yêu cầu là một điểm bán hàng cho các SP Các yêu cầu khác bao gồm khả năng thay đổi động các đường dẫn đến băng thông cao hơn, đường dẫn độ trễ thấp hơn và ưu tiên lại các gói để chúng được ưu tiên trong hàng đợi khi chúng đi qua các thiết bị mạng.
Một khía cạnh khác của việc giảm chi phí liên quan đến việc đơn giản hóa các thiết bị Trong các mạng lõi lớn do các nhà mạng vận hành, chi phí OPEX quản lý một thiết bị phức tạp lớn hơn chi phí CAPEX tăng lên cho thiết bị đó Do đó, một thiết bị đơn giản hơn sẽ tiết kiệm chi phí theo hai cách Điều này không chỉ đúng đối với các thiết bị mạng mà còn đối với các thiết bị mạng ngày nay yêu cầu phần cứng chuyên dụng, chẳng hạn như bộ cân bằng tải, tường lửa và hệ thống bảo mật.
SP chịu trách nhiệm lấy lưu lượng mạng từ một nguồn, truyền nó trong toàn bộ mạng của SP và chuyển tiếp nó ra rìa mạng từ xa đến đích Do đó, các gói tin phải vượt qua ít nhất hai ranh giới Khi nhiều hơn một SP phải được chuyển qua, thì số lượng các ranh giới vượt qua sẽ tăng lên Lưu lượng truy cập vào mạng của SP thường được đánh dấu bằng các thẻ cụ thể cho VLAN và mức độ ưu tiên SP cũng có nhu cầu về lưu lượng định tuyến, có thể yêu cầu gói tin được gắn thẻ lại Hơn nữa, cơ chế định tuyến có thể khác trong mạng SP Ví dụ: họ có thể sử dụng gắn thẻ MPLS hoặc VLAN để định tuyến nội bộ Khi các cơ chế gắn thẻ bổ sung này được sử dụng, điều này kéo theo một lớp đóng gói khác của gói dữ liệu khách hàng Các ranh giới mà lưu lượng truy cập phải vượt qua thường được gọi là Cạnh khách hàng (CE) và Cạnh nhà cung cấp (PE) Giao diện mạng với mạng (NNI) là ranh giới giữa hai SP Vì NNI là một điểm quan trọng để thực thi chính sách, điều quan trọng là chính sách phải được cấu hình dễ dàng tại các ranh giới này Các công nghệ hỗ trợ SP theo cách này phải hỗ trợ các yêu cầu vượt ranh giới này.
Hình 3.4 cho thấy một phiên bản đơn giản của mạng với khách hàng và một cặp
SP Hai máy chủ điểm cuối đang cố gắng giao tiếp bằng cách đi qua CE và sau đó là
PE Sau khi đi qua mạng của SP1, gói tin sẽ đi ra mạng đó tại PE ở phía bên kia Sau khi đi qua CE, đích nhận gói tin.
Hình bên cho thấy một gói truyền qua mạng từ điểm cuối bên trái đến điểm cuối bên phải (xem mũi tên trong hình) Gói ban đầu khi nó phát ra từ thiết bị nguồn không được đóng gói Gói có thể nhận được thẻ VLAN khi nó đi qua CE (có thể do ISP cung cấp) Khi gói đi qua PE, nó có thể được đóng gói bằng công nghệ như PBB hoặc được gắn thẻ bằng thẻ VLAN hoặc MPLS khác Khi gói tin ra khỏi mạng nhà cung cấp và đi qua PE khác ở bên phải, tương ứng nó sẽ được giải mã hoặc thẻ được bật ra và sau đó nó được chuyển vào mạng CE đích.
Hình 3.4: Môi trường cung cấp dịch vụ
Hình 3.4 cũng mô tả NNI giữa SP1 và SP2 Nếu các gói tin của khách hàng được chuyển hướng đến một đích trên mạng SP2, chúng sẽ đi qua một ranh giới NNI như vậy Các chính sách liên quan đến các thỏa thuận kinh doanh giữa nhà cung cấp dịch vụ SP1 và SP2 sẽ được thực thi tại giao diện đó.
3.2.1 SDN được áp dụng cho mạng SP và vận chuyển
Trọng tâm chính của SP khi xem xét SDN là kiếm tiền Điều này đề cập đến khả năng kiếm hoặc tiết kiệm tiền bằng cách sử dụng các kỹ thuật và công cụ cụ thể SDN được quảng bá như một cách để các nhà cung cấp và nhà cung cấp dịch vụ kiếm tiền từ các khoản đầu tư của họ vào thiết bị mạng bằng cách tăng hiệu quả, giảm chi phí quản lý và nhanh chóng thích ứng với những thay đổi trong chính sách kinh doanh và các mối quan hệ.
Một số cách mà SDN có thể giúp cải thiện khả năng kiếm tiền cho các nhà cung cấp và nhà cung cấp dịch vụ là
(2) Tiết kiệm CAPEX và OPEX
(3) Thực thi chính sách ở ranh giới PE và NNI.
SDN thể hiện sự nhanh nhạy và khả năng sử dụng tối đa các liên kết hiện có bằng
TE và nhận thức về trạng thái tập trung, trên toàn mạng lưới Bản chất chi tiết và dễ dàng sử dụng của SDN cho phép thực hiện các thay đổi một cách dễ dàng và với khả năng được cải thiện để làm như vậy với sự gián đoạn dịch vụ tối thiểu Điều này tạo điều kiện thuận lợi cho việc sử dụng băng thông có lợi cũng như khả năng thích ứng mạng với các yêu cầu thay đổi liên quan đến nhu cầu của khách hàng và Thỏa thuận mức dịch vụ (SLA).
SDN có thể giảm chi phí theo một số cách Đầu tiên, có tiết kiệm CAPEX Chi phí của thiết bị SDN hộp trắng thấp hơn đáng kể so với chi phí của thiết bị không phải SDN tương đương Điều này có thể là do việc giảm hóa đơn nguyên vật liệu (BOM) cũng như thực tế đơn giản là các nhà cung cấp hộp trắng đã quen với mô hình kinh doanh có tỷ suất lợi nhuận thấp hơn Việc cắt giảm BOM bắt nguồn từ các khoản tiết kiệm như giảm chi phí bộ nhớ và CPU do loại bỏ quá nhiều phần mềm điều khiển chuyên sâu CPU và bộ nhớ khỏi thiết bị Thứ hai, giảm chi phí OPEX, dưới dạng giảm tải quản trị liên quan đến việc quản lý và cấu hình thiết bị.
Như đã mô tả trước đây, các gói sẽ đi từ mạng khách hàng qua PE vào mạng của nhà cung cấp, thoát ra ở PE từ xa OpenFlow hỗ trợ nhiều phương pháp đóng gói lưu lượng truy cập khi được yêu cầu trong những trường hợp này OpenFlow 1.1 hỗ trợ đẩy và xuất các thẻ MPLS và VLAN OpenFlow 1.3 đã thêm hỗ trợ cho việc đóng gói PBB Điều này làm cho nó có thể phù hợp với các giao diện tiêu chuẩn với công nghệ Open SDN Ngoài ra, Open SDN cung cấp một cơ chế linh hoạt để thực thi chính sách trên lưu lượng tổng hợp đi qua ranh giới NNI Vì các chính sách này thường gắn liền với các mối quan hệ kinh doanh linh hoạt giữa các SP, nên điều cần thiết là công nghệ hỗ trợ việc thực thi chính sách phải dễ dàng bị thao túng Với các lợi thế bổ sung về băng thông, cắt giảm chi phí, khả năng hiển thị và thực thi chính sách của SDN, điều này làm cho giải pháp SDN trở nên hấp dẫn hơn.
3.2.2 MPLS-TE và MPLS VPN
Một dự án nghiên cứu tại Stanford đã chứng minh MPLS-TE bằng OpenFlow. Các tác giả nhận định rằng “trong khi mặt phẳng dữ liệu MPLS khá đơn giản, thì mặt phẳng điều khiển kết hợp với MPLS-TE và MPLS - VPM lại phức tạp Ví dụ, trong mạng MPLS được thiết kế theo lưu lượng thông thường, người ta cần chạy OSPF, LDP, RSVP-TE, I-BGP và MP-BGP”.
Họ cho rằng mặt phẳng điều khiển cho mạng MPLS truyền thống xác định các tuyến đường sử dụng thông tin truyền giao là phức tạp không cần thiết Số lượng và độ phức tạp của báo hiệu điều khiển trong cách tiếp cận truyền thống là khi mạng có những thay đổi thường xuyên, có rất nhiều gói điều khiển được trao đổi đến mức một số có thể dễ dàng bị mất Điều này dẫn đến sự bất ổn định trong mặt phẳng điều khiển MPLS-TE.
Các tác giả chứng minh rằng thật đơn giản để xây dựng một mạng tương đương sử dụng OpenFlow để đẩy và bật các thẻ MPLS theo cấu trúc liên kết và thống kê lưu lượng có sẵn trong bộ điều khiển NOX OpenFlow Ngoài việc cung cấp một giải pháp thay thế ổn định hơn và dễ dự đoán hơn so với cách tiếp cận truyền thống, giải pháp dựa trên OpenFlow có thể được triển khai trong ít hơn 2000 dòng mã, đơn giản hơn nhiều so với các hệ thống hiện tại.
Hình 3.5: Nhà cung cấp dịch vụ và SDN MPLS
Campus Network
Campus networks là một nhóm các mạng cục bộ LAN trong một khu vực địa lý tập trung Thông thường, các thiết bị mạng và liên kết truyền thông thuộc về chủ sở hữu của khuôn viên Đây có thể là trường đại học, doanh nghiệp tư nhân hoặc văn phòng chính phủ, trong số các tổ chức khác Người dùng cuối của khuôn viên có thể kết nối thông qua các điểm truy cập không dây (AP) hoặc thông qua các liên kết có dây Họ có thể kết nối bằng máy tính để bàn, máy tính xách tay, máy tính công cộng hoặc thiết bị di động, chẳng hạn như máy tính bảng và điện thoại thông minh Các thiết bị với mà họ kết nối với mạng có thể thuộc sở hữu của tổ chức của họ hoặc cá nhân Hơn nữa, những thiết bị thuộc sở hữu cá nhân đó có thể đang chạy một số dạng phần mềm truy cập từ bộ phận công nghệ thông tin hoặc các thiết bị có thể hoàn toàn độc lập.
Có một số yêu cầu về mạng liên quan cụ thể đến các mạng trong campus networks Chúng bao gồm
(1) các cấp độ truy cập khác nhau
(2) mang theo thiết bị của riêng bạn (BYOD)
(3) kiểm soát truy cập và bảo mật(4) khám phá dịch vụ
(5) tường lửa cho người dùng cuối.
Những người dùng khác nhau trong khuôn viên này sẽ yêu cầu các cấp độ truy cập khác nhau Khách trong ngày nên có quyền truy cập vào một nhóm dịch vụ hạn chế, chẳng hạn như Internet Nhiều khách thường trú hơn có thể được tiếp cận với nhiều dịch vụ hơn Nhân viên nên nhận được quyền truy cập dựa trên danh mục mà họ thuộc, chẳng hạn như giám đốc điều hành hoặc nhân viên công nghệ thông tin Các mức truy cập khác biệt này có thể ở dạng kiểm soát truy cập (tức là những gì họ có thể và không thể có quyền truy cập) cũng như chất lượng dịch vụ của họ, chẳng hạn như ưu tiên lưu lượng và giới hạn băng thông
BYOD là một hiện tượng phát sinh từ sự gia tăng theo cấp số nhân của chức năng có sẵn trong điện thoại thông minh và máy tính bảng Người dùng mạng campus network muốn truy cập mạng bằng các thiết bị họ quen thuộc, thay vì với một thiết bị do khu vực cấp Ngoài các thiết bị di động, một số các cá nhân có thể thích máy tính xách tay của Apple hoặc Linux hơn hệ thống Windows do công ty phát hành.
Trong những năm qua, quyền truy cập vào các mạng dựa trên sự gần gũi về mặt vật lý Nếu bạn đang ở trong tòa nhà và có thể cắm thiết bị của bạn vào mạng, khi đó bạn đã được cấp quyền truy cập Với sự phổ biến của kết nối không dây và mức độ bảo mật cao,giờ đây việc nhân viên cũng như khách phải vượt qua một số rào cản an ninh để được cấp quyền truy cập ngày càng phổ biến hơn Bảo mật đó có thể ở một hình thức an toàn hơn,chẳng hạn như IEEE 802.1X hoặc nó có thể là một số hình thức bảo mật hạn chế hơn, chẳng hạn như xác thực dựa trên địa chỉ MAC hoặc đăng nhập web cổng bị khóa.
Người dùng cuối của khuôn viên muốn truy cập vào các dịch vụ như máy in hoặc chia sẻ tệp, hoặc thậm chí có thể là TV Khám phá dịch vụ làm cho điều này có thể thông qua các giao diện đơn giản và tự động khám phá các thiết bị và hệ thống cung cấp các dịch vụ này Tuy nhiên, để đạt được mức độ đơn giản này, có một chi phí về tải lưu lượng mạng liên quan đến các giao thức cung cấp dịch vụ này.
Một trong những mối nguy hiểm của hệ thống mạng trong khuôn viên trường là khả năng các thiết bị bị nhiễm độc đưa ra các mối đe dọa không mong muốn cho mạng Mối đe dọa này được tăng lên bởi sự hiện diện của các thiết bị BYOD trên mạng Chúng có thể ở dạng các ứng dụng độc hại như máy quét cổng thăm dò mạng tìm kiếm các thiết bị dễ bị tấn công Tường lửa của người dùng cuối là cần thiết để bảo vệ khỏi các mối đe dọa như vậy.
3.3.1 SDN trong khuôn viên: Áp dụng chính sách
Sau đây là mô tả giá trị của quản lí và triển khai chính sách tập trung, Campus networks là một trong những lĩnh vực mà khả năng này dễ dàng được hiện thực hóa Sự linh hoạt của SDN trong việc vận dụng các quy tắc luồng dựa trên các định nghĩa chính sách khiến nó rất phù hợp với việc áp dụng chính sách trong khuôn viên Ý tưởng chung về việc áp dụng chính sách như sau:
• Người dùng kết nối mạng và cố gắng gửi lưu lượng truy cập vào mạng.
• Không có chính sách nào được áp dụng cho người dùng này, vì vậy các gói ban đầu của người dùng được chuyển tiếp đến bộ điều khiển Tại thời điểm này, người dùng không có quyền truy cập hoặc chỉ có quyền truy cập hạn chế vào mạng.
• Bộ điều khiển tham khảo cơ sở dữ liệu chính sách để xác định mức độ ưu tiên và quyền truy cập thích hợp cho người dùng này.
• Bộ điều khiển tải xuống các quy tắc luồng thích hợp cho người dùng này.
• Người dùng hiện giờ có quyền truy cập phù hợp với nhóm mà họ thuộc về, cũng như các thông tin đầu vào khác như vị trí của người dùng, thời gian trong ngày, v.v.
Hệ thống này cung cấp các cấp độ truy cập khác nhau cần thiết trong campus networks Chức năng này tương tự như những gì các sản phẩm Network Access Control (NAC) cung cấp ngày nay Tuy nhiên, ứng dụng dựa trên SDN này có thể đơn giản, mở, dựa trên phần mềm và linh hoạt trong đó các chính sách có thể được thể hiện bằng ngôn ngữ tinh tế và tiêu chuẩn của quy trình.
Loại kiểm soát truy cập sử dụng SDN này nên được áp dụng ở biên của mạng, nơi có số lượng người dùng và do đó, số lượng mục nhập luồng sẽ không vượt quá giới hạn của bảng phần cứng thực tế của thiết bị mạng biên Sau cạnh, lớp tập trung mạng tiếp theo được gọi là lớp phân bố hay lớp tập hợp Việc áp dụng chính sách ở lớp này của mạng sẽ có dạng khác Thay vào đó, chính sách SDN trong các thiết bị này phải liên quan đến các lớp lưu lượng hoặc lưu lượng đã được tổng hợp theo một số cách khác, chẳng hạn như tunnel hoặc MPLS LSP.
Các luồng cũng có thể được thiết lập cho các loại lưu lượng khác nhau, đặt mức độ ưu tiên phù hợp cho từng loại lưu lượng Ví dụ về các loại lưu lượng truy cập khác nhau là HTTP so với email Ví dụ: lưu lượng truy cập HTTP có thể được đặt ở mức độ ưu tiên thấp hơn trong giờ hành chính, giả định lưu lượng truy cập dựa trên công việc của tổ chức không dựa trên giao thức HTTP.
3.3.2 SDN trong khuôn viên: Thiết bị bảo mật và người dùng
Các xu hướng công nghệ như BYOD, kiểm soát truy cập và bảo mật cũng có thể được giải quyết bằng công nghệ SDN Ví dụ: một trong những yêu cầu để đăng ký hệ thống BYOD của người dùng và khách liên quan đến việc sử dụng cổng cố định. Đây là cơ chế mà yêu cầu trình duyệt của người dùng được chuyển hướng đến một trang web đích khác Trang web khác này có thể dành cho mục đích đăng ký thiết bị hoặc quyền truy cập của khách Cổng cố định được thực hiện theo cách truyền thống bằng cách mã hóa logic chuyển hướng vào phần sụn công tắc hoặc bằng các thiết bị trong dòng Để thực hiện điều này trong môi trường trước SDN có thể đòi hỏi phải nâng cấp lên các thiết bị chuyển mạch có khả năng này, nghĩa là các thiết bị phức tạp hơn hoặc bằng cách lắp đặt các thiết bị nội tuyến chuyên biệt, làm tăng thêm độ phức tạp của mạng Cấu hình mà người dùng cần được xác thực thông qua cổng cố định sẽ đòi hỏi phải định cấu hình tất cả thiết bị nơi người dùng có thể vào mạng Dưới đây là mô tả giải pháp SDN đơn giản hơn cho giải pháp cổng bị khóa:
• Người dùng kết nối với mạng và cố gắng thiết lập kết nối mạng.
• Không có quy tắc truy cập nào được áp dụng cho người dùng này, vì vậy bộ điều khiển SDN sẽ được thông báo.
• Các chương trình bộ điều khiển SDN chảy trong thiết bị cạnh sẽ khiến lưu lượng truy cập HTTP của người dùng
• được chuyển hướng đến một cổng bị khóa.
• Người dùng được chuyển hướng đến cổng bị khóa và tham gia vào trao đổi thích hợp để có quyền truy cập vào mạng.
• Khi quá trình trao đổi cổng bị khóa hoàn tất, bộ điều khiển SDN được thông báo để thiết lập các quy tắc truy cập một cách thích hợp.
• Người dùng và / hoặc thiết bị BYOD hiện có cấp độ truy cập thích hợp.
Hình 3.6 cho thấy một ứng dụng dựa trên cổng thông tin cố định dựa trên SDN.
Thiết bị biên mạng ban đầu là được lập trình để định tuyến các yêu cầu ARP, DNS và DHCP đến máy chủ thích hợp Trong hình, người dùng cuối kết nối với mạng và thực hiện yêu cầu DHCP để lấy địa chỉ IP Khi mà phản hồi DHCP được trả lại cho người dùng, một bản sao sẽ được gửi đến bộ điều khiển SDN Sử dụng địa chỉ MAC của người dùng cuối làm khóa tra cứu, bộ điều khiển sẽ hỏi ý kiến cơ sở dữ liệu của người dung Nếu thiết bị của người dùng hiện đã được đăng ký, thiết bị đó sẽ được phép vào mạng Nếu không, thì các quy tắc OpenFlow được lập trình để chuyển tiếp lưu lượng HTTP của người dùng đó tới bộ điều khiển Khi nhận được lưu lượng HTTP của người dùng chưa được xác thực tại bộ điều khiển, phiên web đó được chuyển hướng đến máy chủ web cổng bị khóa Sau khi hoàn tất xác thực người dùng hoặc đăng ký thiết bị, bộ điều khiển cập nhật (các) luồng của người dùng để các gói được phép vào mạng Lưu ý rằng đây cũng là thời điểm thích hợp để cấu hình các quy tắc liên quan đến chính sách của người dùng, điều mà có thể bao gồm các cấp độ quyền truy cập và mức độ ưu tiên, trong số các mục khác.
Hình 3.6: Một ứng dụng dựa trên cổng thông tin cố định dựa trên SDN
Loại chức năng này, như chính sách, được áp dụng thích hợp ở rìa mạng Loại ứng dụng này càng cố gắng thâm nhập sâu hơn vào mạng, thì nó càng trở nên có vấn đề hơn, với việc tràn bảng luồng trở thành một vấn đề thực sự.
Hospitality Networks
Hospitality Networks được tìm thấy trong các khách sạn, sân bay, quán cà phê và nhà hàng thức ăn nhanh Có một mức độ trùng lặp công bằng giữa các yêu cầu của người dùng trong campus networks và các yêu cầu của hospitality networks Người dùng cuối chủ yếu trong hospitality networks là khách đang sử dụng mạng thông qua quy mô lớn của cơ sở hoặc thông qua việc mua hàng trong một khoảng thời gian nhất định Một lớp của tình huống mua là người dùng cuối đã mua kết nối trong một khoảng thời gian nhất định, chẳng hạn như một tháng hoặc một năm và do đó có thể kết nối với mạng mà không cần trao đổi tài chính trực tiếp mỗi khi họ kết nối.
Việc áp dụng SDN cho các cổng cố định trong khuôn viên được thảo luận trong
Phần 3.3.2 cũng được áp dụng tương tự đến mạng khách sạn Sự khác biệt là trong trường hợp của các mạng khách sạn, người dùng đang trả tiền trực tiếp hoặc gián tiếp cho quyền truy cập, do đó, một hình thức nhận dạng tương ứng có thể sẽ liên quan đến việc xác thực với máy chủ đăng ký Chúng có thể bao gồm việc cung cấp phòng khách sạn hoặc thông tin thẻ tín dụng Hospitality thường cung cấp truy cập WiFi.
Mobile Networks
Các nhà cung cấp mạng di động, chẳng hạn như AT&T, Verizon và Sprint, cạnh tranh để khách hàng gắn bó với mạng của họ Khách hàng sử dụng điện thoại thông minh hoặc máy tính bảng để kết nối bằng cách sử dụng dịch vụ di động có sẵn, cho dù đó là 3G, 4G, LTE hoặc công nghệ di động khác.
Khi khách hàng sử dụng điện thoại di động kết nối các điểm truy cập WiFi truyền thống để kết nối Internet, những nhà cung cấp dịch vụ di động mất quyền kiểm soát khách hàng của họ một cách hiệu quả Điều này là do lưu lượng truy cập của người dùng vào Internet trực tiếp từ điểm phát sóng Nó hoàn toàn phá vỡ mạng của nhà cung cấp dịch vụ di động, nhà cung cấp thậm chí không biết về khối lượng lưu lượng truy cập mà người dùng gửi và nhận và chắc chắn không thể thực thi bất kỳ chính sách nào trên kết nối đó Khi lưu lượng truy cập của khách hàng của họ vượt qua mạng của nhà cung cấp dịch vụ di động, nhà cung cấp sẽ mất cơ hội tạo doanh thu Tuy nhiên, vì dung lượng di động của họ liên tục bị kéo dài, từ góc độ đó, sẽ có lợi cho các nhà cung cấp di động để giảm tải lưu lượng truy cập vào mạng WiFi khi có thể Do đó, nhà cung cấp dịch vụ di động quan tâm đến một giải pháp cho phép khách hàng của họ truy cập mạng của họ thông qua các điểm truy cập WiFi công cộng mà họ không mất quyền kiểm soát và khả năng hiển thị đối với lưu lượng truy cập của khách hàng Chủ sở hữu của các điểm phát sóng như vậy có thể muốn nhiều nhà cung cấp chia sẻ tài nguyên WiFi do điểm phát sóng cung cấp Điểm phát sóng nhiều đối tượng mà chúng tôi mô tả ở đây hơi tương tự với ảo hóa mạng trong trung tâm dữ liệu.
3.5.1 SDN được áp dụng cho mạng di động
Các nhà cung cấp thiết bị di động quan tâm đến việc giành quyền truy cập vào những người dùng đang kết nối Internet qua các điểm truy cập WiFi yêu cầu một cơ chế để kiểm soát lưu lượng truy cập của người dùng của họ Kiểm soát, trong ngữ cảnh này, có thể chỉ đơn giản là có thể đo lường lượng lưu lượng truy cập mà người dùng tạo ra Nó có thể có nghĩa là việc áp dụng một số chính sách liên quan đến QoS Nó có thể có nghĩa là chuyển hướng lưu lượng truy cập của người dùng trước khi nó đi vào Internet công cộng và chuyển hướng lưu lượng đó qua mạng của chính họ Công nghệ SDN có thể đóng một vai trò trong sơ đồ như vậy theo những cách sau:
• Captive portals: tạo một Web trung gian, dùng bảo vệ hệ thống mạng
• Tunneling back to the mobile network: tạo ra mạng riêng ảo về mạng di dộng
• Application of polic: ứng dụng chính sách
Các cổng cố định và kiểm soát truy cập được đề cập trong Phần 3.3.1 Chức năng này cũng có thể được áp dụng cho các mạng di động Điều này yêu cầu cho phép người dùng đăng ký quyền truy cập dựa trên thông tin đăng nhập di động của họ Sau khi thông tin xác thực hợp lệ được xử lý, người dùng sẽ được cấp các cấp truy cập thích hợp.
Một trong những cơ chế để nắm bắt và quản lý lưu lượng truy cập của người dùng di động là thông qua việc thiết lập các tunnel từ vị trí của người dùng trở lại mạng của nhà cung cấp thiết bị di động Tunnel sẽ được thiết lập bằng cách sử dụng một trong số các cơ chế đào hầm sẵn có Bằng cách lập trình các luồng SDN một cách thích hợp, lưu lượng truy cập của người dùng đó sẽ được chuyển tiếp vào một mạng ảo và được chuyển hướng đến mạng của nhà cung cấp thiết bị di động Phí sử dụng có thể được áp dụng bởi nhà cung cấp dịch vụ di động Ngoài việc tính phí cho lưu lượng truy cập này, các chính sách khác dành riêng cho người dùng có thể được thực thi Các chính sách như vậy có thể được áp dụng tại các điểm phát WiFi nơi người dùng kết nối với mạng Các điểm truy cập hỗ trợ SDN có thể nhận chính sách, từ bộ điều khiển của nhà cung cấp thiết bị di động hoặc từ bộ điều khiển tại cơ sở.
Hình 3.9: Minh họa về việc sử dụng công nghệ SDN và OpenFlow vì liên quan đến nhu cầu của mạng di động và SPs của chúng.
Ví dụ được mô tả trong Hình 3.9 cho thấy các phương tiện cơ bản mà SDN và OpenFlow có thể được sử dụng để cấp quyền truy cập dành riêng cho SPs và quyền truy cập riêng tư hoặc công cộng từ các thiết bị di động vào Internet Trong hình 3.9 khách hàng ở bên trái muốn truy cập Internet và mỗi nhóm có một SP khác nhau mặc dù họ có quyền truy cập mạng Kết nối thông qua một điểm phát sóng không dây hỗ trợ OpenFlow, chúng được chuyển hướng thông qua một nhà môi giới hoạt động như một bộ điều khiển OpenFlow Dựa trên SP của họ, họ được dẫn đến Internet theo nhiều cách khác nhau, tùy thuộc vào mức độ dịch vụ và cơ chế do SP thiết lập Trong ví dụ, người dùng AT&T có quyền truy cập trực tiếp vào Internet, trong khi người dùng Verizon và Virgin Mobile truy cập Internet bằng cách được OpenFlow hướng dẫn qua một tunnel tới mạng của SP Cả hai tunnel đều bắt đầu trong AP hỗ trợ OpenFlow Một đường hầm kết thúc trong bộ định tuyến hỗ trợ OpenFlow của Verizon, đường hầm còn lại trong bộ định tuyến hỗ trợ OpenFlow thuộc Virgin Mobile Hai bộ định tuyến này sau đó chuyển hướng lưu lượng truy cập của khách hàng tương ứng của họ trở lại Internet công cộng Một tunnel kết thúc trong bộ định tuyến hỗ trợ OpenFlow của Verizon, tunnel còn lại trong bộ định tuyến hỗ trợ OpenFlow thuộc Virgin Mobile Hai bộ định tuyến này sau đó chuyển hướng lưu lượng truy cập của khách hàng tương ứng của họ trở lại Internet công cộng Khi làm như vậy, khách hàng có được quyền truy cập Internet mà họ mong muốn và hai trong số các nhà cung cấp dịch vụ di động đạt được mức giảm tải WiFi mà họ cần trong khi duy trì khả năng hiển thị và kiểm soát lưu lượng truy cập của người dùng của họ Để tạo điều kiện cho một hệ thống như vậy, có lẽ cần có mối quan hệ kinh doanh giữa nhà cung cấp và chủ sở hữu điểm phát sóng, theo đó chủ sở hữu điểm phát sóng được bồi thường khi cho phép người dùng của ba nhà cung cấp truy cập điểm phát sóng Có thể sẽ có một khoản phí cao hơn Verizon và Virgin Mobile được tính cho dịch vụ cho phép họ duy trì quyền kiểm soát lưu lượng truy cập của khách hàng.
Vào năm 2013, Nhóm công tác di động và không dây của ONF đã xuất bản một số trường hợp sử dụng dựa trên OpenFlow Những điều đó được bao gồm:
• Sự linh hoạt và có thể mở rộng của lõi gói
• Quản lý tài nguyên động cho Backhaul không dây
• Quản lý lưu lượng truy cập di động
• Quản lý các luồng bảo mật trong LTE
• Bàn giao Độc lập với Phương tiện
• Hiệu quả năng lượng trong mạng hỗ trợ di động
• Bảo mật và Tối ưu hóa backhaul
• Quản lý và kiểm soát thiết bị hợp nhất
• Quản lý di động dựa trên mạng
• Quản lý di động dựa trên SDN trong LTE
• Mạng truy cập hợp nhất cho doanh nghiệp và cơ sở lớn
Các trường hợp sử dụng này là các ứng dụng rất chi tiết và cụ thể có liên quan đến các nhà khai thác di động Trong một số các trường hợp, việc triển khai chúng sẽ yêu cầu các tiện ích mở rộng cho OpenFlow.
Mạng Quang
Mạng truyền tải quang (OTN) là sự kết nối giữa các bộ chuyển mạch quang và các liên kết sợi quang Các thiết bị chuyển mạch quang là thiết bị lớp một Chúng truyền các bit bằng cách sử dụng các kỹ thuật mã hóa và ghép kênh khác nhau Thực tế là các mạng quang như vậy truyền dữ liệu qua một kênh dựa trên sóng ánh sáng thay vì coi mỗi gói như một thực thể có khả năng định tuyến riêng lẻ tự cho mình khái niệm SDN về luồng Trước đây, lưu lượng dữ liệu được truyền qua cáp quang sử dụng các giao thức như Mạng quang đồng bộ (SONET) và Hệ thống phân cấp kỹ thuật số đồng bộ (SDH) Tuy nhiên, thời gian gần đây, OTN đã trở thành một sự thay thế cho những công nghệ đó Một số công ty liên quan đến cả OTN và SDN là Ciena, Cyan (hiện đã được Ciena mua lại) và Infinera Một số nhà cung cấp đang tạo ra các thiết bị quang học được thiết kế riêng để sử dụng trong các trung tâm dữ liệu Ví dụ, Calient sử dụng công nghệ quang học để liên kết nhanh giữa các giá đỡ của máy chủ.
3.6.1 SDN được áp dụng cho mạng quang
Trong các mạng sử dụng nhiều lần, thường phát sinh một số luồng lưu lượng truy cập nhất định sử dụng băng thông mạng mạnh mẽ, đôi khi đến mức bỏ quên các luồng lưu lượng khác Đây thường được gọi là dòng chảy do bản chất khá lớn của chúng Các dòng chảy có đặc điểm là có thời lượng tương đối dài nhưng có phần đầu và phần cuối rời rạc.Chúng có thể xảy ra do truyền dữ liệu hàng loạt, chẳng hạn như sao lưu xảy ra giữa hai điểm cuối giống nhau trong khoảng thời gian đều đặn Những đặc điểm này có thể giúp bạn có thể dự đoán hoặc lập lịch trình cho các dòng chảy này Sau khi được phát hiện,mục tiêu là định tuyến lại lưu lượng truy cập đó vào một số loại thiết bị, chẳng hạn như mạng toàn quang được cung cấp đặc biệt cho các trường hợp tải dữ liệu lớn như thế này.OTN được thiết kế riêng cho những gói dữ liệu khổng lồ di chuyển từ điểm cuối này sang điểm cuối khác Khả năng định tuyến các luồng voi như vậy ở mức độ chi tiết cấp gói không mang lại lợi ích gì, nhưng gánh nặng mà luồng voi đặt lên các liên kết của mạng chuyển mạch gói là rất lớn Kết hợp mạng chuyển mạch gói với OTN thành loại mạng hỗn hợp được thể hiện trong Hình 3.10 cung cấp một cơ chế hiệu quả để xử lý luồng voi.
Hình 3.10: Cơ chế xử lí luồng voi hiệu quả.
Trong hình 3.10, mô tả các điểm cuối bình thường (A1, A2) được kết nối thông qua các công tắc Top-of-Rack (ToR) ToR-1 và ToR-2, giao tiếp thông qua đường dẫn bình thường, truyền qua kết cấu mạng dựa trên gói Các thiết bị khác (B1, B2) đang chuyển một lượng lớn dữ liệu từ thiết bị này sang thiết bị khác; do đó, chúng đã được chuyển sang chuyển mạch quang, do đó bảo vệ phần lớn người dùng khỏi một lượng lớn băng thông tiêu thụ như vậy Cơ chế cho việc ngắt hoặc giảm tải này bao gồm các bước sau:
1 Luồng voi được phát hiện giữa các điểm cuối trong mạng Lưu ý rằng, tùy thuộc vào dòng chảy, việc phát hiện sự hiện diện của dòng chảy tự nó đã là một bài toán khó. Chỉ cần quan sát sự gia tăng đột ngột trong luồng dữ liệu giữa hai điểm cuối không có cách nào phục vụ để dự đoán tuổi thọ của luồng đó Nếu luồng sẽ kết thúc sau 500 ms, thì đây không phải là luồng voi và không nên phát sinh thêm bất kỳ chi phí nào để thiết lập xử lý đặc biệt cho luồng đó Điều này không phải là tầm thường để biết hoặc dự đoán Thông thường, một số thông tin ngữ cảnh bổ sung là cần thiết để biết rằng luồng voi đã bắt đầu Một ví dụ rõ ràng là trường hợp sao lưu được lên lịch thường xuyên xảy ra trên mạng.
2 Thông tin liên quan đến thiết bị mạng đính kèm của điểm cuối được ghi nhận, bao gồm các liên kết lên (U1, U2) chuyển lưu lượng truy cập từ các điểm cuối vào lõi mạng bị quá tải.
3 Chương trình bộ điều khiển SDN chảy trong ToR-1 và ToR-2 để chuyển tiếp lưu lượng đến và đi từ các điểm cuối (B1, B2) ra một cổng giảm tải thích hợp (O1,O2), thay vì cổng bình thường (U1, U2) Các cổng giảm tải đó được kết nối với vải giảm tải quang học.
4 Các chương trình bộ điều khiển SDN chạy trên vải giảm tải quang hỗ trợ SDN để vá lưu lượng giữa B1 và B2 trên hai liên kết giảm tải (O1, O2) Tại thời điểm này, quá trình định tuyến lại hoàn tất và đường dẫn giảm tải đã được thiết lập giữa hai điểm cuối thông qua OTN.
5 Luồng voi cuối cùng trở lại bình thường và đường dẫn giảm tải được xóa khỏi cả thiết bị mạng kết nối và thiết bị giảm tải quang Các gói tiếp theo từ B1 đến B2 truyền qua cấu trúc mạng dựa trên gói.
3.6.2 FUJITSU sử dụng SDN trong mạng quang
Fujitsu đã sớm áp dụng SDN và tập trung vào mạng quang học Một trong những bước đột phá đầu tiên của họ vào SDN quang học là tận dụng công nghệ để tăng tốc truy cập lưu trữ mạng Bộ điều khiển SDN quan sát truy cập lưu trữ (luồng lưu trữ) trong mạng trên Kênh sợi quang qua Ethernet (FCoE) và thực hiện thao tác luồng. Fujitsu đã tách tính năng phát hiện luồng lưu trữ và thao tác với luồng lưu trữ khỏi các chức năng cần thiết cho rơle dữ liệu FCoE Sau đó, họ tạo ra một công tắc vải hội tụ với giao diện phần mềm với bộ điều khiển tập trung Fujitsu báo cáo rằng việc triển khai SDN này đã dẫn đến thông lượng tăng gấp hai lần.
Các nỗ lực SDN quang học khác của Fujitsu được nhắm mục tiêu vào OTN. Fujitsu, một đối tác sáng lập của cộng đồng Hệ điều hành Mạng Mở (ONOS), gần đây đã chứng minh một trường hợp sử dụng của vận chuyển gói qua quang Bản phát hành ONOS Cardinal được sử dụng để chứng minh trường hợp sử dụng gói qua quang này, đây là trọng tâm của việc áp dụng SDN vào OTN Với Cardinal, Fujitsu đã có thể tận dụng các plugin hướng nam mới để phát triển các giao diện ngôn ngữ giao dịch 1 (TL1) từ bộ điều khiển ONOS sang Nền tảng mạng quang gói FLASHWAVE 9500. Các giao diện này cho phép bộ điều khiển ONOS cung cấp các dịch vụ Ghép kênh phân chia theo bước sóng (DWDM) như băng thông theo yêu cầu, lập lịch băng thông và tối ưu hóa đa lớp.
Thông qua những nỗ lực SDN này, Fujitsu đã mở rộng nền tảng Virtuora SDN / NFV Nền tảng này đã được xây dựng trên bộ điều khiển OpenDaylight (ODL), nhưng Fujitsu đã cố ý đảm bảo rằng nền tảng của nó có thể di động được với các bộ điều khiển khác Ví dụ, họ lưu ý rằng nền tảng Virtuora có thể dễ dàng di chuyển sang ONOS Khung Virtuora NC 3.0 SDN đã được ra mắt gần đây và nó dựa trên ODL. Khung này có các giao diện hướng nam hỗ trợ TL1 và NETCONF Dựa trên hoạt động quang học của Fujitsu với ONOS, giao diện TL1 có thể hỗ trợ các dịch vụ DWDM đã đề cập trước đây.
Mạng SDN và P2P/Overlays
Mạng P2P / Overlay giống với mạng lớp phủ Cũng giống như các mạng ảo của trung tâm dữ liệu được phủ trên cơ sở hạ tầng vật lý, các chi tiết của chúng được che khỏi mạng ảo, do đó, mạng P2P/Overlay cũng được phủ lên Internet công cộng mà không cần quan tâm hoặc không cần biết về cấu trúc liên kết mạng cơ bản Các mạng như vậy bao gồm một tập hợp đặc biệt của các máy tính chủ ở các địa điểm khác nhau thuộc sở hữu và điều hành bởi các thực thể riêng biệt, với mỗi máy chủ được kết nối với Internet theo kiểu vĩnh viễn hoặc tạm thời Các kết nối ngang hàng (và do đó có tên là
P2P) giữa các máy chủ này thường là các kết nối TCP Vì vậy, tất cả các máy chủ trong mạng được kết nối trực tiếp Napster là ví dụ nổi tiếng sớm nhất về mạng PTP / Overlay.
Phân biệt mạng P2P / Overlay với các mạng lớp phủ trong SDN thông qua Lớp phủ dựa trên Hypervisor Mặc dù bản chất của lớp phủ là khác nhau, nhưng thật thú vị khi xem xét nơi có thể có một số chồng chéo giữa hai công nghệ. o Cũng giống như việc mở rộng quy mô SDN cuối cùng sẽ yêu cầu sự phối hợp của các bộ điều khiển trên các môi trường được kiểm soát, cần có sự phối hợp giữa các thiết bị P2P / Overlay. o SDN giúp nâng cao tính trừu tượng của việc điều khiển mạng, nhưng sẽ không bao giờ có một bộ điều khiển duy nhất cho toàn bộ vũ trụ, và do đó vẫn cần phải có sự phối hợp giữa bộ điều khiển và môi trường được kiểm soát Các đồng nghiệp P2P / Overlay cũng phải phối hợp với nhau, nhưng chúng làm như vậy theo cách độc lập về cấu trúc liên kết bằng cách tạo ra một mạng lớp phủ. o Một điểm khác biệt lớn là Open SDN cũng có thể kiểm soát mạng lớp dưới Sự tương đồng thực sự duy nhất giữa hai công nghệ này là tại một số điểm mở rộng, chúng phải phối hợp và kiểm soát theo kiểu phân tán Tuy nhiên, các lớp mà điều này được áp dụng là hoàn toàn khác nhau.
Kết luận chương
Thông qua các ví dụ, chúng tôi đã minh họa rằng SDN có thể được áp dụng cho một loạt các vấn đề mạng SDN cung cấp một bản tóm tắt cấp cao để lập trình chi tiết và rõ ràng về hành vi mạng Chính khả năng lập trình dễ dàng này cho phép SDN giải quyết các trường hợp sử dụng đa dạng này Một trong những khía cạnh thú vị nhất củaSDN là tính linh hoạt đã khiến nó có khả năng giải quyết các vấn đề mạng truyền thống một cách rõ ràng, cũng sẽ giúp nó có thể thích ứng để giải quyết các thách thức mạng chưa được hình thành.