KIẾN TRÚC SPINE-LEAF TRONG DATA CENTER

Một phần của tài liệu ĐỒ án tốt NGHIỆP đại học đề tài mô PHỎNG CÔNG NGHỆ VXLAN TRÊN mô HÌNH KIẾN TRÚC MẠNG SPINE LEAF (Trang 41)

2.1.1 Khái niệm Data Center

Một trung tâm dữ liệu là một thiết bị vật lý mà các tổ chức sử dụng để lưu trữ các ứng dụng và dữ liệu quan trọng của họ. Thiết kế của một trung tâm dữ liệu dựa trên một mạng lưới các tài nguyên lưu trữ và tính toán cho phép phân phối các ứng dụng và dữ liệu được chia sẻ.

Các trung tâm dữ liệu hiện đại rất khác so với chỉ một thời gian ngắn trước đây. Cơ sở hạ tầng đã chuyển từ các máy chủ vật lý tại chỗ truyền thống sang cơ sở hạ tầng ảo hóa hỗ trợ các ứng dụng và khối lượng công việc trên các nhóm cơ sở hạ tầng vật lý và vào một môi trường đa tầng.

Sự phát triển này đã diễn ra nhanh chóng và trong một khoảng thời gian tương đối ngắn, mang đến các công nghệ phổ biến như ảo hóa, đám mây (private, public, and hybrid), mạng định nghĩa bằng phần mềm (SDN). Dành cho thế hệ di động đầu tiên và trên nền tảng đám mây, quy mô, sự linh hoạt, bảo mật, hợp nhất và tích hợp với tính toán / lưu trữ là yêu cầu trung tâm dữ liệu phổ biến.

Ngoài ra, khả năng hiển thị, tự động hóa, dễ quản lý, khả năng hoạt động, xử lý sự cố và phân tích nâng cao cũng được dự kiến là một phần của các giải pháp trung tâm dữ liệu ngày hôm nay.

2.1.2 Thách thức và yêu cầu của Data Center

Trong bối cảnh mới, nơi tất cả các khối lượng công việc và ứng dụng đang được chuyển đến các trung tâm dữ liệu, các thiết kế truyền thống cho các trung tâm dữ liệu không còn đủ để giải quyết tất cả các yêu cầu. Đây là trường hợp bất kể các trung tâm dữ liệu tồn tại kết hợp với private cloud, public cloud, or hybrid cloud. Một số yêu cầu chính của việc triển khai trung tâm dữ liệu như sau:

- Khả năng mở rộng: Khả năng mở rộng là rất quan trọng, đặc biệt là trong dữ liệu dựa trên đám mây trung tâm. Một trung tâm dữ liệu có thể chứa hàng ngàn người thuê và một số mạng người thuê ngàn. Giới hạn mạng 4096 (hoặc 4K) được áp đặt bởi 12-trường Vlan bit không đủ để hỗ trợ các trung tâm dữ liệu đa tầng lớn.

- Tính khả dụng: Một trung tâm dữ liệu phải có khả năng hoạt động liên tục (24/7, 365 ngày). Ngoài ra, quyền truy cập vào các ứng dụng cần có sẵn từ tất cả các loại thiết bị (như máy tính bảng, điện thoại thông minh và đồng hồ thông minh).

- Chi phí thấp: Tổng chi phí sở hữu (TCO- The total cost of ownership) cho một trung tâm dữ liệu bao gồm cả chi phí vốn (CAPEX- capital expenditure) và chi phí hoạt động (OPEX- the operating expenditure). Trong khi phần CAPEX được khấu hao theo thời gian, phần OPEX là một khoản chi liên tục. Do đó, OPEX chịu sự giám sát chặt chẽ

từ hầu hết các CIO/CFO. Do đó, giảm OPEX cho các trung tâm dữ liệu thường là một việc ưu tiên cao.

- Bảo mật: Đặc biệt là trong việc triển khai trung tâm dữ liệu nhiều tầng, yêu cầu chính là áp dụng các chính sách bảo mật hiệu quả để đảm bảo lưu lượng truy cập từ người thuê được cách ly hoàn toàn với người thuê khác. Một số yêu cầu liên quan đến bảo mật khác bao gồm thực thi chính sách ứng dụng, ngăn chặn truy cập trái phép, phát hiện các mối đe dọa, cách ly thiết bị bị nhiễm, phân phối các bản vá bảo mật cho các thiết bị bị ảnh hưởng và các ứng dụng chính sách nhất quán giữa private cloud và public cloud.

- Định hướng giải pháp: Ngày nay, các trung tâm dữ liệu yêu cầu một giải pháp hợp nhất với nhiều phần khác nhau theo quan điểm mạng và họ cũng yêu cầu tích hợp chặt chẽ với các bộ điều phối tính toán và lưu trữ cũng như các thiết bị dịch vụ (vật lý và ảo). Ngoài ra, tự động hóa kết hợp với bộ điều khiển SDN là bắt buộc trong không gian này.

- Dễ sử dụng: Ngay cả với cách tiếp cận theo hướng giải pháp, việc quản lý, giám sát liên tục và khả năng hiển thị trong các hoạt động hàng ngày của một Data Center là rất đáng mong đợi. Dễ sử dụng có tác động trực tiếp đến việc giảm OPEX.

- Hỗ trợ cho việc triển khai kết hợp: Cả doanh nghiệp và nhà cung cấp dịch vụ đã áp dụng mô hình đám mây ở một mức độ nào đó. Kết quả là, một trong những yêu cầu chính của trung tâm dữ liệu là hỗ trợ cho việc triển khai hybrid cloud, nơi các tài nguyên từ public cloud có thể được mở rộng đến trung tâm dữ liệu doanh nghiệp tư nhân một cách linh hoạt. Các hoạt động như vậy phải liền mạch từ điểm quan điểm của các ứng dụng. Nói cách khác, các ứng dụng nên hoàn toàn không biết liệu chúng được lưu trữ tại cơ sở hay ngoài cơ sở.

- Hiệu suất năng lượng: Một phần lớn chi phí vận hành của một trung tâm dữ liệu được quy cho các yêu cầu năng lượng điện của nó. Ngành công nghiệp mạng lớn và các nhà cung cấp trung tâm dữ liệu nói riêng là nhận thức về yêu cầu này và khuyến khích xây dựng các trung tâm dữ liệu xanh tiến bộ chắc chắn tồn tại.

2.2 Giao thức sử dụng trong Data Center 2.2.1 Giao thức Spanning Tree Protocol

Một mạng mạnh mẽ được thiết kế không chỉ đem lại tính hiệu quả cho việc truyền các gói hoặc frame, mà còn phải xem xét làm thế nào để khôi phục hoạt động của mạng một cách nhanh chóng khi mạng xảy ra lỗi. Trong môi trường lớp 3, các giao thức định tuyến sử dụng con đường dự phòng đến mạng đích để khi con đường chính bị lỗi thì sẽ nhanh chóng tận dụng con đường thứ 2. Định tuyến lớp 3 cho phép nhiều con đường

đến đích để duy trì tình trạng hoạt động của mạng và cũng cho phép cân bằng tải qua nhiều con đường.

Trong môi trường lớp 2 (switching hoặc bridging), không sử dụng giao thức định tuyến và cũng không cho phép các con đường dự phòng, thay vì bridge cung cấp việc truyền dữ liệu giữa các mạng hoặc các cổng của switch. Giao thức Spanning Tree cung cấp liên kết dự phòng để mạng chuyển mạch lớp 2 có thể khôi phục từ lỗi mà không cần có sự can thiệp kịp thời. STP được định nghĩa trong chuẩn IEEE 802.1D.

Spanning Tree Protocol (STP) là một giao thức ngăn chặn sự lặp vòng, cho phép các bridge truyền thông với nhau để phát hiện vòng lặp vật lý trong mạng. Sau đó giao thức này sẽ định rõ một thuật toán mà bridge có thể tạo ra một cấu trúc mạng logic chứa vòng lặp (loop-free). Nói cách khác STP sẽ tạo một cấu trúc cây của free-loop gồm các lá và các nhánh nối toàn bộ mạng lớp 2.

Hình 2. 1: Mô hình Spanning tree

Vòng lặp xảy ra trong mạng với nhiều nguyên nhân. Hầu hết các nguyên nhân thông thường là kết quả của việc cố gắng tính toán để cung cấp khả năng dự phòng. Hai nguyên nhân chính gây ra sự lặp vòng tai hại trong mạng chuyển mạch là do broadcast và sự sai lệch của bảng bridge.

2.2.2 Virtual Port Channels

VPC phép các liên kết được kết nối vật lý với hai thiết bị Cisco khác nhau trở thành một kênh cổng duy nhất đến thiết bị thứ ba. Thiết bị thứ ba có thể là một bộ chuyển mạch, máy chủ hoặc bất kỳ thiết bị mạng nào khác hỗ trợ công nghệ tổng hợp liên kết (link aggregation technology).

VPC cung cấp các lợi ích sau: - Tăng mức độ dự phòng hệ thống.

- Sử dụng tối đa các đường uplink kết nối tới thiết bị Cisco Nexus 7000 do đó tăng băng thông hệ thống.

- Độ hội tụ mạng nhanh chóng khi xảy ra sự cố đường link so với việc sử dụng công nghệ STP.

- Tăng chạy cân bằng tải qua cặp thiết bị Cisco Nexus 7000

Hình 2. 2: Kiến trúc công nghệ VPC 2.3 Kiến trúc Spine-leaf

2.3.1 Tại sao cần sử dụng mô hình Spine-leaf.

Các DataCenter truyền thống được xây dựng trên kiến trúc phân lớp truyền thống gồm 3 lớp. Kiến trúc này đáp ứng cho các dịch vụ có phần lớn là các lưu lượng North- South (dữ liệu từ client đến server). Điều này phổ biến cho các ứng dụng như web, trong đó phần lớn giao tiếp là giữa máy khách bên ngoài và máy chủ nội bộ.

Ngày nay, các traffic East-West (dữ liệu trao đổi giữa các máy chủ) ngày càng tăng khi các máy chủ ngày nay cần giao tiếp nhiều với nhau. Sự thay đổi này chủ yếu được thúc đẩy bởi sự phát triển của thiết kế ứng dụng. Nhiều ứng dụng hiện đại cần giao tiếp với nhau trong trung tâm dữ liệu. Các ứng dụng thúc đẩy sự thay đổi này bao gồm big data’s often-distributed processing design (ví dụ như Hadoop), live virtual machine hoặc workload migration (ví dụ như VMware vMotion), server clustering (ví dụ như Microsoft Cluster Services), và các ứng dụng đa nhiệm. Phần cứng hiện tại không đủ băng thông, traffic thường phải đi qua lớp Core hoặc Aggregation, spanning- tree block các port dự phòng và nhiều nguyên nhân khác dẫn tới nhiều hạn chế trong mô hình truyền thống.

Mô hình Leaf-Spine được phát triển để khắc phục những hạn chế của mô hình mạng cũ và đang dần trở thành xu hướng mới cho các tiêu chuẩn thiết kế Network - tạo ra một kiến trúc truyền thông nhanh, có thể dự đoán, có thể mở rộng và hiệu quả trong môi trường trung tâm dữ liệu.

2.3.2 Sự phát triển của Data Center

Sơ lược mô hình mạng 3 lớp truyền thống

Các DataCenter truyền thống được xây dựng trên kiến trúc ba lớp với các lớp Core, Aggregation (đôi khi được gọi là Distribution) và Access hoặc gộp lớp Core và Aggregation thành 1 lớp. Trong mô hình này, giữa lớp Aggregation và lớp Access sử dụng giao thức Spanning Tree để xây dựng cấu trúc liên kết không có vòng lặp trong layer 2. Spanning Tree cung cấp một số lợi ích: nó đơn giản và là một công nghệ plug- and-play yêu cầu ít cấu hình. Các Vlan được mở rộng trong mỗi nhóm mà các máy chủ có thể di chuyển tự do trong nhóm mà không cần thay đổi địa chỉ IP và gateway. Tuy nhiên, Spanning Tree Protocol không thể sử dụng các Link dự phòng để cân bằng tải hoặc dự phòng trong mỗi VLAN.

Hình 2. 3: Mạng truyền thống

Với sự phát triển của các công nghệ như Stackwise, vPC (Cisco), IRF (HPE, Aruba) ... đã khắc phục được những hạn chế của Spanning Tree và cung cấp 1 mô hình non- blocking. Tuy nhiên, Spanning Tree Protocol vẫn được sử dụng như một cơ chế không an toàn.

Thiết kế mạng với miền Layer 2 mở rộng

Với các phân đoạn Lớp 2 được mở rộng trên tất cả các nhóm, quản trị viên trung tâm dữ liệu có thể tạo các nhóm tài nguyên, linh hoạt hơn, có thể được phân bổ lại dựa trên nhu cầu. Máy chủ được ảo hóa thành các máy ảo có thể di chuyển tự do từ máy chủ này sang máy chủ khác mà không cần thay đổi các thông số vận hành.

Hình 2. 4: Mạng với miền layer 2 mở rộng

Với các máy chủ ảo hóa, các ứng dụng ngày càng được triển khai theo kiểu phân tán, dẫn đến lưu lượng East-West tăng lên. Lưu lượng này cần được xử lý hiệu quả, với độ trễ thấp và có thể dự đoán được. Tuy nhiên, Stackwise, vPC, IRF chỉ có thể cung cấp hai đường uplink song song hoạt động và do đó băng thông bị thắt nút cổ chai trong kiến trúc trung tâm dữ liệu ba tầng. Một thách thức khác trong kiến trúc ba tầng là độ trễ từ máy chủ đến máy chủ khác nhau tùy thuộc vào đường dẫn lưu lượng được sử dụng. Mô hình phân cấp 3 lớp vẫn là một kiến trúc hợp lệ và được triển khai rộng rãi, kiến trúc Spine-Leaf cung cấp một tùy chọn tích hợp dễ dàng khác. Kiến trúc này đã được chứng minh là mang lại khả năng kết nối giữa máy chủ và máy chủ với băng thông cao, độ trễ thấp.

Kiến trúc mạng Leaf-Spine

Cấu trúc liên kết Spine-Leaf dựa trên kiến trúc mạng Clos. Thuật ngữ này bắt nguồn từ Charles Clos tại Phòng thí nghiệm Bell, người đã xuất bản một bài báo vào năm 1953 mô tả một lý thuyết toán học về cấu trúc liên kết mạng multipathing và non- blocking.

Ngày nay, những suy nghĩ ban đầu của Clos về thiết kế được áp dụng cho cấu trúc Spine-Leaf hiện đại. Kiến trúc Spine-Leaf thường được triển khai thành hai lớp: Spine (tương tự aggregation) và Leaf (chẳng hạn như access). Các cấu trúc Spine- Leaf cung cấp băng thông cao, độ trễ thấp, và non-blocking giữa máy chủ với máy chủ.

Hình 2. 5: Kiến trúc mạng Spine-leaf

Leaf Switch cung cấp các kết nối tới các máy chủ, Firewall, Router hoặc các thiết bị cân bằng tải. Các Leaf switch được kết nối tới tất cả Spine tạo thành mô hình Full- mesh nhưng không kết nối với nhau (Leaf-Leaf) trừ khi sử dụng các công nghệ HA như vPC, Stackwise, IRF.

Spine Switch được sử dụng để kết nối với tất cả Leaf switch. Các Spine switch cũng không kết nối với các Spine switch khác để tạo thành mô hình có cùng bước nhảy giữa các máy chủ. Điều này mang lại độ trễ có thể dự đoán và băng thông cao giữa các máy chủ. Liên kết giữa Leaf và Spine có thể là liên kết Layer 2 hoặc Layer 3 sử dụng các giao thức định tuyến IGP.

Ưu điểm của mô hình Leaf-Spine

Ưu điểm đầu tiên của Spine-Leaf là cung cấp nhiều tuyến đường giữa các Leaf switch. Mô hình Spine-Leaf thường được triển khai với các liên kết Layer 3. Tất cả các link đều được sử dụng để cân bằng tải nhờ giao thức ECMP do các kết nối sử dụng các cổng có băng thông bằng nhau và có chính xác 2 bước nhảy giữa các Leaf switch. Với kiến trúc cột sống và lá, bất kể máy chủ nào được kết nối với máy chủ nào, lưu lượng truy cập của nó luôn phải vượt qua cùng một số thiết bị để đến máy chủ khác (trừ khi máy chủ khác nằm trên cùng một Leaf). Cách tiếp cận này giữ độ trễ ở mức có thể dự đoán được vì một lưu lượng chỉ phải đi tới một Spine Switch và một Leaf Switch khác để đến đích.

Tiếp theo là tính dự phòng cao. Nếu 1 thiết bị Spine bị lỗi, nó chỉ giảm 1 phần nhỏ hiệu suất của mạng mà không ảnh hưởng đến dịch vụ. Nếu 1 Leaf switch bị lỗi, nó chỉ ảnh hưởng đến các máy chủ đang kết nối tới Leaf switch đó.

Một ưu điểm khác tính mở rộng cao. Nếu cần thêm băng thông, chỉ cần thêm Spine switch, nếu cần thêm nhiều máy chủ, chỉ cần thêm Leaf switch mà không phải thiết kế lại toàn bộ hệ thống.

2.3.3 Sự phát triển của Trung tâm dữ liệu với Vxlan.

Ngày nay mạng máy tính ngày càng phát triển. Nhu cầu mở rộng, quản lý mạng ngày càng tăng, đòi hỏi số lượng thiết bị ngày càng lớn gây ra khó khăn cho người quản trị như khả năng mở rộng kém, lãng phí tài nguyên mạng. Mô hình truyền thống ba lớp đang được sử dụng rất nhiều trong hệ thống Data Center hiện nay là mô hình ba lớp Core - Aggregation - Access kết hợp với giao thức STP, VPC. Sự phát triển nhanh chóng về ảo hóa, cloud và BIG DATA làm cho mô hình lớp ba nở to và không còn linh hoạt nữa nên xu hướng thế giới nói chung đang chuyển sang mô hình thiết kế mới Spine – Leaf hoạt động trên giao thức VXLAN.

2.3.4 Dự phòng trong mô hình Spine-leaf

Như với tất cả các môi trường sản xuất, bắt buộc phải có dự phòng tại chỗ. Trong kiến trúc hình spine-leaf, điều này không khác gì. Tất cả các leaf đều kết nối với tất cả các spine. Ít nhất một liên kết từ một leaf đi đến một spine. Một fabric nên có tối thiểu hai spine để tuân theo sự dư thừa các yêu cầu. Hình 1-2 minh họa một ví dụ về kịch bản chuyển đổi dự phòng bốn leaf / cấu trúc liên kết 2 spine.

Hình 2. 6: Mô hình dự phòng Spine-Leaf 2.3.5 Truyền lưu lượng mô hình spine-leaf 2.3.5 Truyền lưu lượng mô hình spine-leaf

Broadcast Unknown Unicast and Multicast (BUM Traffic)

Vì khung L2 được đóng gói thành L3 trong VXLAN, bạn ngăn chặn broadcast ở

Một phần của tài liệu ĐỒ án tốt NGHIỆP đại học đề tài mô PHỎNG CÔNG NGHỆ VXLAN TRÊN mô HÌNH KIẾN TRÚC MẠNG SPINE LEAF (Trang 41)

Tải bản đầy đủ (PDF)

(68 trang)