Với các máy chủ ảo hóa, các ứng dụng ngày càng được triển khai theo kiểu phân tán, dẫn đến lưu lượng East-West tăng lên. Lưu lượng này cần được xử lý hiệu quả, với độ trễ thấp và có thể dự đoán được. Tuy nhiên, Stackwise, vPC, IRF chỉ có thể cung cấp hai đường uplink song song hoạt động và do đó băng thông bị thắt nút cổ chai trong kiến trúc trung tâm dữ liệu ba tầng. Một thách thức khác trong kiến trúc ba tầng là độ trễ từ máy chủ đến máy chủ khác nhau tùy thuộc vào đường dẫn lưu lượng được sử dụng. Mô hình phân cấp 3 lớp vẫn là một kiến trúc hợp lệ và được triển khai rộng rãi, kiến trúc Spine-Leaf cung cấp một tùy chọn tích hợp dễ dàng khác. Kiến trúc này đã được chứng minh là mang lại khả năng kết nối giữa máy chủ và máy chủ với băng thông cao, độ trễ thấp.
Kiến trúc mạng Leaf-Spine
Cấu trúc liên kết Spine-Leaf dựa trên kiến trúc mạng Clos. Thuật ngữ này bắt nguồn từ Charles Clos tại Phòng thí nghiệm Bell, người đã xuất bản một bài báo vào năm 1953 mô tả một lý thuyết toán học về cấu trúc liên kết mạng multipathing và non- blocking.
Ngày nay, những suy nghĩ ban đầu của Clos về thiết kế được áp dụng cho cấu trúc Spine-Leaf hiện đại. Kiến trúc Spine-Leaf thường được triển khai thành hai lớp: Spine (tương tự aggregation) và Leaf (chẳng hạn như access). Các cấu trúc Spine- Leaf cung cấp băng thông cao, độ trễ thấp, và non-blocking giữa máy chủ với máy chủ.
Hình 2. 5: Kiến trúc mạng Spine-leaf
Leaf Switch cung cấp các kết nối tới các máy chủ, Firewall, Router hoặc các thiết bị cân bằng tải. Các Leaf switch được kết nối tới tất cả Spine tạo thành mô hình Full- mesh nhưng không kết nối với nhau (Leaf-Leaf) trừ khi sử dụng các công nghệ HA như vPC, Stackwise, IRF.
Spine Switch được sử dụng để kết nối với tất cả Leaf switch. Các Spine switch cũng không kết nối với các Spine switch khác để tạo thành mô hình có cùng bước nhảy giữa các máy chủ. Điều này mang lại độ trễ có thể dự đoán và băng thông cao giữa các máy chủ. Liên kết giữa Leaf và Spine có thể là liên kết Layer 2 hoặc Layer 3 sử dụng các giao thức định tuyến IGP.
Ưu điểm của mô hình Leaf-Spine
Ưu điểm đầu tiên của Spine-Leaf là cung cấp nhiều tuyến đường giữa các Leaf switch. Mô hình Spine-Leaf thường được triển khai với các liên kết Layer 3. Tất cả các link đều được sử dụng để cân bằng tải nhờ giao thức ECMP do các kết nối sử dụng các cổng có băng thông bằng nhau và có chính xác 2 bước nhảy giữa các Leaf switch. Với kiến trúc cột sống và lá, bất kể máy chủ nào được kết nối với máy chủ nào, lưu lượng truy cập của nó luôn phải vượt qua cùng một số thiết bị để đến máy chủ khác (trừ khi máy chủ khác nằm trên cùng một Leaf). Cách tiếp cận này giữ độ trễ ở mức có thể dự đoán được vì một lưu lượng chỉ phải đi tới một Spine Switch và một Leaf Switch khác để đến đích.
Tiếp theo là tính dự phòng cao. Nếu 1 thiết bị Spine bị lỗi, nó chỉ giảm 1 phần nhỏ hiệu suất của mạng mà không ảnh hưởng đến dịch vụ. Nếu 1 Leaf switch bị lỗi, nó chỉ ảnh hưởng đến các máy chủ đang kết nối tới Leaf switch đó.
Một ưu điểm khác tính mở rộng cao. Nếu cần thêm băng thông, chỉ cần thêm Spine switch, nếu cần thêm nhiều máy chủ, chỉ cần thêm Leaf switch mà không phải thiết kế lại toàn bộ hệ thống.
2.3.3 Sự phát triển của Trung tâm dữ liệu với Vxlan.
Ngày nay mạng máy tính ngày càng phát triển. Nhu cầu mở rộng, quản lý mạng ngày càng tăng, đòi hỏi số lượng thiết bị ngày càng lớn gây ra khó khăn cho người quản trị như khả năng mở rộng kém, lãng phí tài nguyên mạng. Mô hình truyền thống ba lớp đang được sử dụng rất nhiều trong hệ thống Data Center hiện nay là mô hình ba lớp Core - Aggregation - Access kết hợp với giao thức STP, VPC. Sự phát triển nhanh chóng về ảo hóa, cloud và BIG DATA làm cho mô hình lớp ba nở to và không còn linh hoạt nữa nên xu hướng thế giới nói chung đang chuyển sang mô hình thiết kế mới Spine – Leaf hoạt động trên giao thức VXLAN.
2.3.4 Dự phòng trong mô hình Spine-leaf
Như với tất cả các môi trường sản xuất, bắt buộc phải có dự phòng tại chỗ. Trong kiến trúc hình spine-leaf, điều này không khác gì. Tất cả các leaf đều kết nối với tất cả các spine. Ít nhất một liên kết từ một leaf đi đến một spine. Một fabric nên có tối thiểu hai spine để tuân theo sự dư thừa các yêu cầu. Hình 1-2 minh họa một ví dụ về kịch bản chuyển đổi dự phòng bốn leaf / cấu trúc liên kết 2 spine.
Hình 2. 6: Mô hình dự phòng Spine-Leaf 2.3.5 Truyền lưu lượng mô hình spine-leaf 2.3.5 Truyền lưu lượng mô hình spine-leaf
Broadcast Unknown Unicast and Multicast (BUM Traffic)
Vì khung L2 được đóng gói thành L3 trong VXLAN, bạn ngăn chặn broadcast ở cấp độ fabric. Broadcast là cách mạng nó học về các thiết bị được kết nối của nó, nhưng VXLAN học như thế nào kể từ khi broadcast bị triệt tiêu một cách hiệu quả? Với multicast! Lưu lượng truy cập BUM là ba loại thông điệp để thiết lập giao tiếp trên mạng: broadcast, unicast, và multicast. Multicast là một giải pháp thay thế cho quảng bá có thể sử dụng L3 để tuyên truyền thông tin.
Underlay Routing
Định tuyến lớp dưới trong VXLAN là rất quan trọng để xây dựng nền tảng của kết cấu. Một giao thức định tuyến động như OSPF hoặc IS-IS được chỉ định là Giao thức cổng nội bộ (IGP). Nó thiết lập hàng xóm ngang hàng cho tất cả liên kết vật lý từ leaf đến spine. Khi nó hoạt động, bạn mang control plane BGP EVPN vào hỗn hợp bằng cách chạy giao thức BGP trên OSPF hoặc IS-IS. Bạn tạo một địa chỉ lặp lại trên mỗi switch (spine và leaf) và quảng bá trong OSPF để sử dụng địa chỉ đó làm địa chỉ ngang hàng BGP. Làm thế nào để bạn làm điều này? Chú ý hơn. Các bước đầu tiên là hiển thị OSPF hoặc IS-IS giữa lá và cột sống liên kết, định cấu hình giao diện lặp lại cho mỗi thiết bị và quảng cáo nó với IGP (OSPF) (xem Hình bên dưới).
Hình 2. 7: Underlay Routing
Sau khi kết nối tất cả các liên kết lên từ leaf đến spine, định cấu hình và thiết lập IGP. Trong phần này, tôi đã sử dụng OSPF. sau đó tôi đã định cấu hình interface loopack và quảng bá nó trong OSPF để tất cả fabric neighbor sẽ biết về nó.
Layer 3 Virtual Network Identifier (L3VNI)
L3VNI là một VLAN với chỉ số VNI được gán riêng cho nó để thực hiện lưu lượng liênVLAN giữa các lá. Nếu bạn muốn giao tiếp, giả sử VLAN 10 trên Lá-01 đến VLAN-20 trên Lá-02, lá gửi lưu lượng này qua L3VNI Đường hầm VXLAN được chỉ định cho VRF (định tuyến và chuyển tiếp ảo) cả hai VLAN đều thuộc về. Theo VRF, bạn cần chỉ định một L3VNI để giao tiếp giữa VLAN có thể xảy ra. Tóm lại, kiến trúc rất đơn giản: một VRF và một L3VNI và các VLAN của bạn. Nếu bạn đến từ nhà cung cấp dịch vụ theo dõi, L3VNI giống như MPLS label2 cho VRF-VNI. Hình 1-9 minh họa một tình huống ví dụ. VRF trong vải là được gọi là người thuê nhà-a. Nó được gán một
L3VNI là 999999. L3VNI là VXLAN đường hầm vải mà các VLAN sử dụng để giao tiếp giữa các lá khác nhau.
Hình 2. 8: Layer 3 Virtual Network Identifier Kiến trúc Multipod Spine-and-Leaf VXLAN Kiến trúc Multipod Spine-and-Leaf VXLAN
Kiến trúc VXLAN BGP EVPN. Một trong những điều thú vị nhất các tính năng VXLAN cung cấp là khả năng “mở rộng” các VLAN của bạn ra ngoài ranh giới mạng cục bộ. Các VLAN cục bộ có sẵn ở các vị trí địa lý khác nhau — cùng một VLAN và cùng một mạng con trên hai site khác nhau. Từ một VLAN , nó nghĩ rằng nó ở cùng một vị trí, nhưng không phải vậy! Hãy tưởng tượng viễn cảnh này. Có hai trung tâm dữ liệu: một ở Frankfurt, và một ở Munich. VLAN10 được cấu hình trên cả hai DC1 và DC2. VXLAN VNI cho VLAN 10 được mở rộng bằng cách sử dụng tiện ích định tuyến EVPN nhập và xuất giữa các trung tâm dữ liệu. (Sau đó, tôi bao gồm các khía cạnh cấu hình.) Từ góc độ của máy chủ, nó nghĩ rằng đích của nó nằm trên cùng một VLAN cục bộ. Với VXLAN multipod, tôi có thể kết nối chéo các loại fabric trong trung tâm dữ liệu của mình hoặc các nhóm với nhau để hoạt động như một kết cấu VXLAN hợp lý đồng thời có thông số cấu hình dành riêng cho mỗi Pod. Ví dụ, trong DC1, Tôi có một VRF thuê tên là Frankfurt-Prod. Trong DC2, tôi có một người thuê VRF tên là Munich-Prod. Chúng không được đặt tên giống nhau trong DC, tuy nhiên, tôi có thể nhập và xuất các mục tiêu tuyến đường từ EVPN L3VNI và có các tuyến BGP EVPN được truyền giữa các trung tâm dữ liệu. Điều này có nghĩa là rằng tôi có thông tin địa chỉ MAC từ tất cả
các thiết bị của tôi trong VLAN 10 trên cả hai trung tâm dữ liệu được quảng cáo như nhau trên mỗi VRF — DC1 đến DC2 và DC2 đến DC1.
Tất cả các điểm cuối VLAN 10 đều giao tiếp với nhau khi nghĩ rằng chúng là ở cùng một vị trí. Mạch của nhà cung cấp dịch vụ là L2 EVPN hoặc VPLS mạch, giống như sợi sẫm màu. Tôi định cấu hình các giao diện mạch giống như tất cả các liên kết lớp dưới khác của tôi và quảng cáo tới OSPF để cả hai DC có thể nhận được tất cả thông tin cơ bản của họ. Một lát sau, Tôi cung cấp các cấu hình cấp thấp, bao gồm cả cấu hình nhiều pod trong BGP, để làm cho tất cả điều kỳ diệu này xảy ra.
Hình 2. 9: Multipod Vxlan BGP EVPN Mô hình Multisite Spine-and-Leaf VXLAN Mô hình Multisite Spine-and-Leaf VXLAN
Hãy thảo luận về kiến trúc nhiều trang. Trong kiến trúc nhiều pod, bạn kết hợp ít nhất hai loại Fabric để làm cho chúng trông và hoạt động giống như một loại. Bạn sử dụng mục tiêu tuyến đường trong EVPN để nhập và xuất lớp 2 của mình thông tin giữa các pod (hoặc fabric). Về mặt kỹ thuật, bạn có thể định cấu hình nó để xem như một kết cấu hợp lý. Logic đằng sau một kiến trúc multisite là khá khác nhau. Kiến trúc multisite có tính năng chia sẻ các loại fabric hoàn toàn độc lập tài nguyên cụ thể và giao tiếp thông qua nhà cung cấp dịch vụ trung gian mạng. Giả sử bạn có DC1 và DC2 trong cấu hình nhiều site. DC1 thực hiện mối quan hệ láng giềng eBGP với nhà cung cấp dịch vụ của bạn, trong đó nhà cung cấp dịch vụ mang lưu lượng EVPN đến DC2 đích của bạn.
Khía cạnh ngang hàng xảy ra ở leaf boder gateway (BGW). Nó ở đây leaf nơi bạn giao tiếp với BGP nội bộ (iBGP) -> eBGP AS bên ngoài, sau đó chuyển tiếp đến nhà cung cấp dịch vụ của bạn. Kiến trúc giống như DC2. Leaf BGW ngang hàng với iBGP AS của bạn, tương đương với số eBGP AS của bạn, là minh họa trong Hình dưới
Hình 2.10:Đường dẫn BGP giữa hai trung tâm dữ liệu trong một cấu hình multisite multisite
Vai trò của lá BGW là ngang hàng giữa iBGP và eBGP và thực hiện cái mà tôi gọi là AS NAT hoặc là BGP AS number từ internal sang external cho lưu lượng truy cập cụ thể EVPN.
Giả sử các giá trị sau: DC1 vải AS là 65501, DC1 eBGP AS là 34563, DC2 vải AS là 65502 và DC2 eBGP AS là 46673. Thời điểm tôi gửi yêu cầu liên lạc của mình tới trung tâm dữ liệu 2, nguồn của giao tiếp thay đổi từ DC1 65501 sang DC1 34563 eBGP AS. Nên BGW chuyển 65501 thành 34563 để chuyển sang đám mây của nhà cung cấp dịch vụ. Khi gói đến DC2, nó được ghi lại thành 65502, là vải DC2 địa phương AS. Lưu lượng truy cập đến được giả mạo để trông giống như trên cùng một loại vải (xem Hình ).
Hình 2. 11: Multi-site Vxlan BGP EVPN 2.3.6 Mạng Cisco MSDC Layer 3 spine-and-leaf 2.3.6 Mạng Cisco MSDC Layer 3 spine-and-leaf
Các trung tâm dữ liệu có thể mở rộng quy mô lớn (MSDC) là các trung tâm dữ liệu lớn, với hàng nghìn máy chủ vật lý (đôi khi hàng trăm nghìn), được thiết kế để mở rộng quy mô và khả năng tính toán mà ít ảnh hưởng đến cơ sở hạ tầng hiện có. Các môi trường ở quy mô này có một tập hợp các yêu cầu mạng duy nhất, tập trung vào hiệu suất ứng dụng, tính đơn giản và ổn định của mạng, khả năng hiển thị, khắc phục sự cố dễ dàng và quản lý vòng đời dễ dàng, v.v. Ví dụ về MSDC là các nhà cung cấp dịch vụ
đám mây lớn có hàng nghìn người thuê, và cổng web và các nhà cung cấp thương mại điện tử lưu trữ các ứng dụng phân tán lớn.
Thiết kế cấu trúc liên kết MSDC của Cisco sử dụng kiến trúc cột và lá Lớp 3. Lớp lá chịu trách nhiệm quảng cáo các mạng con của máy chủ trong kết cấu mạng. Thiết bị Spine chịu trách nhiệm tìm hiểu các tuyến cơ sở hạ tầng và các tuyến mạng con của máy chủ lưu trữ cuối. Trong hầu hết các trường hợp, công tắc cột sống không được sử dụng để kết nối trực tiếp với thế giới bên ngoài hoặc với các mạng MSDC khác, nhưng nó sẽ chuyển tiếp lưu lượng đó đến các công tắc lá chuyên dụng hoạt động như các công tắc lá biên giới. Công tắc lá biên có thể chèn các tuyến đường mặc định để thu hút lưu lượng dành cho các điểm đến bên ngoài. Tùy thuộc vào số lượng máy chủ cần được hỗ trợ, có các kiểu thiết kế MSDC khác nhau: cấu trúc liên kết lá gai hai tầng, cấu trúc liên kết lá gai ba tầng, thiết kế máy bay vải siêu mỏng. Để biết thêm chi tiết về thiết kế MSDC với thiết bị chuyển mạch Cisco Nexus 9000 và 3000.
Về thiết kế định tuyến, mặt phẳng điều khiển MSDC của Cisco sử dụng các giao thức lớp 3 động như eBGP để xây dựng bảng định tuyến giúp định tuyến một cách hiệu quả nhất một gói từ nguồn đến nút cột sống. Hầu hết khách hàng sử dụng eBGP vì khả năng mở rộng và tính ổn định của nó.
Hình 2. 12: Mạng MSDC Layer 3 spine-and-leaf với Control Plane BGP
Thiết kế gai và lá Lớp 3 cố ý không hỗ trợ VLAN Lớp 2 trên các công tắc ToR vì đây là vải Lớp 3. Mỗi máy chủ được liên kết với một mạng con của máy chủ và nói chuyện với các máy chủ khác thông qua định tuyến Lớp 3. Tính di động của máy chủ và sự đa thai không được hỗ trợ.
Bởi vì mạng kết cấu rất lớn, khách hàng của MSDC thường sử dụng các phương pháp tiếp cận dựa trên phần mềm để đưa vào mạng nhiều tính năng tự động hóa hơn và nhiều mô đun hơn. Các công cụ tự động hóa có thể xử lý các cấu trúc liên kết cấu trúc và các
yếu tố hình thức khác nhau, tạo ra một giải pháp mô-đun có thể thích ứng với các trung tâm dữ liệu có kích thước khác nhau. MSDC được tự động hóa cao để triển khai cấu hình trên thiết bị và khám phá bất kỳ vai trò mới nào của thiết bị trong kết cấu, theo dõi và khắc phục sự cố kết cấu, v.v. Nhiều khách hàng của MSDC viết tập lệnh để thực hiện thay đổi mạng, sử dụng Python, Puppet và Chef, và các DevOps khác các công cụ và công nghệ của Cisco, chẳng hạn như Cấp phép tự động bật nguồn (POAP).
2.3.7 Quản lý kết cấu và tự động hóa của Trung tâm dữ liệu
Không có cách duy nhất để xây dựng một trung tâm dữ liệu. Tương tự, không có cách duy nhất để quản lý kết cấu trung tâm dữ liệu. Nhiều công cụ khác nhau có sẵn từ