Dự phòng trong mô hình Spine-leaf

Một phần của tài liệu ĐỒ án tốt NGHIỆP đại học đề tài mô PHỎNG CÔNG NGHỆ VXLAN TRÊN mô HÌNH KIẾN TRÚC MẠNG SPINE LEAF (Trang 48)

Như với tất cả các môi trường sản xuất, bắt buộc phải có dự phòng tại chỗ. Trong kiến trúc hình spine-leaf, điều này không khác gì. Tất cả các leaf đều kết nối với tất cả các spine. Ít nhất một liên kết từ một leaf đi đến một spine. Một fabric nên có tối thiểu hai spine để tuân theo sự dư thừa các yêu cầu. Hình 1-2 minh họa một ví dụ về kịch bản chuyển đổi dự phòng bốn leaf / cấu trúc liên kết 2 spine.

Hình 2. 6: Mô hình dự phòng Spine-Leaf 2.3.5 Truyền lưu lượng mô hình spine-leaf

Broadcast Unknown Unicast and Multicast (BUM Traffic)

Vì khung L2 được đóng gói thành L3 trong VXLAN, bạn ngăn chặn broadcast ở cấp độ fabric. Broadcast là cách mạng nó học về các thiết bị được kết nối của nó, nhưng VXLAN học như thế nào kể từ khi broadcast bị triệt tiêu một cách hiệu quả? Với multicast! Lưu lượng truy cập BUM là ba loại thông điệp để thiết lập giao tiếp trên mạng: broadcast, unicast, và multicast. Multicast là một giải pháp thay thế cho quảng bá có thể sử dụng L3 để tuyên truyền thông tin.

Underlay Routing

Định tuyến lớp dưới trong VXLAN là rất quan trọng để xây dựng nền tảng của kết cấu. Một giao thức định tuyến động như OSPF hoặc IS-IS được chỉ định là Giao thức cổng nội bộ (IGP). Nó thiết lập hàng xóm ngang hàng cho tất cả liên kết vật lý từ leaf đến spine. Khi nó hoạt động, bạn mang control plane BGP EVPN vào hỗn hợp bằng cách chạy giao thức BGP trên OSPF hoặc IS-IS. Bạn tạo một địa chỉ lặp lại trên mỗi switch (spine và leaf) và quảng bá trong OSPF để sử dụng địa chỉ đó làm địa chỉ ngang hàng BGP. Làm thế nào để bạn làm điều này? Chú ý hơn. Các bước đầu tiên là hiển thị OSPF hoặc IS-IS giữa lá và cột sống liên kết, định cấu hình giao diện lặp lại cho mỗi thiết bị và quảng cáo nó với IGP (OSPF) (xem Hình bên dưới).

Hình 2. 7: Underlay Routing

Sau khi kết nối tất cả các liên kết lên từ leaf đến spine, định cấu hình và thiết lập IGP. Trong phần này, tôi đã sử dụng OSPF. sau đó tôi đã định cấu hình interface loopack và quảng bá nó trong OSPF để tất cả fabric neighbor sẽ biết về nó.

Layer 3 Virtual Network Identifier (L3VNI)

L3VNI là một VLAN với chỉ số VNI được gán riêng cho nó để thực hiện lưu lượng liênVLAN giữa các lá. Nếu bạn muốn giao tiếp, giả sử VLAN 10 trên Lá-01 đến VLAN-20 trên Lá-02, lá gửi lưu lượng này qua L3VNI Đường hầm VXLAN được chỉ định cho VRF (định tuyến và chuyển tiếp ảo) cả hai VLAN đều thuộc về. Theo VRF, bạn cần chỉ định một L3VNI để giao tiếp giữa VLAN có thể xảy ra. Tóm lại, kiến trúc rất đơn giản: một VRF và một L3VNI và các VLAN của bạn. Nếu bạn đến từ nhà cung cấp dịch vụ theo dõi, L3VNI giống như MPLS label2 cho VRF-VNI. Hình 1-9 minh họa một tình huống ví dụ. VRF trong vải là được gọi là người thuê nhà-a. Nó được gán một

L3VNI là 999999. L3VNI là VXLAN đường hầm vải mà các VLAN sử dụng để giao tiếp giữa các lá khác nhau.

Hình 2. 8: Layer 3 Virtual Network Identifier Kiến trúc Multipod Spine-and-Leaf VXLAN

Kiến trúc VXLAN BGP EVPN. Một trong những điều thú vị nhất các tính năng VXLAN cung cấp là khả năng “mở rộng” các VLAN của bạn ra ngoài ranh giới mạng cục bộ. Các VLAN cục bộ có sẵn ở các vị trí địa lý khác nhau — cùng một VLAN và cùng một mạng con trên hai site khác nhau. Từ một VLAN , nó nghĩ rằng nó ở cùng một vị trí, nhưng không phải vậy! Hãy tưởng tượng viễn cảnh này. Có hai trung tâm dữ liệu: một ở Frankfurt, và một ở Munich. VLAN10 được cấu hình trên cả hai DC1 và DC2. VXLAN VNI cho VLAN 10 được mở rộng bằng cách sử dụng tiện ích định tuyến EVPN nhập và xuất giữa các trung tâm dữ liệu. (Sau đó, tôi bao gồm các khía cạnh cấu hình.) Từ góc độ của máy chủ, nó nghĩ rằng đích của nó nằm trên cùng một VLAN cục bộ. Với VXLAN multipod, tôi có thể kết nối chéo các loại fabric trong trung tâm dữ liệu của mình hoặc các nhóm với nhau để hoạt động như một kết cấu VXLAN hợp lý đồng thời có thông số cấu hình dành riêng cho mỗi Pod. Ví dụ, trong DC1, Tôi có một VRF thuê tên là Frankfurt-Prod. Trong DC2, tôi có một người thuê VRF tên là Munich-Prod. Chúng không được đặt tên giống nhau trong DC, tuy nhiên, tôi có thể nhập và xuất các mục tiêu tuyến đường từ EVPN L3VNI và có các tuyến BGP EVPN được truyền giữa các trung tâm dữ liệu. Điều này có nghĩa là rằng tôi có thông tin địa chỉ MAC từ tất cả

các thiết bị của tôi trong VLAN 10 trên cả hai trung tâm dữ liệu được quảng cáo như nhau trên mỗi VRF — DC1 đến DC2 và DC2 đến DC1.

Tất cả các điểm cuối VLAN 10 đều giao tiếp với nhau khi nghĩ rằng chúng là ở cùng một vị trí. Mạch của nhà cung cấp dịch vụ là L2 EVPN hoặc VPLS mạch, giống như sợi sẫm màu. Tôi định cấu hình các giao diện mạch giống như tất cả các liên kết lớp dưới khác của tôi và quảng cáo tới OSPF để cả hai DC có thể nhận được tất cả thông tin cơ bản của họ. Một lát sau, Tôi cung cấp các cấu hình cấp thấp, bao gồm cả cấu hình nhiều pod trong BGP, để làm cho tất cả điều kỳ diệu này xảy ra.

Hình 2. 9: Multipod Vxlan BGP EVPN Mô hình Multisite Spine-and-Leaf VXLAN

Hãy thảo luận về kiến trúc nhiều trang. Trong kiến trúc nhiều pod, bạn kết hợp ít nhất hai loại Fabric để làm cho chúng trông và hoạt động giống như một loại. Bạn sử dụng mục tiêu tuyến đường trong EVPN để nhập và xuất lớp 2 của mình thông tin giữa các pod (hoặc fabric). Về mặt kỹ thuật, bạn có thể định cấu hình nó để xem như một kết cấu hợp lý. Logic đằng sau một kiến trúc multisite là khá khác nhau. Kiến trúc multisite có tính năng chia sẻ các loại fabric hoàn toàn độc lập tài nguyên cụ thể và giao tiếp thông qua nhà cung cấp dịch vụ trung gian mạng. Giả sử bạn có DC1 và DC2 trong cấu hình nhiều site. DC1 thực hiện mối quan hệ láng giềng eBGP với nhà cung cấp dịch vụ của bạn, trong đó nhà cung cấp dịch vụ mang lưu lượng EVPN đến DC2 đích của bạn.

Khía cạnh ngang hàng xảy ra ở leaf boder gateway (BGW). Nó ở đây leaf nơi bạn giao tiếp với BGP nội bộ (iBGP) -> eBGP AS bên ngoài, sau đó chuyển tiếp đến nhà cung cấp dịch vụ của bạn. Kiến trúc giống như DC2. Leaf BGW ngang hàng với iBGP AS của bạn, tương đương với số eBGP AS của bạn, là minh họa trong Hình dưới

Hình 2.10:Đường dẫn BGP giữa hai trung tâm dữ liệu trong một cấu hình multisite

Vai trò của lá BGW là ngang hàng giữa iBGP và eBGP và thực hiện cái mà tôi gọi là AS NAT hoặc là BGP AS number từ internal sang external cho lưu lượng truy cập cụ thể EVPN.

Giả sử các giá trị sau: DC1 vải AS là 65501, DC1 eBGP AS là 34563, DC2 vải AS là 65502 và DC2 eBGP AS là 46673. Thời điểm tôi gửi yêu cầu liên lạc của mình tới trung tâm dữ liệu 2, nguồn của giao tiếp thay đổi từ DC1 65501 sang DC1 34563 eBGP AS. Nên BGW chuyển 65501 thành 34563 để chuyển sang đám mây của nhà cung cấp dịch vụ. Khi gói đến DC2, nó được ghi lại thành 65502, là vải DC2 địa phương AS. Lưu lượng truy cập đến được giả mạo để trông giống như trên cùng một loại vải (xem Hình ).

Hình 2. 11: Multi-site Vxlan BGP EVPN 2.3.6 Mạng Cisco MSDC Layer 3 spine-and-leaf

Các trung tâm dữ liệu có thể mở rộng quy mô lớn (MSDC) là các trung tâm dữ liệu lớn, với hàng nghìn máy chủ vật lý (đôi khi hàng trăm nghìn), được thiết kế để mở rộng quy mô và khả năng tính toán mà ít ảnh hưởng đến cơ sở hạ tầng hiện có. Các môi trường ở quy mô này có một tập hợp các yêu cầu mạng duy nhất, tập trung vào hiệu suất ứng dụng, tính đơn giản và ổn định của mạng, khả năng hiển thị, khắc phục sự cố dễ dàng và quản lý vòng đời dễ dàng, v.v. Ví dụ về MSDC là các nhà cung cấp dịch vụ

đám mây lớn có hàng nghìn người thuê, và cổng web và các nhà cung cấp thương mại điện tử lưu trữ các ứng dụng phân tán lớn.

Thiết kế cấu trúc liên kết MSDC của Cisco sử dụng kiến trúc cột và lá Lớp 3. Lớp lá chịu trách nhiệm quảng cáo các mạng con của máy chủ trong kết cấu mạng. Thiết bị Spine chịu trách nhiệm tìm hiểu các tuyến cơ sở hạ tầng và các tuyến mạng con của máy chủ lưu trữ cuối. Trong hầu hết các trường hợp, công tắc cột sống không được sử dụng để kết nối trực tiếp với thế giới bên ngoài hoặc với các mạng MSDC khác, nhưng nó sẽ chuyển tiếp lưu lượng đó đến các công tắc lá chuyên dụng hoạt động như các công tắc lá biên giới. Công tắc lá biên có thể chèn các tuyến đường mặc định để thu hút lưu lượng dành cho các điểm đến bên ngoài. Tùy thuộc vào số lượng máy chủ cần được hỗ trợ, có các kiểu thiết kế MSDC khác nhau: cấu trúc liên kết lá gai hai tầng, cấu trúc liên kết lá gai ba tầng, thiết kế máy bay vải siêu mỏng. Để biết thêm chi tiết về thiết kế MSDC với thiết bị chuyển mạch Cisco Nexus 9000 và 3000.

Về thiết kế định tuyến, mặt phẳng điều khiển MSDC của Cisco sử dụng các giao thức lớp 3 động như eBGP để xây dựng bảng định tuyến giúp định tuyến một cách hiệu quả nhất một gói từ nguồn đến nút cột sống. Hầu hết khách hàng sử dụng eBGP vì khả năng mở rộng và tính ổn định của nó.

Hình 2. 12: Mạng MSDC Layer 3 spine-and-leaf với Control Plane BGP

Thiết kế gai và lá Lớp 3 cố ý không hỗ trợ VLAN Lớp 2 trên các công tắc ToR vì đây là vải Lớp 3. Mỗi máy chủ được liên kết với một mạng con của máy chủ và nói chuyện với các máy chủ khác thông qua định tuyến Lớp 3. Tính di động của máy chủ và sự đa thai không được hỗ trợ.

Bởi vì mạng kết cấu rất lớn, khách hàng của MSDC thường sử dụng các phương pháp tiếp cận dựa trên phần mềm để đưa vào mạng nhiều tính năng tự động hóa hơn và nhiều mô đun hơn. Các công cụ tự động hóa có thể xử lý các cấu trúc liên kết cấu trúc và các

yếu tố hình thức khác nhau, tạo ra một giải pháp mô-đun có thể thích ứng với các trung tâm dữ liệu có kích thước khác nhau. MSDC được tự động hóa cao để triển khai cấu hình trên thiết bị và khám phá bất kỳ vai trò mới nào của thiết bị trong kết cấu, theo dõi và khắc phục sự cố kết cấu, v.v. Nhiều khách hàng của MSDC viết tập lệnh để thực hiện thay đổi mạng, sử dụng Python, Puppet và Chef, và các DevOps khác các công cụ và công nghệ của Cisco, chẳng hạn như Cấp phép tự động bật nguồn (POAP).

2.3.7 Quản lý kết cấu và tự động hóa của Trung tâm dữ liệu

Không có cách duy nhất để xây dựng một trung tâm dữ liệu. Tương tự, không có cách duy nhất để quản lý kết cấu trung tâm dữ liệu. Nhiều công cụ khác nhau có sẵn từ Cisco, các bên thứ ba và cộng đồng nguồn mở có thể được sử dụng để giám sát, quản lý, tự động hóa và khắc phục sự cố kết cấu trung tâm dữ liệu.

Quản lý Mạng Trung tâm Dữ liệu của Cisco

Trình quản lý Mạng Trung tâm Dữ liệu của Cisco (DCNM) là một hệ thống quản lý cho Kết cấu Hợp nhất của Cisco ® . Nó cho phép bạn cung cấp, giám sát và khắc phục sự cố cơ sở hạ tầng mạng trung tâm dữ liệu. Cisco DCNM có thể được cài đặt ở bốn chế độ:

● Chế độ LAN cổ điển: quản lý cơ sở hạ tầng Trung tâm dữ liệu Nexus của Cisco được triển khai trong các thiết kế kế thừa, chẳng hạn như thiết kế vPC, thiết kế FabricPath, v.v.

● Chế độ bộ điều khiển phương tiện: quản lý mạng Cisco IP Fabric cho giải pháp Phương tiện và giúp chuyển đổi từ bộ định tuyến SDI sang cơ sở hạ tầng dựa trên IP. Nó cung cấp tính năng tự động hóa quy trình làm việc, quản lý chính sách quy trình và tích hợp thiết bị studio của bên thứ ba, v.v. (Chế độ này không liên quan đến sách trắng này).

● Chế độ bộ điều khiển Mạng Khu vực Lưu trữ (SAN): quản lý các thiết bị chuyển mạch Dòng MDS của Cisco để triển khai mạng lưu trữ với điều khiển đồ họa cho tất cả các chức năng quản trị SAN. Nó cung cấp thông tin đo từ xa giàu thông tin chi tiết và thông tin phân tích nâng cao khác,..

● Chế độ LAN Fabric: cung cấp Trình tạo vải để triển khai lớp dưới vải VXLAN EVPN tự động, triển khai lớp phủ, theo dõi luồng end-to-end, cảnh báo và khắc phục sự cố, tuân thủ cấu hình và quản lý vòng đời thiết bị, v.v

● Thông tin chi tiết về mạng - Tài nguyên của Cisco (NIR): cung cấp cách thu thập thông tin thông qua việc thu thập dữ liệu để có cái nhìn tổng quan về các tài nguyên sẵn có cũng như các quy trình và cấu hình đang hoạt động của chúng trên toàn bộ Trình quản lý mạng của Trung tâm Dữ liệu (DCNM).

2.3.8 Layer 3 routing function

Mạng lưới VXLAN MP-BGP EVPN cần cung cấp định tuyến VXLAN nội bộ Lớp 3 cũng như duy trì kết nối với các mạng bên ngoài cấu trúc VXLAN, bao gồm mạng khuôn viên, WAN và Internet. VXLAN MP-BGP EVPN sử dụng cổng anycast phân tán cho lưu lượng được định tuyến nội bộ. Chức năng định tuyến bên ngoài được tập trung trên các thiết bị chuyển mạch cụ thể.

Quảng bá cổng anycast cho định tuyến trong

Trong MP-BGP EVPN, bất kỳ VTEP nào trong VNI đều có thể là cổng anycast quảng bá cho các máy chủ cuối trong mạng con IP của nó bằng cách hỗ trợ cùng một địa chỉ IP cổng ảo và địa chỉ MAC cổng ảo (hiển thị trong Hình dưới). Với chức năng cổng anycast trong EVPN, các máy chủ cuối trong một VNI luôn có thể sử dụng VTEP cục bộ cho VNI này làm cổng mặc định để gửi lưu lượng ra khỏi mạng con IP của chúng. Khả năng này cho phép chuyển tiếp tối ưu cho lưu lượng hướng bắc từ các máy chủ cuối trong mạng lớp phủ VXLAN. Cổng anycast phân tán cũng mang lại lợi ích của tính di động máy chủ trong suốt trong mạng lớp phủ VXLAN. Vì địa chỉ IP cổng và địa chỉ MAC ảo được cung cấp giống nhau trên tất cả các VTEP trong VNI, nên khi máy chủ cuối chuyển từ VTEP này sang VTEP khác, nó không cần gửi yêu cầu ARP khác để tìm hiểu lại địa chỉ MAC cổng.

Hình 2. 13: Quảng bá cổng anycast cho internal routing Định tuyến bên ngoài tại Boder leaf

Hình 2.13 cho thấy một thiết kế điển hình sử dụng một cặp Switch leaf border được kết nối với các thiết bị định tuyến bên ngoài. Switch leaf border chạy MP-BGP EVPN ở bên trong với các VTEP khác trong kết cấu VXLAN và trao đổi các tuyến EVPN với chúng. Đồng thời, nó chạy định tuyến đơn IPv4 hoặc IPv6 thông thường trong các phiên bản VRF của đối tượng thuê với thiết bị định tuyến bên ngoài ở bên ngoài. Giao thức định tuyến có thể là eBGP thông thường hoặc bất kỳ Giao thức cổng

nội bộ (IGP) nào được lựa chọn. Công tắc lá biên giới học các tuyến bên ngoài và quảng cáo chúng đến miền EVPN dưới dạng các tuyến EVPN để các nút lá VTEP khác cũng có thể tìm hiểu về các tuyến bên ngoài để gửi lưu lượng đi.

Switch leaf border giới cũng có thể được định cấu hình để gửi các tuyến EVPN đã học trong họ địa chỉ EVPN VPN lớp 2 tới họ địa chỉ unicast IPv4 hoặc IPv6 và quảng

Một phần của tài liệu ĐỒ án tốt NGHIỆP đại học đề tài mô PHỎNG CÔNG NGHỆ VXLAN TRÊN mô HÌNH KIẾN TRÚC MẠNG SPINE LEAF (Trang 48)

Tải bản đầy đủ (PDF)

(68 trang)