Mạng với miền layer 2 mở rộng

Một phần của tài liệu ĐỒ án tốt NGHIỆP đại học đề tài mô PHỎNG CÔNG NGHỆ VXLAN TRÊN mô HÌNH KIẾN TRÚC MẠNG SPINE LEAF (Trang 48)

Với các máy chủ ảo hóa, các ứng dụng ngày càng được triển khai theo kiểu phân tán, dẫn đến lưu lượng East-West tăng lên. Lưu lượng này cần được xư lý hiệu quả, với độ trễ thấp và có thể dự đốn được. Tuy nhiên, Stackwise, vPC, IRF chỉ có thể cung cấp hai đường uplink song song hoạt động và do đó băng thơng bị thắt nút cổ chai trong kiến trúc trung tâm dữ liệu ba tầng. Một thách thức khác trong kiến trúc ba tầng là độ trễ từ máy chủ đến máy chủ khác nhau tùy thuộc vào đường dẫn lưu lượng được sư dụng.

Mơ hình phân cấp 3 lớp vẫn là một kiến trúc hợp lệ và được triển khai rộng rãi, kiến trúc Spine-Leaf cung cấp một tùy chọn tích hợp dễ dàng khác. Kiến trúc này đã được chứng minh là mang lại khả năng kết nối giữa máy chủ và máy chủ với băng thông cao, độ trễ thấp.

Kiến trúc mạng Leaf-Spine

Cấu trúc liên kết Spine-Leaf dựa trên kiến trúc mạng Clos. Thuật ngữ này bắt nguồn từ Charles Clos tại Phịng thí nghiệm Bell, người đã xuất bản một bài báo vào năm 1953 mơ tả một lý thuyết tốn học về cấu trúc liên kết mạng multipathing và non- blocking.

Ngày nay, những suy nghĩ ban đầu của Clos về thiết kế được áp dụng cho cấu trúc Spine-Leaf hiện đại. Kiến trúc Spine-Leaf thường được triển khai thành hai lớp: Spine (tương tự aggregation) và Leaf (chẳng hạn như access). Các cấu trúc Spine-Leaf cung cấp băng thông cao, độ trễ thấp, và non-blocking giữa máy chủ với máy chủ.

Nguyễn Đức Linh – D17CQVT06-B

Hình 2. 5: Kiến trúc mạng Spine-leaf

Leaf Switch cung cấp các kết nối tới các máy chủ, Firewall, Router hoặc các thiết bị cân bằng tải. Các Leaf switch được kết nối tới tất cả Spine tạo thành mơ hình Full-mesh nhưng không kết nối với nhau (Leaf-Leaf) trừ khi sư dụng các công nghệ HA như vPC, Stackwise, IRF.

Spine Switch được sư dụng để kết nối với tất cả Leaf switch. Các Spine switch cũng không kết nối với các Spine switch khác để tạo thành mơ hình có cùng bước nhảy giữa các máy chủ. Điều này mang lại độ trễ có thể dự đốn và băng thơng cao giữa các máy chủ. Liên kết giữa Leaf và Spine có thể là liên kết Layer 2 hoặc Layer 3 sư dụng các giao thức định tuyến IGP.

Ưu điểm của mơ hình Leaf-Spine

Ưu điểm đầu tiên của Spine-Leaf là cung cấp nhiều tuyến đường giữa các Leaf switch. Mơ hình Spine-Leaf thường được triển khai với các liên kết Layer 3. Tất cả các link đều được sư dụng để cân bằng tải nhờ giao thức ECMP do các kết nối sư dụng các cổng có băng thơng bằng nhau và có chính xác 2 bước nhảy giữa các Leaf switch. Với kiến trúc cột sống và lá, bất kể máy chủ nào được kết nối với máy chủ nào, lưu lượng truy cập của nó ln phải vượt qua cùng một số thiết bị để đến máy chủ khác (trừ khi máy chủ khác nằm trên cùng một Leaf). Cách tiếp cận này giữ độ trễ ở mức có thể dự đốn được vì một lưu lượng chỉ phải đi tới một Spine Switch và một Leaf Switch khác để đến đích.

Tiếp theo là tính dự phịng cao. Nếu 1 thiết bị Spine bị lỗi, nó chỉ giảm 1 phần nhỏ hiệu suất của mạng mà không ảnh hưởng đến dịch vụ. Nếu 1 Leaf switch bị lỗi, nó chỉ ảnh hưởng đến các máy chủ đang kết nối tới Leaf switch đó.

Một ưu điểm khác tính mở rộng cao. Nếu cần thêm băng thơng, chỉ cần thêm Spine switch, nếu cần thêm nhiều máy chủ, chỉ cần thêm Leaf switch mà không phải thiết kế lại toàn bộ hệ thống.

Nguyễn Đức Linh – D17CQVT06-B

Đồ án tốt nghiệp đại học Chương 2. Kiến trúc Spine-Leaf

2.3.3 Sự phát triển của Trung tâm dữ liệu với Vxlan.

Ngày nay mạng máy tính ngày càng phát triển. Nhu cầu mở rộng, quản lý mạng ngày càng tăng, đòi hỏi số lượng thiết bị ngày càng lớn gây ra khó khăn cho người quản trị như khả năng mở rộng kém, lãng phí tài ngun mạng. Mơ hình truyền thống ba lớp đang được sư dụng rất nhiều trong hệ thống Data Center hiện nay là mơ hình ba lớp Core - Aggregation - Access kết hợp với giao thức STP, VPC. Sự phát triển nhanh chóng về ảo hóa, cloud và BIG DATA làm cho mơ hình lớp ba nở to và khơng cịn linh hoạt nữa nên xu hướng thế giới nói chung đang chuyển sang mơ hình thiết kế mới Spine – Leaf hoạt động trên giao thức VXLAN.

2.3.4 Dự phịng trong mơ hình Spine-leaf

Như với tất cả các môi trường sản xuất, bắt buộc phải có dự phịng tại chỗ. Trong kiến trúc hình spine-leaf, điều này khơng khác gì. Tất cả các leaf đều kết nối với tất cả các spine. Ít nhất một liên kết từ một leaf đi đến một spine. Một fabric nên có tối thiểu hai spine để tuân theo sự dư thừa các u cầu. Hình 1-2 minh họa một ví dụ về kịch bản chuyển đổi dự phòng bốn leaf / cấu trúc liên kết 2 spine.

Hình 2. 6: Mơ hình dự phịng Spine-Leaf 2.3.5 Truyền lưu lượng mơ hình spine-leaf

Broadcast Unknown Unicast and Multicast (BUM Traffic)

Vì khung L2 được đóng gói thành L3 trong VXLAN, bạn ngăn chặn broadcast ở cấp độ fabric. Broadcast là cách mạng nó học về các thiết bị được kết nối của nó, nhưng VXLAN học như thế nào kể từ khi broadcast bị triệt tiêu một cách hiệu quả? Với multicast! Lưu lượng truy cập BUM là ba loại thông điệp để thiết lập giao tiếp trên mạng: broadcast, unicast, và multicast. Multicast là một giải pháp thay thế cho quảng bá có thể sư dụng L3 để tun truyền thơng tin.

Nguyễn Đức Linh – D17CQVT06-B

Underlay Routing

Định tuyến lớp dưới trong VXLAN là rất quan trọng để xây dựng nền tảng của kết cấu. Một giao thức định tuyến động như OSPF hoặc IS-IS được chỉ định là Giao thức cổng nội bộ (IGP). Nó thiết lập hàng xóm ngang hàng cho tất cả liên kết vật lý từ leaf đến spine. Khi nó hoạt động, bạn mang control plane BGP EVPN vào hỗn hợp bằng cách chạy giao thức BGP trên OSPF hoặc IS-IS. Bạn tạo một địa chỉ lặp lại trên mỗi switch (spine và leaf) và quảng bá trong OSPF để sư dụng địa chỉ đó làm địa chỉ ngang hàng BGP. Làm thế nào để bạn làm điều này? Chú ý hơn. Các bước đầu tiên là hiển thị OSPF hoặc IS-IS giữa lá và cột sống liên kết, định cấu hình giao diện lặp lại cho mỗi thiết bị và quảng cáo nó với IGP (OSPF) (xem Hình bên dưới).

Hình 2. 7: Underlay Routing

Sau khi kết nối tất cả các liên kết lên từ leaf đến spine, định cấu hình và thiết lập IGP. Trong phần này, tơi đã sư dụng OSPF. sau đó tơi đã định cấu hình interface loopack và quảng bá nó trong OSPF để tất cả fabric neighbor sẽ biết về nó.

Layer 3 Virtual Network Identifier (L3VNI)

L3VNI là một VLAN với chỉ số VNI được gán riêng cho nó để thực hiện lưu lượng liênVLAN giữa các lá. Nếu bạn muốn giao tiếp, giả sư VLAN 10 trên Lá-01 đến VLAN- 20 trên Lá-02, lá gưi lưu lượng này qua L3VNI Đường hầm VXLAN được chỉ định cho VRF (định tuyến và chuyển tiếp ảo) cả hai VLAN đều thuộc về. Theo VRF, bạn cần chỉ định một L3VNI để giao tiếp giữa VLAN có thể xảy ra. Tóm lại, kiến trúc rất đơn giản: một VRF và một L3VNI và các VLAN của bạn. Nếu bạn đến từ nhà cung cấp dịch vụ theo dõi, L3VNI giống như MPLS label2 cho VRF-VNI. Hình 1-9 minh họa một tình huống ví dụ. VRF trong vải là được gọi là người thuê nhà-a. Nó được gán một

Nguyễn Đức Linh – D17CQVT06-B

Đồ án tốt nghiệp đại học Chương 2. Kiến trúc Spine-Leaf

L3VNI là 999999. L3VNI là VXLAN đường hầm vải mà các VLAN sư dụng để giao tiếp giữa các lá khác nhau.

Hình 2. 8: Layer 3 Virtual Network IdentifierKiến trúc Multipod Spine-and-Leaf VXLAN Kiến trúc Multipod Spine-and-Leaf VXLAN

Kiến trúc VXLAN BGP EVPN. Một trong những điều thú vị nhất các tính năng VXLAN cung cấp là khả năng “mở rộng” các VLAN của bạn ra ngoài ranh giới mạng cục bộ. Các VLAN cục bộ có sẵn ở các vị trí địa lý khác nhau — cùng một VLAN và cùng một mạng con trên hai site khác nhau. Từ một VLAN , nó nghĩ rằng nó ở cùng một vị trí, nhưng khơng phải vậy! Hãy tưởng tượng viễn cảnh này. Có hai trung tâm dữ liệu: một ở Frankfurt, và một ở Munich. VLAN10 được cấu hình trên cả hai DC1 và DC2. VXLAN VNI cho VLAN 10 được mở rộng bằng cách sư dụng tiện ích định tuyến EVPN nhập và xuất giữa các trung tâm dữ liệu. (Sau đó, tơi bao gồm các khía cạnh cấu hình.)

Từ góc độ của máy chủ, nó nghĩ rằng đích của nó nằm trên cùng một VLAN cục bộ. Với VXLAN multipod, tơi có thể kết nối chéo các loại fabric trong trung tâm dữ liệu của mình hoặc các nhóm với nhau để hoạt động như một kết cấu VXLAN hợp lý đồng thời có thơng số cấu hình dành riêng cho mỗi Pod. Ví dụ, trong DC1, Tơi có một VRF th tên là Frankfurt-Prod. Trong DC2, tơi có một người thuê VRF tên là Munich-Prod. Chúng không được đặt tên giống nhau trong DC, tuy nhiên, tơi có thể nhập và xuất các mục tiêu tuyến đường từ EVPN L3VNI và có các tuyến BGP EVPN được truyền giữa các trung tâm dữ liệu. Điều này có nghĩa là rằng tơi có thơng tin địa chỉ MAC từ tất cả

Nguyễn Đức Linh – D17CQVT06-B

các thiết bị của tôi trong VLAN 10 trên cả hai trung tâm dữ liệu được quảng cáo như nhau trên mỗi VRF — DC1 đến DC2 và DC2 đến DC1.

Tất cả các điểm cuối VLAN 10 đều giao tiếp với nhau khi nghĩ rằng chúng là ở cùng một vị trí. Mạch của nhà cung cấp dịch vụ là L2 EVPN hoặc VPLS mạch, giống như sợi sẫm màu. Tôi định cấu hình các giao diện mạch giống như tất cả các liên kết lớp dưới khác của tôi và quảng cáo tới OSPF để cả hai DC có thể nhận được tất cả thông tin cơ bản của họ. Một lát sau, Tôi cung cấp các cấu hình cấp thấp, bao gồm cả cấu hình nhiều pod trong BGP, để làm cho tất cả điều kỳ diệu này xảy ra.

Hình 2. 9: Multipod Vxlan BGP EVPN Mơ hình Multisite Spine-and-Leaf VXLAN

Hãy thảo luận về kiến trúc nhiều trang. Trong kiến trúc nhiều pod, bạn kết hợp ít nhất hai loại Fabric để làm cho chúng trơng và hoạt động giống như một loại. Bạn sư dụng mục tiêu tuyến đường trong EVPN để nhập và xuất lớp 2 của mình thơng tin giữa các pod (hoặc fabric). Về mặt kỹ thuật, bạn có thể định cấu hình nó để xem như một kết cấu hợp lý. Logic đằng sau một kiến trúc multisite là khá khác nhau. Kiến trúc multisite có tính năng chia sẻ các loại fabric hồn tồn độc lập tài nguyên cụ thể và giao tiếp thông qua nhà cung cấp dịch vụ trung gian mạng. Giả sư bạn có DC1 và DC2 trong cấu hình nhiều site. DC1 thực hiện mối quan hệ láng giềng eBGP với nhà cung cấp dịch vụ của bạn, trong đó nhà cung cấp dịch vụ mang lưu lượng EVPN đến DC2 đích của bạn.

Khía cạnh ngang hàng xảy ra ở leaf boder gateway (BGW). Nó ở đây leaf nơi bạn giao tiếp với BGP nội bộ (iBGP) -> eBGP AS bên ngồi, sau đó chuyển tiếp đến nhà cung cấp dịch vụ của bạn. Kiến trúc giống như DC2. Leaf BGW ngang hàng với iBGP AS của bạn, tương đương với số eBGP AS của bạn, là minh họa trong Hình dưới

Nguyễn Đức Linh – D17CQVT06-B

Đồ án tốt nghiệp đại học Chương 2. Kiến trúc Spine-Leaf

Hình 2.10:Đường dẫn BGP giữa hai trung tâm dữ liệu trong một cấu hìnhmultisite multisite

Vai trị của lá BGW là ngang hàng giữa iBGP và eBGP và thực hiện cái mà tôi gọi là AS NAT hoặc là BGP AS number từ internal sang external cho lưu lượng truy cập cụ thể EVPN.

Giả sư các giá trị sau: DC1 vải AS là 65501, DC1 eBGP AS là 34563, DC2 vải AS là 65502 và DC2 eBGP AS là 46673. Thời điểm tôi gưi yêu cầu liên lạc của mình tới trung tâm dữ liệu 2, nguồn của giao tiếp thay đổi từ DC1 65501 sang DC1 34563 eBGP AS. Nên BGW chuyển 65501 thành 34563 để chuyển sang đám mây của nhà cung cấp dịch vụ. Khi gói đến DC2, nó được ghi lại thành 65502, là vải DC2 địa phương AS. Lưu lượng truy cập đến được giả mạo để trông giống như trên cùng một loại vải (xem Hình ).

Hình 2. 11: Multi-site Vxlan BGP EVPN 2.3.6 Mạng Cisco MSDC Layer 3 spine-and-leaf

Các trung tâm dữ liệu có thể mở rộng quy mơ lớn (MSDC) là các trung tâm dữ liệu lớn, với hàng nghìn máy chủ vật lý (đơi khi hàng trăm nghìn), được thiết kế để mở rộng quy mơ và khả năng tính tốn mà ít ảnh hưởng đến cơ sở hạ tầng hiện có. Các mơi trường ở quy mơ này có một tập hợp các u cầu mạng duy nhất, tập trung vào hiệu suất ứng dụng, tính đơn giản và ổn định của mạng, khả năng hiển thị, khắc phục sự cố dễ dàng và quản lý vòng đời dễ dàng, v.v. Ví dụ về MSDC là các nhà cung cấp dịch vụ

Nguyễn Đức Linh – D17CQVT06-B

đám mây lớn có hàng nghìn người th, và cổng web và các nhà cung cấp thương mại điện tư lưu trữ các ứng dụng phân tán lớn.

Thiết kế cấu trúc liên kết MSDC của Cisco sư dụng kiến trúc cột và lá Lớp 3. Lớp lá chịu trách nhiệm quảng cáo các mạng con của máy chủ trong kết cấu mạng. Thiết bị Spine chịu trách nhiệm tìm hiểu các tuyến cơ sở hạ tầng và các tuyến mạng con của máy chủ lưu trữ cuối. Trong hầu hết các trường hợp, công tắc cột sống không được sư dụng để kết nối trực tiếp với thế giới bên ngoài hoặc với các mạng MSDC khác, nhưng nó sẽ chuyển tiếp lưu lượng đó đến các cơng tắc lá chun dụng hoạt động như các công tắc lá biên giới. Cơng tắc lá biên có thể chèn các tuyến đường mặc định để thu hút lưu lượng dành cho các điểm đến bên ngoài. Tùy thuộc vào số lượng máy chủ cần được hỗ trợ, có các kiểu thiết kế MSDC khác nhau: cấu trúc liên kết lá gai hai tầng, cấu trúc liên kết lá gai ba tầng, thiết kế máy bay vải siêu mỏng. Để biết thêm chi tiết về thiết kế MSDC với thiết bị chuyển mạch Cisco Nexus 9000 và 3000.

Về thiết kế định tuyến, mặt phẳng điều khiển MSDC của Cisco sư dụng các giao thức lớp 3 động như eBGP để xây dựng bảng định tuyến giúp định tuyến một cách hiệu quả nhất một gói từ nguồn đến nút cột sống. Hầu hết khách hàng sư dụng eBGP vì khả năng mở rộng và tính ổn định của nó.

Hình 2. 12: Mạng MSDC Layer 3 spine-and-leaf với Control Plane BGP

Thiết kế gai và lá Lớp 3 cố ý không hỗ trợ VLAN Lớp 2 trên các công tắc ToR vì đây là vải Lớp 3. Mỗi máy chủ được liên kết với một mạng con của máy chủ và nói chuyện với các máy chủ khác thơng qua định tuyến Lớp 3. Tính di động của máy chủ và sự đa thai khơng được hỗ trợ.

Bởi vì mạng kết cấu rất lớn, khách hàng của MSDC thường sư dụng các phương pháp tiếp cận dựa trên phần mềm để đưa vào mạng nhiều tính năng tự động hóa hơn và nhiều mơ đun hơn. Các cơng cụ tự động hóa có thể xư lý các cấu trúc liên kết cấu trúc và các

Nguyễn Đức Linh – D17CQVT06-B

Đồ án tốt nghiệp đại học Chương 2. Kiến trúc Spine-Leaf

yếu tố hình thức khác nhau, tạo ra một giải pháp mơ-đun có thể thích ứng với các trung tâm dữ liệu có kích thước khác nhau. MSDC được tự động hóa cao để triển khai cấu hình trên thiết bị và khám phá bất kỳ vai trò mới nào của thiết bị trong kết cấu, theo

Một phần của tài liệu ĐỒ án tốt NGHIỆP đại học đề tài mô PHỎNG CÔNG NGHỆ VXLAN TRÊN mô HÌNH KIẾN TRÚC MẠNG SPINE LEAF (Trang 48)

Tải bản đầy đủ (DOCX)

(72 trang)
w