Layer 3 Virtual Network Identifier

Một phần của tài liệu ĐỒ án tốt NGHIỆP đại học đề tài mô PHỎNG CÔNG NGHỆ VXLAN TRÊN mô HÌNH KIẾN TRÚC MẠNG SPINE LEAF (Trang 52)

Kiến trúc Multipod Spine-and-Leaf VXLAN

Kiến trúc VXLAN BGP EVPN. Một trong những điều thú vị nhất các tính năng VXLAN cung cấp là khả năng “mở rộng” các VLAN của bạn ra ngoài ranh giới mạng cục bộ. Các VLAN cục bộ có sẵn ở các vị trí địa lý khác nhau — cùng một VLAN và cùng một mạng con trên hai site khác nhau. Từ một VLAN , nó nghĩ rằng nó ở cùng một vị trí, nhưng khơng phải vậy! Hãy tưởng tượng viễn cảnh này. Có hai trung tâm dữ liệu: một ở Frankfurt, và một ở Munich. VLAN10 được cấu hình trên cả hai DC1 và DC2. VXLAN VNI cho VLAN 10 được mở rộng bằng cách sư dụng tiện ích định tuyến EVPN nhập và xuất giữa các trung tâm dữ liệu. (Sau đó, tơi bao gồm các khía cạnh cấu hình.)

Từ góc độ của máy chủ, nó nghĩ rằng đích của nó nằm trên cùng một VLAN cục bộ. Với VXLAN multipod, tơi có thể kết nối chéo các loại fabric trong trung tâm dữ liệu của mình hoặc các nhóm với nhau để hoạt động như một kết cấu VXLAN hợp lý đồng thời có thơng số cấu hình dành riêng cho mỗi Pod. Ví dụ, trong DC1, Tơi có một VRF th tên là Frankfurt-Prod. Trong DC2, tơi có một người thuê VRF tên là Munich-Prod. Chúng không được đặt tên giống nhau trong DC, tuy nhiên, tơi có thể nhập và xuất các mục tiêu tuyến đường từ EVPN L3VNI và có các tuyến BGP EVPN được truyền giữa các trung tâm dữ liệu. Điều này có nghĩa là rằng tơi có thơng tin địa chỉ MAC từ tất cả

Nguyễn Đức Linh – D17CQVT06-B

các thiết bị của tôi trong VLAN 10 trên cả hai trung tâm dữ liệu được quảng cáo như nhau trên mỗi VRF — DC1 đến DC2 và DC2 đến DC1.

Tất cả các điểm cuối VLAN 10 đều giao tiếp với nhau khi nghĩ rằng chúng là ở cùng một vị trí. Mạch của nhà cung cấp dịch vụ là L2 EVPN hoặc VPLS mạch, giống như sợi sẫm màu. Tơi định cấu hình các giao diện mạch giống như tất cả các liên kết lớp dưới khác của tôi và quảng cáo tới OSPF để cả hai DC có thể nhận được tất cả thơng tin cơ bản của họ. Một lát sau, Tôi cung cấp các cấu hình cấp thấp, bao gồm cả cấu hình nhiều pod trong BGP, để làm cho tất cả điều kỳ diệu này xảy ra.

Hình 2. 9: Multipod Vxlan BGP EVPN Mơ hình Multisite Spine-and-Leaf VXLAN

Hãy thảo luận về kiến trúc nhiều trang. Trong kiến trúc nhiều pod, bạn kết hợp ít nhất hai loại Fabric để làm cho chúng trông và hoạt động giống như một loại. Bạn sư dụng mục tiêu tuyến đường trong EVPN để nhập và xuất lớp 2 của mình thơng tin giữa các pod (hoặc fabric). Về mặt kỹ thuật, bạn có thể định cấu hình nó để xem như một kết cấu hợp lý. Logic đằng sau một kiến trúc multisite là khá khác nhau. Kiến trúc multisite có tính năng chia sẻ các loại fabric hồn tồn độc lập tài nguyên cụ thể và giao tiếp thông qua nhà cung cấp dịch vụ trung gian mạng. Giả sư bạn có DC1 và DC2 trong cấu hình nhiều site. DC1 thực hiện mối quan hệ láng giềng eBGP với nhà cung cấp dịch vụ của bạn, trong đó nhà cung cấp dịch vụ mang lưu lượng EVPN đến DC2 đích của bạn.

Khía cạnh ngang hàng xảy ra ở leaf boder gateway (BGW). Nó ở đây leaf nơi bạn giao tiếp với BGP nội bộ (iBGP) -> eBGP AS bên ngồi, sau đó chuyển tiếp đến nhà cung cấp dịch vụ của bạn. Kiến trúc giống như DC2. Leaf BGW ngang hàng với iBGP AS của bạn, tương đương với số eBGP AS của bạn, là minh họa trong Hình dưới

Nguyễn Đức Linh – D17CQVT06-B

Đồ án tốt nghiệp đại học Chương 2. Kiến trúc Spine-Leaf

Hình 2.10:Đường dẫn BGP giữa hai trung tâm dữ liệu trong một cấu hìnhmultisite multisite

Vai trị của lá BGW là ngang hàng giữa iBGP và eBGP và thực hiện cái mà tôi gọi là AS NAT hoặc là BGP AS number từ internal sang external cho lưu lượng truy cập cụ thể EVPN.

Giả sư các giá trị sau: DC1 vải AS là 65501, DC1 eBGP AS là 34563, DC2 vải AS là 65502 và DC2 eBGP AS là 46673. Thời điểm tôi gưi yêu cầu liên lạc của mình tới trung tâm dữ liệu 2, nguồn của giao tiếp thay đổi từ DC1 65501 sang DC1 34563 eBGP AS. Nên BGW chuyển 65501 thành 34563 để chuyển sang đám mây của nhà cung cấp dịch vụ. Khi gói đến DC2, nó được ghi lại thành 65502, là vải DC2 địa phương AS. Lưu lượng truy cập đến được giả mạo để trơng giống như trên cùng một loại vải (xem Hình ).

Hình 2. 11: Multi-site Vxlan BGP EVPN 2.3.6 Mạng Cisco MSDC Layer 3 spine-and-leaf

Các trung tâm dữ liệu có thể mở rộng quy mơ lớn (MSDC) là các trung tâm dữ liệu lớn, với hàng nghìn máy chủ vật lý (đơi khi hàng trăm nghìn), được thiết kế để mở rộng quy mơ và khả năng tính tốn mà ít ảnh hưởng đến cơ sở hạ tầng hiện có. Các mơi trường ở quy mơ này có một tập hợp các u cầu mạng duy nhất, tập trung vào hiệu suất ứng dụng, tính đơn giản và ổn định của mạng, khả năng hiển thị, khắc phục sự cố dễ dàng và quản lý vòng đời dễ dàng, v.v. Ví dụ về MSDC là các nhà cung cấp dịch vụ

Nguyễn Đức Linh – D17CQVT06-B

đám mây lớn có hàng nghìn người th, và cổng web và các nhà cung cấp thương mại điện tư lưu trữ các ứng dụng phân tán lớn.

Thiết kế cấu trúc liên kết MSDC của Cisco sư dụng kiến trúc cột và lá Lớp 3. Lớp lá chịu trách nhiệm quảng cáo các mạng con của máy chủ trong kết cấu mạng. Thiết bị Spine chịu trách nhiệm tìm hiểu các tuyến cơ sở hạ tầng và các tuyến mạng con của máy chủ lưu trữ cuối. Trong hầu hết các trường hợp, công tắc cột sống không được sư dụng để kết nối trực tiếp với thế giới bên ngồi hoặc với các mạng MSDC khác, nhưng nó sẽ chuyển tiếp lưu lượng đó đến các cơng tắc lá chun dụng hoạt động như các công tắc lá biên giới. Cơng tắc lá biên có thể chèn các tuyến đường mặc định để thu hút lưu lượng dành cho các điểm đến bên ngoài. Tùy thuộc vào số lượng máy chủ cần được hỗ trợ, có các kiểu thiết kế MSDC khác nhau: cấu trúc liên kết lá gai hai tầng, cấu trúc liên kết lá gai ba tầng, thiết kế máy bay vải siêu mỏng. Để biết thêm chi tiết về thiết kế MSDC với thiết bị chuyển mạch Cisco Nexus 9000 và 3000.

Về thiết kế định tuyến, mặt phẳng điều khiển MSDC của Cisco sư dụng các giao thức lớp 3 động như eBGP để xây dựng bảng định tuyến giúp định tuyến một cách hiệu quả nhất một gói từ nguồn đến nút cột sống. Hầu hết khách hàng sư dụng eBGP vì khả năng mở rộng và tính ổn định của nó.

Hình 2. 12: Mạng MSDC Layer 3 spine-and-leaf với Control Plane BGP

Thiết kế gai và lá Lớp 3 cố ý không hỗ trợ VLAN Lớp 2 trên các công tắc ToR vì đây là vải Lớp 3. Mỗi máy chủ được liên kết với một mạng con của máy chủ và nói chuyện với các máy chủ khác thông qua định tuyến Lớp 3. Tính di động của máy chủ và sự đa thai khơng được hỗ trợ.

Bởi vì mạng kết cấu rất lớn, khách hàng của MSDC thường sư dụng các phương pháp tiếp cận dựa trên phần mềm để đưa vào mạng nhiều tính năng tự động hóa hơn và nhiều mơ đun hơn. Các cơng cụ tự động hóa có thể xư lý các cấu trúc liên kết cấu trúc và các

Nguyễn Đức Linh – D17CQVT06-B

Đồ án tốt nghiệp đại học Chương 2. Kiến trúc Spine-Leaf

yếu tố hình thức khác nhau, tạo ra một giải pháp mơ-đun có thể thích ứng với các trung tâm dữ liệu có kích thước khác nhau. MSDC được tự động hóa cao để triển khai cấu hình trên thiết bị và khám phá bất kỳ vai trò mới nào của thiết bị trong kết cấu, theo dõi và khắc phục sự cố kết cấu, v.v. Nhiều khách hàng của MSDC viết tập lệnh để thực hiện thay đổi mạng, sư dụng Python, Puppet và Chef, và các DevOps khác các công cụ và công nghệ của Cisco, chẳng hạn như Cấp phép tự động bật nguồn (POAP).

2.3.7 Quản lý kết cấu và tự động hóa của Trung tâm dữ liệu

Khơng có cách duy nhất để xây dựng một trung tâm dữ liệu. Tương tự, khơng có cách duy nhất để quản lý kết cấu trung tâm dữ liệu. Nhiều công cụ khác nhau có sẵn từ Cisco, các bên thứ ba và cộng đồng nguồn mở có thể được sư dụng để giám sát, quản lý, tự động hóa và khắc phục sự cố kết cấu trung tâm dữ liệu.

Quản lý Mạng Trung tâm Dữ liệu của Cisco

Trình quản lý Mạng Trung tâm Dữ liệu của Cisco (DCNM) là một hệ thống quản lý cho Kết cấu Hợp nhất của Cisco ®

. Nó cho phép bạn cung cấp, giám sát và khắc phục sự cố cơ sở hạ tầng mạng trung tâm dữ liệu. Cisco DCNM có thể được cài đặt ở bốn chế độ:

● Chế độ LAN cổ điển: quản lý cơ sở hạ tầng Trung tâm dữ liệu Nexus của Cisco được triển khai trong các thiết kế kế thừa, chẳng hạn như thiết kế vPC, thiết kế

FabricPath, v.v.

● Chế độ bộ điều khiển phương tiện: quản lý mạng Cisco IP Fabric cho giải pháp Phương tiện và giúp chuyển đổi từ bộ định tuyến SDI sang cơ sở hạ tầng dựa trên IP. Nó cung cấp tính năng tự động hóa quy trình làm việc, quản lý chính sách quy trình và tích hợp thiết bị studio của bên thứ ba, v.v. (Chế độ này không liên quan đến sách trắng này).

● Chế độ bộ điều khiển Mạng Khu vực Lưu trữ (SAN): quản lý các thiết bị chuyển mạch Dòng MDS của Cisco để triển khai mạng lưu trữ với điều khiển đồ họa cho tất cả các chức năng quản trị SAN. Nó cung cấp thơng tin đo từ xa giàu thơng tin chi tiết và thơng tin phân tích nâng cao khác,..

● Chế độ LAN Fabric: cung cấp Trình tạo vải để triển khai lớp dưới vải VXLAN EVPN tự động, triển khai lớp phủ, theo dõi luồng end-to-end, cảnh báo và khắc phục sự cố, tn thủ cấu hình và quản lý vịng đời thiết bị, v.v

● Thông tin chi tiết về mạng - Tài nguyên của Cisco (NIR): cung cấp cách thu thập thông tin thơng qua việc thu thập dữ liệu để có cái nhìn tổng quan về các tài ngun sẵn có cũng như các quy trình và cấu hình đang hoạt động của chúng trên tồn bộ Trình quản lý mạng của Trung tâm Dữ liệu (DCNM).

Nguyễn Đức Linh – D17CQVT06-B

2.3.8 Layer 3 routing function

Mạng lưới VXLAN MP-BGP EVPN cần cung cấp định tuyến VXLAN nội bộ Lớp 3 cũng như duy trì kết nối với các mạng bên ngồi cấu trúc VXLAN, bao gồm mạng khuôn viên, WAN và Internet. VXLAN MP-BGP EVPN sư dụng cổng anycast phân tán cho lưu lượng được định tuyến nội bộ. Chức năng định tuyến bên ngoài được tập trung trên các thiết bị chuyển mạch cụ thể.

Quảng bá cổng anycast cho định tuyến trong

Trong MP-BGP EVPN, bất kỳ VTEP nào trong VNI đều có thể là cổng anycast quảng bá cho các máy chủ cuối trong mạng con IP của nó bằng cách hỗ trợ cùng một địa chỉ IP cổng ảo và địa chỉ MAC cổng ảo (hiển thị trong Hình dưới). Với chức năng cổng anycast trong EVPN, các máy chủ cuối trong một VNI ln có thể sư dụng VTEP cục bộ cho VNI này làm cổng mặc định để gưi lưu lượng ra khỏi mạng con IP của chúng. Khả năng này cho phép chuyển tiếp tối ưu cho lưu lượng hướng bắc từ các máy chủ cuối trong mạng lớp phủ VXLAN. Cổng anycast phân tán cũng mang lại lợi ích của tính di động máy chủ trong suốt trong mạng lớp phủ VXLAN. Vì địa chỉ IP cổng và địa chỉ MAC ảo được cung cấp giống nhau trên tất cả các VTEP trong VNI, nên khi máy chủ cuối chuyển từ VTEP này sang VTEP khác, nó khơng cần gưi yêu cầu ARP khác để tìm hiểu lại địa chỉ MAC cổng.

Hình 2. 13: Quảng bá cổng anycast cho internal routingĐịnh tuyến bên ngoài tại Boder leaf Định tuyến bên ngoài tại Boder leaf

Hình 2.13 cho thấy một thiết kế điển hình sư dụng một cặp Switch leaf border được kết nối với các thiết bị định tuyến bên ngoài. Switch leaf border chạy MP-BGP EVPN ở bên trong với các VTEP khác trong kết cấu VXLAN và trao đổi các tuyến EVPN với chúng. Đồng thời, nó chạy định tuyến đơn IPv4 hoặc IPv6 thông thường trong các phiên bản VRF của đối tượng thuê với thiết bị định tuyến bên ngoài ở bên ngoài. Giao thức định tuyến có thể là eBGP thơng thường hoặc bất kỳ Giao thức cổng

Nguyễn Đức Linh – D17CQVT06-B

Đồ án tốt nghiệp đại học Chương 2. Kiến trúc Spine-Leaf

nội bộ (IGP) nào được lựa chọn. Công tắc lá biên giới học các tuyến bên ngoài và quảng cáo chúng đến miền EVPN dưới dạng các tuyến EVPN để các nút lá VTEP khác cũng có thể tìm hiểu về các tuyến bên ngoài để gưi lưu lượng đi.

Switch leaf border giới cũng có thể được định cấu hình để gưi các tuyến EVPN đã học trong họ địa chỉ EVPN VPN lớp 2 tới họ địa chỉ unicast IPv4 hoặc IPv6 và quảng cáo chúng tới thiết bị định tuyến bên ngoài. Với thiết kế này, lưu lượng truy cập của người thuê cần phải thực hiện hai bước đệm (VTEP to spine to border leaf) để đến được mạng bên ngồi. Tuy nhiên, cơng tắc cột sống chỉ cần chạy mặt phẳng điều khiển BGP-EVPN và định tuyến IP, nó khơng cần hỗ trợ chức năng VXLAN VTEP.

Hình 2. 14: Định tún ngồi tại Border leaf Định tún ngồi tại Border Spine

Hình 2.14 cho thấy một thiết kế điển hình với một cặp spine switch được kết nối với các thiết bị định tuyến bên ngoài. Với thiết kế này, spine switch cần hỗ trợ định tuyến VXLAN. spine switch chạy MP-BGP EVPN ở bên trong với các VTEP khác trong kết cấu VXLAN và trao đổi các tuyến EVPN với chúng. Đồng thời, nó chạy định tuyến đơn IPv4 hoặc IPv6 thông thường trong các phiên bản VRF của đối tượng thuê với thiết bị định tuyến bên ngồi ở bên ngồi. Giao thức định tuyến có thể là eBGP thơng thường hoặc bất kỳ IGP nào tùy chọn. spine switch học các tuyến bên ngoài và quảng cáo chúng đến miền EVPN dưới dạng các tuyến EVPN để các nút lá VTEP khác cũng có thể tìm hiểu về các tuyến bên ngồi để gưi lưu lượng đi.

spine switch cũng có thể được định cấu hình để gưi các tuyến EVPN đã học trong họ địa chỉ EVPN VPN lớp 2 tới họ địa chỉ unicast IPv4 hoặc IPv6 và quảng cáo chúng đến thiết bị định tuyến bên ngoài. Với thiết kế này, lưu lượng truy cập của người thuê chỉ cần một bước nhảy dưới (VTEP đến cột sống) để đến được mạng bên ngoài. Tuy

Nguyễn Đức Linh – D17CQVT06-B

nhiên, spine switch cần chạy mặt phẳng điều khiển BGP-EVPN và định tuyến IP và chức năng VXLAN VTEP.

Hình 2. 15: Định tún ngồi với border spine 2.4 Kết luận chương 2

Mạng VXLAN flood-and-learn spine-and-leaf là độc quyền của Cisco. Nó đơn giản, linh hoạt và ổn định; nó có khả năng mở rộng tốt và đặc điểm hội tụ nhanh; và nó hỗ trợ nhiều đường dẫn song song ở Lớp 2. Nhưng mạng FabricPath là công nghệ Lớp 2 dựa trên Flood and learn. Chức năng định tuyến Lớp 3 được đặt ở trên cùng của mạng Lớp 2. Các thiết kế Lớp 3 phổ biến sư dụng định tuyến tập trung: nghĩa là chức năng định tuyến Lớp 3 tập trung vào các thiết bị chuyển mạch cụ thể (spine switches or border leaf switches). Mạng FabricPath hỗ trợ tối đa bốn cổng anycast để định tuyến VLAN nội bộ.

Mạng spine-and-leaf tuân thủ các tiêu chuẩn IETF VXLAN (RFC 7348). Nó vận chuyển các khung Lớp 2 qua mạng lớp 3 IP lớp 3. Nhưng nó vẫn là cơng nghệ Lớp

Một phần của tài liệu ĐỒ án tốt NGHIỆP đại học đề tài mô PHỎNG CÔNG NGHỆ VXLAN TRÊN mô HÌNH KIẾN TRÚC MẠNG SPINE LEAF (Trang 52)

Tải bản đầy đủ (DOCX)

(72 trang)
w