So sánh chính sách lưu trữ với chính sách thay thế nội dung trong mạng hướng nội dung

5 23 0
So sánh chính sách lưu trữ với chính sách thay thế nội dung trong mạng hướng nội dung

Đang tải... (xem toàn văn)

Thông tin tài liệu

Bài viết phân tích các chính sách lưu trữ nội dung các node và tiến hành so sánh các chính sách này với các chính sách thay thế nội dung, khi không gian lưu trữ tại các node không đủ bộ nhớ lưu trữ nội dung mới, đồng thời mô phỏng được thực hiện trong mô hình mạng tự do phù hợp với mạng CCN thay vì mô hình mạng phân cấp.

Kỷ yếu Hội nghị Khoa học Quốc gia lần thứ IX “Nghiên cứu ứng dụng Công nghệ thông tin (FAIR'9)”; Cần Thơ, ngày 4-5/8/2016 DOI: 10.15625/vap.2016.00081 LƯU TRỮ VỚI CHÍNH SÁCH THAY THẾ SO SÁNH NỘI DUNG TRONG MẠ G ƯỚNG NỘI DUNG Lê Phong Dũ1,2, Lê Tuấn Anh3, Nguyễn Đức Thái4 Trường Đại học Lạc Hồng Trường Đại học Trà Vinh Trường Đại học Thủ Dầu Một Trường Đại học Bách Khoa, Đại học Quốc gia TP.HCM TÓM TẮT — CCN (Content Centric Networking) c u ng nh ng n gần c e ộ giải h ch ng in e ne ng ơng lai Trong CCN, d iệu c chu n h nh h – - h ng h nh u n d iệu d ên tên nội dung L u d liệu m ng ặc i m CCN, tức d liệu c u t i node m ng Trong nghiên cứu ch ng i phân tích ch nh ch u nội dung t i node tiến hành so sánh ch nh ch n với sách thay nội dung, kh ng gi n u t i c c n de kh ng ủ nhớ u nội dung ồng thời mô c th c mô h nh m ng t h h ới ng CCN thay mơ hình m ng phân c p Kế uả hỏng ch h ch nh ch h hế nội dung LR ch kế uả ố c c ch nh ch c u kh c —Content Centric Networking, CCN, Cache I GIỚI THIỆU Internet phát triển nhanh dịch vụ, liệu trao đổi ngày lớn, xu hướng tiếp tục tăng theo thời gian Theo thống kê Cisco VNI [1] số lượng IP toàn cầu tăng gấp tám lần năm năm qua, tốc độ tăng trung bình là 29% từ năm 2011-2016 Nhu cầu người dùng sử dụng ngày nhiều dịch vụ truy cập lượng liệu ngày lớn, đặt nhiều thách thức cho việc đáp ứng yêu cầu truyền liệu mạng như: băng thơng lớn, tốc độ bit cao, có độ trễ thấp, bảo mật cao Xu hướng kết nối có thay đổi từ mơ hình kiến trúc client-server truyền thống hướng đến tiếp nhận phổ biến nội dung nhiều nơi, nghĩa mơ hình kết nối Internet tập trung vào nội dung liệu, không quan tâm nhiều đến vị trí vật lý mà nội dung lưu trữ Có nhiều nghiên cứu tập trung vào mơ hình kết nối dựa vào nội dung đề xuất, có Content Centric Networking đề xuất PARC (Palo Alto Research Center) xem mạng Internet tương lai Trong CCN, nội dung liệu ph n thành chunk [2], m i chunk xác định tên để nhận chuyển tiếp gói tin sử dụng thay cho địa ch IP Có hai gói tin CCN, interest packet gói tin yêu cầu liệu từ ph a người d ng data packer mang nội dung y u cầu Nguồn giữ data packet m i nhận Interest packet có c ng t n y u cầu tự động gửi data packet cho người d ng theo chế lưu vết đường Interest packet CCN node Trong mạng CCN, m i node gồm ba cấu tr c liệu ch nh [2]: Content tore (C ) nhớ lưu trữ nội dung liệu, Forwarding Information Base (FIB) chứa danh sách định tuyến liệu Pending Interest Table (PIT) lưu vết gói tin chờ phục vụ, nghĩa gửi yêu cầu qua mạng chờ phản hồi từ mạng Hình Cơ chế định tuyến-chuyển tiếp gói tin CCN Router [2] Có nhiều ch nh sách đề xuất lưu trữ nội dung node mạng CCN Leave Copy Everywhere (LCE) [3][9], Leave Copy Down (LCD) [4][9], Move Copy Down (MCD) [4][9] hay Prob Cache (Prob) [6][9] Bên cạnh đó, nhớ lưu trữ node có khơng gian nhớ khác nhau, giới hạn dung lượng, cần có 652 NH CH NH CH TRỮ VỚI CHÍNH SÁCH THAY THẾ NỘI DUNG TRONG MẠNG H ỚNG NỘI DUNG sách loại bỏ nội dung khơng cịn phù hợp, khơng cịn sử dụng để thay nội dung Một số ch nh sách sử dụng để thay nội d ng east Rencently sed ( R ) [5], Least Frequently Used (LFU) [7], Random (Rand) [8] hay First In First Out (FIFO) Trong báo này, ch ng ph n t ch so sánh ch nh sách lưu trữ nội dung node LCE, LCD Prob Cache với ba sách thay nội dung node LRU, RAND FIFO môi trường mạng tự Abilien Cấu trúc báo gồm phần II, trình bày sách lưu trữ nội dung node, phần III trình bày sách thay nội dung, phần IV mơ ch nh sách đánh giá, phần kết luận trình bày phần V II L D Chính sách lưu trữ node có nhiệm vụ lưu trữ nội dung thường xuyên gần đ y, nội dung node tham chiếu node khác thời gian sớm ưu trữ nội dung liệu node giúp giảm sử dụng băng thông, hạn chế truy cập liệu server gốc, hạn chế tắc nghẽn mạng Các ch nh sách thiết kế tốt để lưu nội dung node mạng CCN gi p tiết kiệm nhớ, tránh lãng ph băng thông mạng LCE ch nh sách định nghĩa mặc định cho mạng CCN Khi người dùng gửi yêu cầu liệu đến mạng CCN, yêu cầu nội dung liệu tìm thấy node thứ i server gốc nội dung yêu cầu lưu nội dung liệu tất node trung gian từ node thứ (i-1,i-2,…,1) tr n đường từ vị trí nội dung tìm thấy đến vị tr người dùng yêu cầu Kết nội dung liệu lưu trữ phổ biến mạng, gần với yêu cầu người dùng Tuy nhiên, tốn nhiều khơng gian lưu trữ liệu bị trùng lặp, node nhanh chóng hết khơng gian lưu trữ sách thay phải thực liên tục node Các sách thay nội dung liệu thường sử dụng LCE LRU, FIFO, RAND Trong LCD lưu trữ nội dung liệu node mức i-1, yêu cầu nội dung tìm thấy node thứ i, nội dung liệu ch lưu trữ node ph a node tìm thấy nội dung node thứ i Đối với LCD, giải vấn đề trùng lặp liệu tiết kiệm không gian nhớ nội dung yêu cầu liệu node suy giảm Một dạng khác LCD MCD đề xuất, ch nh sách này, lưu nội dung liệu node thứ i-1 nội dung liệu node thứ i, nơi y u cầu tìm thấy liệu bị xóa Một đề xuất khác ch nh sách dựa vào xác suất Prob cache, m i node lưu trữ nội dung liệu với xác suất p không lưu với xác suất 1-p Khi xác suất 1, thực ch nh sách LCE Ch nh sách giải vấn đề khó khăn LCE LCD gặp phải Mô tả ch nh sách lưu trữ nội dung node thể hình Hình 2: Các ch nh sách lưu trữ nội dung III C D i node có k ch thước nhớ khả lưu trữ khác nhau, bên cạnh đó, liệu ln thay đổi thường xuyên theo thời gian, ch nh sách thu hồi nhớ đề xuất để thu hồi v ng nhớ cho hiệu node Khi liệu đến node không đủ dung lượng để lưu nội dung liệu, node phải thực sách thu hồi nhớ cách loại bỏ nội dung liệu dựa vào yếu tố như: thời gian truy cập, số lần truy cập hay thứ tự truy cập LRU ch nh sách thay nội dung liệu lưu trữ node sử dụng rộng, sử dụng hàng đợi xếp nội dung liệu theo trình tự thời gian lần truy cập trước Khi khơng gian nhớ node đầy, xóa nội dung liệu sau c ng th m nội dung liệu vào đầu hàng đợi Trong đó, F xếp hàng đợi theo số lượng truy xuất, nội dung liệu t y u cầu bị thay nội dung liệu Tuy nhi n, F , nhiều nội dung phổ biến thời gian dài giữ lại nhớ Để tránh trường hợp này, F A đề xuất việc sử dụng ngư ng đo, giá trị trung bình tất số lần truy cập lớn giá trị ngư ng số lần truy cập nội dung liệu bị giảm Phong Dũ, Tuấn Anh, Nguyễn Đức Thái 653 Chính sách thay ngẫu nhiên RAND loại bỏ ngẫu nhiên nội dung liệu lưu trữ node, cần lưu nội dung liệu vào node nhớ node đầy Chính sách thay thách thức lớn nội dung quan trọng, phổ biến sử dụng thường xuyên bị thay nội dung phổ biến Ngồi cịn có ch nh sách thay khác FIFO, ch nh sách loại bỏ nội dung liệu lưu trữ nhớ node cách lưu trữ trước loại bỏ trước IV SO SÁNH L VÀ THAY TH N I DUNG Trong phần này, ch ng tiến hành mô so sánh ch nh sách lưu trữ nội dung liệu với sách thay nội dung, so sánh kết chúng So sánh kết ch nh sách lưu trữ LCE, LCD Prob với ba sách thay LRU, RAND FIFO Ch ng sử dụng nội dung liệu tìm thấy m i node (hit chunk) để làm tham số để so sánh Các ch nh sách mơ mơ hình mạng Abilene hình 3, mà kiến tr c mạng phù hợp với kiến trúc mạng CCN, sử dụng công cụ mô ccnSim [10] tham số mô trình bày bảng Bảng Thơng số mô Thông số Thời gian thực Số chunk Tốc độ window Ch nh sách lưu trữ nội dung Chính sách thay nội dung Kiến trúc mạng nh Giá trị 1800 giây 10000 yêu cầu/ giây 60 LCE, LCD, Prob LRU, RAND, FIFO Abilene hình mạng Abilene A Ch nh sách lưu trữ LCE CE sử dụng phổ biến để lưu trữ nội dung mạng CCN Thử thách lớn tr ng lập nội dung node Tuy nhi n mạng y u cầu phổ biến nội dung CCN CE tốt Trong sách thay nội dung, thay hết tất nội dung liệu tất node Kết mơ hình cho thấy, ch nh sách thay nội dung R cho kết cao LCE so với phương pháp thay RAND FIF nh Ch nh sách lưu trữ LCE sách thay nội dung LRU, RAND, FIFO 654 NH CH NH CH TRỮ VỚI CHÍNH SÁCH THAY THẾ NỘI DUNG TRONG MẠNG H ỚNG NỘI DUNG B Ch nh sách lưu trữ LCD Đối với LCD ch lưu trữ nội dung node láng giềng sau thấy nội dung cần tìm node Chính sách thay nội dung thực cần R , RAND hay FIF , kết mô CD thấy sử dụng LRU thực tốt so với hai ch nh sách thay cịn lại, thực cơng qua node, khơng có biến thi n lớn nội dung lưu trữ node, kết mơ hình H nh Ch nh sách lưu trữ LCD sách thay nội dung LRU, RAND, FIFO C Ch nh sách lưu trữ Prob Đối với ch nh sách Prob lưu trữ nội dung node cách tính xác suất p, giải thách thức mà LCE LCD gặp phải Khi thực mơ mơ hình mạng Abilene sách thay nội dung LRU thực hiệu quả, đạt t lệ tìm thấy nội dung node lớn so với với sách cịn lại Hình ch kết so sánh ch ng nh Ch nh sách lưu trữ Prob sách thay nội dung LRU, RAND, FIFO Từ kết mô cho thấy, sử dụng nhiều ch nh sách lưu trữ liệu khác sách thay nội dung LRU cho kết tốt ch nh sách khác, đánh giá cao tính hiệu ch nh sách LRU sử dụng V K L Bài báo trình bày sách lưu trữ nội dung liệu sách thay nội dung liệu node mạng CCN Ch điểm mạnh, yếu ch nh sách, qua tiến hành mơ ch nh sách lưu trữ nội dụng với sách thay nội dung đề cập đánh giá lại LRU xem sách thay nội dung hiệu sách khác CCN LỆ [1] Cisco visual networking index: forecast and methodology: 2011-2015, 5/2012 [2] V Jacobson, D K Smelters, D Thornton, M F Plass, N H Briggs, R L Braynard, “Networking named content”, ACM CoNEXT, Rome, Italy, December 2009 [3] G Carofiglio, V Gehlen, and D Perino, “Experimental evaluation of memory management in content-centric networking”, IEEE ICC, 2011, pp 1-6 [4] K Cho, M Lee, K Park, T T Kwon, Y Choi, and S Pack, “Wave: Popularity-based and collaborative in-network caching for content-oriented networks”, IEEE INFOCOM WKSHPS, 2012, pp 316-321 Phong Dũ, Tuấn Anh, Nguyễn Đức Thái 655 [5] D He, W K Chai, and G Pavlou “Leveraging in-network caching for efficient content delivery in content-centric network”, Proc of London Communication Symposium 2011 [6] Psaras, Ioannis, Wei Koong Chai, and George Pavlou “Probabilistic in-network caching for information-centric networks”, Proceedings of thesecond edition of the ICN workshop on Information-centric networking ACM, 2012 [7] S Podlipnig and L Bă osză ormenyi, A survey of web cache replacement strategies,” AC 398, 2003 [8] N Laoutaris, S yntila, and I Comput, vol 35, no 4, pp 374– tavrakakis, “Meta Algorithms for Hierarchical Web Caches”, IEEE ICPCC, 2004 [9] N Laoutaris, H Che, and I Stavrakakis, “The LCD interconnection of LRU caches and its analysis”, Performance Evaluation, 63(7), 2006 [10] ccnSim homepage http://www.infres.enst.fr/~drossi/ccnSim, 05/2016 ... cách lưu trữ trước loại bỏ trước IV SO SÁNH L VÀ THAY TH N I DUNG Trong phần này, ch ng tiến hành mô so sánh ch nh sách lưu trữ nội dung liệu với sách thay nội dung, so sánh kết chúng So sánh. .. nh sách thay nội dung R cho kết cao LCE so với phương pháp thay RAND FIF nh Ch nh sách lưu trữ LCE sách thay nội dung LRU, RAND, FIFO 654 NH CH NH CH TRỮ VỚI CHÍNH SÁCH THAY THẾ NỘI DUNG TRONG. .. CH NH CH TRỮ VỚI CHÍNH SÁCH THAY THẾ NỘI DUNG TRONG MẠNG H ỚNG NỘI DUNG sách loại bỏ nội dung khơng cịn phù hợp, khơng cịn sử dụng để thay nội dung Một số ch nh sách sử dụng để thay nội d ng

Ngày đăng: 26/11/2020, 00:12

Tài liệu cùng người dùng

  • Đang cập nhật ...

Tài liệu liên quan