Điều khiển công bằng luồng trong mạng chuyển mạch chùm quang tt

54 75 0
Điều khiển công bằng luồng trong mạng chuyển mạch chùm quang tt

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

ĐẠI HỌC HUẾ LÊ VĂN HỊA ĐIỀU KHIỂN CƠNG BẰNG LUỒNG TRONG MẠNG CHUYỂN MẠCH CHÙM QUANG CHUYÊN NGÀNH: KHOA HỌC MÁY TÍNH MÃ SỐ: 9480101 TĨM TẮT LUẬN ÁN TIẾN SĨ KHOA HỌC MÁY TÍNH HUẾ - NĂM 2019 Cơng trình hồn thành tại: Trường đại học Khoa học, Đại học Huế Người hướng dẫn khoa học: (ghi họ tên, chức danh khoa học, học vị): PGS TS Võ Viết Minh Nhật, Đại học Huế TS Nguyễn Hoàng Sơn, Trường Đại học Khoa học, Đại học Huế Phản biện 1: Phản biện 2: Phản biện 3: Luận án bảo vệ Hội đồng chấm luận án cấp Đại học Huế họp tại: Vào hồi ngày tháng năm Có thể tìm hiểu luận án thư viện: (ghi tên thư viện) MỞ ĐẦU Tính cấp thiết đề tài Sự phát triển không ngừng Internet vài thập niên trở lại đây, với bùng nổ loại hình dịch vụ truyền thông, làm gia tăng không ngừng nhu cầu băng thông truyền thông Điều đặt thách thức lớn việc tìm kiếm cơng nghệ truyền thông phù hợp nhằm nâng cao khả truyền thông mạng hệ Mạng quang, với cơng nghệ ghép kênh bước sóng WDM, mang đến giải pháp hiệu đáp ứng yêu cầu [24], [36] Truyền thông quang, từ đời vào đầu thập niên 90 nay, trải qua nhiều hệ phát triển: từ mô hình định tuyến bước sóng ban đầu với đường quang (lightpath) đầu cuối dành riêng mô hình chuyển mạch gói quang [36] đề xuất gần đây, với ý tưởng lấy từ mạng chuyển mạch gói điện tử Tuy nhiên, với số hạn chế mặt công nghệ, chưa thể sản xuất đệm quang (tương tự nhớ RAM mạng điện) hay chuyển mạch gói quang tốc độ nano giây, chuyển mạch gói quang chưa thể trở thành thực Một giải pháp thỏa hiệp mơ hình chuyển mạch chùm quang (OBS) Một đặc trưng tiêu biểu truyền thông mạng chuyển mạch chùm quang (mạng OBS) phần (gói) điều khiển BCP tách rời với phần (chùm) liệu (data burst) Nói cách khác, để thực truyền chùm quang, gói điều khiển hình thành gửi trước khoảng thời gian offset đủ để đặt trước tài nguyên cấu hình chuyển mạch nút trung gian dọc theo hành trình mà chùm quang qua từ nút nguồn đến nút đích Thêm vào đó, mạng OBS dành riêng số kênh (bước sóng) cho gói tin điều khiển, kênh lại dùng cho việc truyền liệu Như vậy, việc truyền gói điều khiển hồn tồn tách rời với phần liệu mặt không gian (trên kênh truyền khác) mặt thời gian (gởi trước khoảng thời gian offset) [65] Với cách truyền tải liệu mô tả, rõ ràng mạng OBS không cần đến đệm quang để lưu tạm thời chùm quang chờ đợi việc xử lý chuyển mạch nút lõi, không yêu cầu chuyển mạch tốc độ nano giây Tuy nhiên, cách truyền thông đặt áp lực làm để gói điều khiển kịp đặt trước tài ngun cấu hình chuyển mạch thành công nút lõi, đảm bảo cho việc chuyển tiếp chùm quang sau Đó nhiệm vụ hoạt động đặt trước tài nguyên, lập lịch, xử lý tắc nghẽn Ngoài vấn đề khác nhiều nhà nghiên cứu mạng OBS quan tâm đảm bảo công (fairness) luồng truyền thông khác chia sẻ liên kết bên mạng OBS Trong mạng OBS, vấn đề công nghiên cứu theo hướng chính: cơng độ trễ (delay fairness) [69], công thông lượng (througphut fairness) [53] công khoảng cách (distance fairness) [10] Việc đảm bảo công luồng chia sẻ chung tài nguyên mạng OBS có ý nghĩa quan trọng, mặt nhằm vừa đảm bảo phân biệt chất lượng dịch vụ cam kết, mặt khác tối ưu hiệu truyền thông luồng toàn mạng (chẳng hạn, dựa tỉ lệ mát liệu, tỉ lệ sử dụng băng thông, tỉ lệ độ trễ đầu cuối …) Động lực nghiên cứu Hiện có số cơng trình nghiên cứu vấn đề công mạng OBS mà phân thành nhóm tiếp cận dựa vị trí thực hiện: - Nhóm giải pháp cơng nút biên - Nhóm giải pháp cơng nút lõi Với nhóm giải pháp cơng nút biên, có hướng nghiên cứu gồm: (1) cơng độ trễ (2) cơng thơng lượng Với nhóm giải pháp cơng nút lõi, vấn đề công biết đến chủ yếu là công khoảng cách Trong mạng OBS, nút biên đóng vai trò quan trọng điều khiển cơng luồng, vì: Nút biên điều khiển lưu lượng luồng (kết nối đầu cuối) cách công trước truyền vào bên mạng lõi; nút lõi lúc chủ yếu xử lý công luồng đưa vào; Chỉ có nút biên có đệm, nên vấn đề điều khiển công độ trễ, thông lượng… thực dễ dàng Nút lõi khơng có đệm nên xử lý công nút lõi gần phụ thuộc vào hoạt động điều khiển nút biên Dựa vào đặc điểm Luận án tập trung vào việc nghiên cứu điều khiển công nút biên, với hai hoạt động điều khiển cơng độ trễ điều khiển công thông lượng Mục tiêu nghiên cứu  Nghiên cứu đề xuất số cải tiến tập hợp chùm giảm độ trễ nhằm làm giảm độ trễ truyền thông qua mạng OBS;  Nghiên cứu đề xuất giải pháp tập hợp chùm công độ trễ nhằm đồng thời phân biệt QoS theo độ trễ, làm giảm độ trễ công độ trễ luồng ưu tiên khác  Nghiên cứu đề xuất giải pháp điều khiển cơng thơng lượng, mà áp dụng cho loại luồng đến có phân bố Poisson nonPoisson  Nghiên cứu đề xuất giải pháp đắp chùm sau tập hợp chùm nhằm nâng cao hiệu sử dụng băng thông đảm bảo công thông lượng Đối tượng Phạm vi nghiên cứu - Đối tượng nghiên cứu: Các mơ hình, giải thuật tập hợp chùm điều khiển công luồng mạng OBS - Phạm vi nghiên cứu: Nút biên mạng OBS Phương pháp nghiên cứu - Phương pháp nghiên cứu lý thuyết: Tổng hợp công bố liên quan đến mơ hình, giải thuật điều khiển cơng độ trễ công thông lượng mạng OBS Phân tích, đánh giá ưu khuyết điểm đề xuất công bố để làm sở cho việc cải tiến đề xuất - Phương pháp mô phỏng, thực nghiệm: Cài đặt giải thuật cải tiến đề xuất nhằm chứng minh tính đắn giải thuật Cấu trúc luận án Luận án bao gồm phần mở đầu, ba chương nội dung, phần kết luận danh mục tài liệu tham khảo Cụ thể: Chương “Tổng quan công mạng chuyển mạch chùm quang” giới thiệu mơ hình chuyển mạch truyền thơng quang, nguyên tắc hoạt động mạng OBS vấn đề cơng luồng mơ hình mạng Chương “Tập hợp chùm giảm độ trễ công độ trễ” trình bày cải tiến đề xuất Luận án tập hợp chùm giảm độ trễ công độ trễ Chương “Công thông lượng dựa cấp phát băng thông đắp chùm” trình bày đề xuất giải pháp điều khiển cơng thơng lượng đề xuất mơ hình đắp chùm sau tập hợp nhằm nâng cao hiệu sử dụng băng thơng tăng tính cơng thơng lượng CHƯƠNG TỔNG QUAN VỀ CÔNG BẰNG TRONG MẠNG CHUYỂN MẠCH CHÙM QUANG 1.1 Các mơ hình chuyển mạch truyền thơng quang Chuyển mạch quang chia thành loại: chuyển mạch kênh quang, chuyển mạch gói chuyển mạch chùm quang Trong chuyển mạch chùm quang kế thừa ưu điểm loại chuyển mạch trên, không cần đêm quang chuyển mạch quang tốc độ cao 1.2 Nguyên tắc hoạt động mạng OBS Hình 1.1 Quá trình tập hợp chùm tách chùm nút biên OBS Trong mạng OBS, loại liệu đến khác tập hợp nút biên vào truyền dạng chùm (Hình 1.2a) Tại nút biên ra, chùm tách thành gói liệu ban đầu để chuyển đến đích mong muốn (Hình 1.2b) 1.3 Các hoạt động bên mạng OBS 1.3.1 Tập hợp chùm Tập hợp chùm phương pháp gộp gói tin từ nhiều mạng truy cập khác (chẳng hạn gói IP, ATM…) thành chùm có kích thước lớn nút biên vào mạng OBS 1.3.2 Báo hiệu chùm Trong mạng OBS có loại giao thức báo hiệu JIT JET JET giao thức báo hiệu cho hầu hết mạng OBS ngày nay, khơng cần đệm quang khơng cần chờ xử lý nút trung gian 1.3.3 Lập lịch chùm Khi gói điều khiển đến nút, thuật toán lập lịch gọi để lập lịch cho chùm đến để lập lịch cho chùm tương ứng liên kết Hiện mạng OBS có loại lập lịch chính: (1) khơng lấp đầy khoảng trống; (2) lấp đầy khoảng trống (3) lập lịch nhóm 1.3.4 Xử lý tranh chấp chùm Với việc sử dụng giao thức JET, nút biên gửi chùm mà không cần phải báo nhận ACK Tuy nhiên, điều đòi hỏi nút lõi mạng OBS phải giải tốt vấn đề tranh chấp chùm Tranh chấp xảy chùm có xung đột tài nguyên (bước sóng) cổng Để giải vấn đề người ta thường sử dụng phương pháp “lệch hướng”, theo bước sóng, theo khơng gian theo thời gian 1.4 Vấn đề công mạng OBS 1.4.1 Khái niệm công mạng OBS Theo Denda cộng [38], công biết đến hài lòng cá nhân tham gia vào trình phân bổ tài nguyên Trong mạng OBS, vấn đề công nghiên cứu nút biên nút lõi (Hình 1.7) Hình 1.7 Phân loại cơng dựa vị trí thực 1.4.2 Cơng độ trễ Đề cập đến việc thiết lập độ trễ đệm chùm (bao gồm độ trễ tập hợp chùm thời gian offset) khác cho chùm thuộc lớp QoS khác 1.4.3 Công thông lượng Đề cập đến việc phân bổ băng thông công luồng chia sẻ chung liên kết đầu – cuối 1.4.4 Công khoảng cách Đề cập đến việc xử lý tranh chấp công bằng, mát liệu, dựa vào độ dài hành trình (số nút trung gian) từ nút nguồn đến đích Tiểu kết Chương Chương luận án giới thiệu tổng quan mạng OBS hoạt động bên mạng, tập hợp chùm nút biên mạng tập trung phân tích có ảnh hưởng quan trọng đến vấn đề công luồng tồn mạng Luận án phân tích đánh giá phương pháp công bố điều khiển cơng Đó sở để luận án cuối xác định bốn mục tiêu cần nghiên cứu (trong mục tiêu 1, trình bày Chương mục tiêu 3, trình bày Chương 3), đề xuất kiến trúc nút biên vào với mô đun chức thêm vào nhằm đảm bảo triển khai phương pháp công luồng, nâng cao hiệu truyền thông mạng OBS 1.5 CHƯƠNG TẬP HỢP CHÙM GIẢM ĐỘ TRỄ VÀ CÔNG BẰNG ĐỘ TRỄ 2.1 Mơ hình tập hợp chùm giảm độ trễ 2.1.1 Vấn đề độ trễ hoạt động tập hợp chùm Độ trễ đầu cuối chùm truyền qua mạng OBS chủ yếu bốn thành phần gây nên: (1) độ trễ tập hợp chùm nút biên vào, (2) thời gian offset để đặt trước tài nguyên gói điều khiển, (3) độ trễ chuyển tiếp chùm nút lõi (4) độ trễ truyền bá mạng lõi, độ trễ đầu có tên gọi độ trễ đệm chùm, độ trễ sau thường không thay đổi tương ứng với giao thức triển khai cho trước Do đó, đề xuất thường tập trung vào mục tiêu giảm độ trễ đệm chùm 2.1.2 Các cơng trình nghiên cứu liên quan 2.1.2.1 Phân tích phương pháp tập hợp chùm giảm độ trễ công bố Liên quan vấn đề có phương pháp đề xuất thể Bảng 2.1 Bảng 2.1 So sánh phương pháp tập hợp chùm giảm độ trễ công bố IE-BADR POQA JK-BADR BADR-EAT MTBA-TP BASTP Phương Dựa Dựa Dựa Dựa Dựa Dựa pháp tập ngưỡng thời ngưỡng ngưỡng thời ngưỡng thời ngưỡng lai ngưỡng hợp chùm gian thời gian gian gian Đặc điểm Cố định Cố định Cố định Cố định Cố định Thích lai ngưỡng nghi Phương Dựa vào tốc Dựa vào Dựa vào lỗi Dựa vào mật Dựa vào tốc Dựa vào pháp ước độ trung bình độ dài ước tính độ M gói độ đến M lần tập tính gói tin đến M chùm lần tập tin sau gói tin sau hợp chùm khoảng sau hợp kế sau thời gian ước trước To To tính Độ trễ giảm To To t1 + To – Ta To 2.1.2.2 So sánh đánh giá dựa kết mô Với mục tiêu mô là:  So sánh tỉ lệ lỗi ước tính trung bình phương pháp cơng bố tính Công thức 2.8  L M RE  j 1 j  Lej / L j M  (2.8) M số lần tập hợp chùm, Lj Lej kích thước hồn thành kích thước ước tính chùm thứ j  So sánh số gói tin thừa chuyển cho chùm 100 lần tập hợp chùm liên tiếp phương pháp tập hợp chùm công bố  Phân tích cách chọn ngưỡng BASTP, phương pháp tốt số phương pháp tập hợp chùm công bố Luận án tiến hành cài đặt máy tính với cấu hình 2.4 GHz Intel Core CPU, 2G RAM Các gói tin đến hàng đợi nút biên mạng có phân bố Poisson với kích thước thay đổi ngẫu nhiên khoảng [500, 1000] bytes Lưu lượng tải đến hàng đợi thay đổi từ 0.1 đến 0.9 Mô thời gian 1s (giây) Dữ liệu trích xuất từ NS2 [71] với gói hỗ trợ obs-0.9a Các tham số tập hợp chùm bao gồm: Ta = ms, To = ms a So sánh tỉ lệ lỗi ước tính trung bình Hình 2.3 mơ tả so sánh lỗi ước tính trung bình phương pháp cơng bố, thấy lỗi ước tính trung bình phương pháp dựa thống kê BASTP, BADR-EAT POQA cho lỗi ước tính thấp so với phương pháp lại Hình 2.3 So sánh tỉ lệ lỗi ước tính trung bình IE-BADR, JK-BADR, POQA, BADR-EAT, MTBA-TP BASTP với tải chuẩn hóa đến 0.5 between iBADR and previous methods, where the number of redundant bursts of iBADR is significant Figure 2.10 Comparison of the number of redundant packets in 100 consecutive assembly times 2.1.3.5 Comments Based on simulation results, iBADR achieved a estimation error rate lower than that of BASTP, but it generates relatively many redundant packets as shown in Figure 2.10 The method of burst asembly for delay reduction iBADR has been published in [CT2] 2.1.4 Method of burst assembly for delay reduction OBADR 2.1.4.1 Description The OBADR (Optimal Burst Assembly for Delay Reduction) method is an improvement of iBADR, in addition to applying the burst length estimation method TW-EWMA with flexibly adjusted , the burst assembly process is a combination of the assembly stages:  Stages 1: When the first packet arrives at a queue, the timer of the queue is triggered The control packet is only sent to the core network when the timer reaches the threshold Tw, which is the size of the time window The estimated length ( Le ) is also calculated based on TWEWMA with flexibly adjusted   Stages 2: The burst assembly process continues, but now based on the estimated length threshold The burst is only completed when the number of packets arriving in the queue reaches the threshold Le 2.1.4.3 Comparison and analysis of simulation results The simulation parameters for this part are similar to Section 2.1.2.2 11 a Comparison of the average estimation error rate Figure 2.11 shows that the average estimation error rate ( RE ) of OBADR is lower than that of all previous methods Figure 2.11 Comparison of the average estimation error rate between OBADR and previous methods b Comparison of the number of redundant packets in 100 consecutive assembly times Figure 2.13 Comparison of the number of redundant packets in 100 consecutive assembly times As shown in Figure 2.13, OBADR does not generate redundant packets This is due to the estimated lengths used as the length threshold in burst assembly 2.1.5 Effect of the factor α on OBADR 2.1.5.1 Investigating the variation of α depending on the load changes With the normalized load changing from 0.1 to 0.9 and α changing from 0.1 to 0.9, the simulation results show that the estimation error is minimum when α has a distribution in the range of (0.4, 0.6) Thus, the fixed α setting is clearly not suitable when arriving load is varied 12 2.1.5.2 Comparing the burst assembly efficiency when α is fixed and varied Simulation results show that dynamic α results in a better average estimation error than fixed α (α = 0.5) when the assembly time is small (from 2.5 ms to 5.5 ms) 2.1.5.3 Comments Based on the simulation results, flexible adjustment of α values (such as Equation 2.12) depending on the incoming traffic rate has increased the efficiency of estimating the complete burst length This result also confirms the effect of flexible adjustment of α according to the incoming traffic rate The results of this study were published in [CT4] 2.1.6 Effect of OBADR on scheduling 2.1.6.1 Analyze the effect of OBADR on scheduling based on Engset method 2.1.6.2 Comparison of the analysis model and simulation result As shown in Figure 2.19, OBADR achieves a lower probability of burst loss compared to the traditional model in theory and simulation Figure 2.2 Comparison on the probability of burst loss between OBADR and traditional model 2.1.6.3 Comments Based on the analysis and simulation results, OBADR has proven to be the most efficient burst assembly method in term of low estimation error, reduced delay and minimized burst loss rate The method of burst assembly for delay reduction OBADR was published in [CT3] 2.2 Model of burst assembly for delay fairness 2.2.1 Related works The models of burst assembly for delay reduction share a common idea of sending the control packet early before the burst is completed Among these 13 models, only POQA [69] is associated with service differentiation Specifically, the authors in [69] have set different offset times for bursts with different priority classes and adjusted the assembly times so that the higher priority burst is, the shorter the buffering time As the example shown in Figure 2.21, the burst with the highest priority class class0 has the smallest assembly time Ta(0) and the largest offset time To(0), while the lowest priority class class2 has the longest assembly time Ta(2) and the smallest offset time To(2) class0 To(0) Ta(0) class1 To(1) Ta(1) class2 To(2) Ta(2) Figure 2.3 An example of time thresholds and offset times for classes 2.2.2 Method of burst assembly for delay fairness BADF 2.2.2.1 Introduction to the delay fairness in OBS networks With the concept of delay fairness proposed in [69], higher priority burst will have a shorter buffering time However, this interpretation has not yet shown the nature of the fair response to individuals in the notion of fairness Therefore, the thesis supplements the concept of delay fairness as follows: Delay fairness is the satisfaction on delay between different priority bursts, such that the average ratio of the end-to-end delay to their limited delay is approximative In addition, in order to meet the requirement for prioritizing delays in OBS networks, the following two constraints were added The higher the priority is, the lower the end-to-end delay is; and The end-to-end delay of a burst is not greater than its limited delay (Example: RTT of IP packets carried in a burst) Thus, the concept of "delay fairness" added by the thesis implies the concept of delay fairness proposed in [69] 2.2.2.2 Index of delay fairness Let D(i) be the average delay that packets must wait in queue i before being aggregated into a burst and Ta(i) is the assembly time of queue i, xi = D(i)/Ta(i) will reflect the delay of the packets in queue i The thesis proposes a formula to calculate the DFI delay fairness index for different priority bursts based on 14 Jain's formula in [39] as follows:  x i 1 i i n DFI   n i 1 ( i xi ) n (2.22) Fairness will increase as DFI approaches 1, and equals when  x1   x2    n xn , where i is the weight of xi, < i < and  n i 1 i  2.2.2.3 Method of 2-stage burst assemly The Burst Assembly for Delay Fairness (BADF) method is also based on the idea of sending control packets early (see Section 2.1.3 and 2.1.4), but adding new points in the 2-stage assembly model Stage is a estimated time threshold-based burst assembly and Stage is a estimated length thresholdbased burst assembly The 2-stage assembly model is in detail as follows: Stage 1: when the first packet arrives at queue i, the timer is triggered The control packet is only sent when the timer reaches the estimated time threshold Te(i) = Ta(i) – To(i) The estimated burst length is calculated based on the TWEWMA method [23]: (2.25) Le (i)  Ta (i)  (1   (i))  avg (i)   (i)  cur (i)  During this period, the value of α(i) is adjusted to increase/decrease depending on the rate of packet arrival at queue i, calculated by α(i) = cur(i)/(avg(i) + cur(i)), instead of being fixed as in [23] Stage 2: the burst assemly algorithm continues until either the length threshold Le (i ) or time threshold Ta(i) is reached 2.2.2.5 Comparison and analysis of simulation results Assuming that incoming packets belong to three priority classes (K = 3), have Poisson distribution and have exponential distribution sizes in the range [500, 1000] bytes; three priority queues 1, and are therefore used with the offset times set to 0.3, 0.2 and 0.1 (ms), respectively Simulation objectives include:  Comparing the DFI index between BADF and POQA;  Analyzing the impact of the delay fairness on the assembly time Ta(i) and the buffering delay; 15  Comparing the estimation error (Formula 2.8) between BADF and POQA a Comparison of the DFI index between BADF and POQA Figure 2.4 Comparison of the DFI index between BADF and POQA b Analyzing the impact of the delay fairness on the assembly time Ta(i) and the buffering delay As shown in Figure 2.25, the assembly time Ta(i) decreases as the incoming traffic of packets increases, with class0 during the simulation period [0.4, 0.6] and with class2 during the simulation period [0.7 , 0.9] Figure 2.5 Comparison of Ta(i) between priority classes with BADF c Comparison of the estimation error between BADF and POQA Figure 2.60 Comparison of the estimation error between BADF and POQA 16 Figure 2.30 shows a comparison of the estimation error rate (Formula 2.8) between BADF and POQA, where the estimation error of BADF is much smaller than that of POQA Figure 2.7 Comparison of the bandwidth wasting rate between BADF and POQA Figure 2.8 Comparison of re-send rate between BADF and POQA 2.2.2.6 Comments The BADF algorithm has been proven to effectively control the delay fairness between different QoS queues, based on DFI index, estimation error, and re-send rate One drawback of BADF, however, is the high bandwidth wastage rate about 12% on average (Figure 2.31) However, if compared with the re-send rate of POQA (about 30% on average), BADF is better The BADF algorithm and the above results have been published in [CT5] 2.3 Summary chapter This chapter presents two proposed models of delay reduction iBADR [CT2] and OBADR [CT3], and a model of delay fairness BADF [CT5] Based on simulation results, iBADR and OBADR achieve lower delay than previous proposals BADF also achieves the delay fairness which is almost optimal, while reducing the delay and minimizing the estimation error on the queues 17 CHAPTER 3: THROUGHPUT FAIRNESS BASED ON BANDWIDTH ALLOCATION AND BURST PADDING 3.1 Model of bandwidth allocation with throughput fairness 3.1.1 Introduction to fair bandwidth allocation Fair bandwidth allocation, also known as rate fairness, refers to allocating bandwidth for connections proportional to the provided bandwidth to the available bandwidth [53] 3.1.2 Related works So far, the models of fair bandwidth allocation in OBS networks are based on the max-min fair bandwidth allocation model in IP networks [16], such as MMFP and RFP 3.1.3 Bandwidth allocation with throughput fairness TFBA 3.1.3.1 Architecture of the ingress node supporting QoS Consider an ingress node with an architecture as shown in Figure 3.3 Figure 3.1 Architecture of the ingress node supporting QoS 3.1.3.2 Maximum bandwidth ratio for each link in OBS networks Table 3.1 Maximum throughput rate per link with different normalized loads Normalized load 0.5 0.6 0.7 0.8 0.9 1.0 Maximum throughput 0.48616 0.572186 0.67152 0.72123 0.7213 0.71945 3.1.3.3 Description of TFBA The idea of TFBA is to adjust actual throughput close to the fair allocation bandwidth to ensure fair bandwidth allocation between flows The process of allocating bandwidth with fairness throughput includes steps: Step 1: Determine the fairness rate Fi for each connection 18 If the incoming traffic of flow i varies significantly, the bandwidth is first divided among the connections, the ratio Fi of each connection is determined as the minimum of the actual throughput (Ai) and the fairly allocated bandwidth Connections with actual throughput less than the allocated bandwidth will not participate in the redundant bandwidth sharing process in the next time The allocation is continued until the allocated bandwidth (m) does not change from the previous time (m = mprev) or all connections are satisfied (m = 0) Step 2: Determine the fairly allocated bandwidth ABi for each connection Let Bw be the maximum output bandwidth, the fair allocation bandwidth for connection i is determined by Equation 3.4 (3.4) ABi  Fi  Bw where Fi is the fairness ratio determined in Step Step 3: Measure the actual throughput ATi of each connection Actual throughput is determined by Formula 3.5 ATi  p w (i ) / Tw (i ) (3.5) where pw(i) is the number of packets arriving in the time window Tw(i) Step 4: Handling burst contention The burst contention problem is resolved based on a comparison between ATi and ABi to determine whether the incoming burst is in an overrate (overloaded) flow If ATi > ABi, the incoming burst is in an overrate flow and will be dropped to reserve resources for the bursts in an underrate (unoverloaded) flow Conversely, if ATi < ABi, the arrival burst is in underrate flow and the ratio ATi /ABi will be considered If the value of ATi /ABi is smaller than that of ATj/ABj, the scheduled burst will be dropped Conversely, if the value of ATi /ABi is greater than ATj/ABj, the incoming burst will be dropped 3.1.3.4 Index of throughput fairness The fair bandwidth allocation approach proposed by the thesis also comes from the idea of max-min fairness, but based on the ratio between actual throughput and provided bandwidth, instead of probability of loss as in [67], [53] Specifically, set yi = ATi / ABi is the ratio between the actual throughput (ATi) and the fair allocation bandwidth (ABi) of flow i Based on Jain's formula in [39], the thesis proposes the throughput fairness index (TFI) as follows: 19 TFI    y i 1 i i n  (3.6) ni 1 ( i y i ) n where σi is the weight that represents the actual used bandwidth compared to the provided bandwidth between the flows, < σi < and  n i 1 i  3.1.3.6 Comparison and analysis of simulation results Simulation objectives include: - Comparing the byte loss rate between connections and the average byte loss rate among TFBA, MMFP and RFP - Comparing the fairness based on TFI among TFBA, MMFP and RFP Because the simulation objective only considers the byte loss rate of the connections which share the same (or group of) output link(s), the Dumbbell simulation network as shown in Figure 3.5 is sufficient to evaluate the effectiveness of the proposed algorithm Figure 3.2 Simulation network topology a Comparison of the byte loss rate between connections Figure 3.3: Comparison of the byte loss rate between connections with TBFA in cases: (1) The total load does not exceed the link capacity and (2) the load of connection spikes beyond the link capacity 20 Figure 3.4 Comparison of the average byte loss rate on connections of TFBA, RFP and MMFP b Comparison of the fairness based on TFI Figure 3.5 Comparison of the fairness based on TFI among TFBA, MMFP and RFP 3.1.4 Analyzing the impact of TFBA on scheduling at output link 3.1.4.1 Analytical model The Markov model [11] is used to analyze the impact of TFBA on scheduling at output link 3.1.4.2 Comparison of the effectiveness between analytical model and simulation results The simulation results in Figure 3.15 show that the probability of burst loss of the analysis model is similar to the simulation results (Figure 3.7) Figure 3.6 Comparison of the effectiveness between analytical model and simulation results with TFBA 3.1.5 Comments Based on analysis and simulation results, the TFBA method has proven to 21 be more efficient than previous methods, especially applicable to many types of incoming flows, instead of only Poisson flow as in [67], [53] The TFBA method has been published in [CT6] 3.2 Padding model for effective bandwidth utilisation and throughput fairness 3.2.1 Related works 3.2.2 Padding method 3.2.2.1 Introduction to burst padding The burst padding model QDBAP (QoS Differentiation Burst Assembly with Padding) proposed in the thesis is described as shown in Figure 3.17, in which the burst padding is done by picking packets from low QoS queues to add into higher QoS burst Figure 3.7 An example of a burst padding model with three layers: (a) before the burst padding and (b) after the burst padding 3.2.2.2 Padding policy The proposed padding policy is as follows: Only take packets from the low QoS queue to pad in the higher QoS burst Selecting a packet from a low QoS queue is on a first-come, first-served basis Low QoS packets are padded to the tail of the higher QoS burst Only take packets from the low QoS queue that its control packet has not yet been sent 3.2.2.4 Comparison and analysis of simulation results Simulation objectives include:  Comparing wasted bandwidth when using padded bytes and  Compare the throughput fairness based on TFI (Formula 3.8) a Comparison of wasted bandwidth 22 Figure 3.8 Comparison of the number of padding bytes between QDBAP and POQA b Comparison of the throughput fairness Figure 3.9 Comparison of the throughput fairness based on TFI between QDBAP and POQA Figure 3.10 Comparison of the throughput fairness (based on the ratio of the actual load and the bandwidth capacity) between POQA and QDBAP 3.2.3 Comments Based on the analysis and simulation results, the QDBAP method has proven to be effective in increasing bandwidth usage and throughput fairness for different QoS flows The results of this study were published in [CT7] 3.3 Summary chapter This chapter introduced a method of bandwidth allocation for throughput fairness TFBA, which can be applied to many types of incoming flows, greatly increasing the network performance and assuring throughput fairness (this result has been published in [CT6]) In addition, this chapter also presents a proposed burst padding method that increases the efficiency of bandwidth 23 utilization and throughput fairness between QoS classes (This result was published in [CT7]) CONCLUSION The OBS network is a promising solution for the next-generation Internet, because OBS overcomes the today's technology limitations of optical packet switching and exploits flexible bandwidth better than optical channel switching One of the issues of OBS network research is how to control the fairness between different service flows With that motivation, the thesis has focused on fairness control models and algorithms in OBS network with different approaches Achievements of the thesis include: Reviewing, analysing, evaluating and classifying of the fairness control methods in OBS networks Based on the points of existence of the previous published findings, the thesis proposes improvements and new solutions for better functional modules, fairness control models and algorithms Proposing models of burst assembly for delay reduction, iBADR [CT2] and OBADR [CT3], in order to reduce the buffering delay of assembly queues, in which OBADR achieves minimum error and accurate estimation of generated burst size Proposing a burst assembly model, BADF [CT5], that ensures the delay fairness which is better than a previously proposed method (POQA) At the same time, BADF is more effective than POQA in terms of delay, average error rate The dissertation also proposes a metric index (DFI) in order to measure the delay fairness efficiency of proposed methods Proposing a model of throughput-based fair bandwidth allocation, TFBA [CT6], that can be applied to priority flows with Poisson and non-Poisson distribution TFBA has a lower loss rate than the two previously proposed methods (MMFP and RFP), and increase the throughput fairness efficiency based on TFI, a metric index proposed by the dissertation Propose a burst padding method, QDBAP [CT7], in order to increase the efficiency of bandwidth utilization and throughput fairness In addition, QDBAP also reduces the bandwidth wastage rate in comparison with POQA 24 LIST OF RESULTS PULISHED BY AUTHOR CT1 Le Van Hoa, Vo Viet Minh Nhat, Nguyen Hoang Son (2016), “Analysis of the algorithms of burst assembly for delay reduction at the edge node of obs networks”, Hue University College of Sciences Journal of Science, ISSN 2354-0842, vol 6, no.1, pp 9-20 CT2 Le Van Hoa, Vo Viet Minh Nhat, Nguyen Hoang Son (2017), “An improved approach of burst assembly for delay reduction at edge OBS nodes”, Hue University Journal of Science, ISSN 1859-1388, vol 126, no 2A, pp.19-30 CT3 Vo Viet Minh Nhat, Le Van Hoa, Nguyen Hoang Son (2017), “A model of optimal burst assembly for delay reduction at ingress OBS nodes”, Turkish Journal of Electrical Engineering & Computer Sciences (SCIE), vol 25, no 5, pp 3970-3982 CT4 Le Van Hoa, Vo Viet Minh Nhat, Nguyen Hoang Son (2018), “Effects of data flow properties to the efficiency of burst assembly for delay reduction at ingress OBS nodes”, Proceedings of the 11th National Conference of Fundamental and Applied Information Technology Research (FAIR), pp: 57-64 CT5 Vo Viet Minh Nhat, Le Van Hoa, Le Manh Thanh (2018), “On the delay fairness through the burst assembly for service difference”, ETRI Journal (SCIE), vol 40, no 3, pp 347-354 CT6 Le Van Hoa, Vo Viet Minh Nhat, Le Manh Thanh (2018) “Throughput-based Fair Bandwidth Allocation in OBS Networks”, ETRI Journal (SCIE), vol 40, no 5, pp 624-633 CT7 Vo Viet Minh Nhat, Le Van Hoa, Nguyen Hoang Son, Le Manh Thanh (2018), “A Model of QoS Differentiation Burst Assembly with Padding for Improving the Performance of OBS Networks”, Turkish Journal of Electrical Engineering & Computer Sciences (SCIE), vol 26, no 4, pp 1783-1795 25 ... VỀ CÔNG BẰNG TRONG MẠNG CHUYỂN MẠCH CHÙM QUANG 1.1 Các mơ hình chuyển mạch truyền thơng quang Chuyển mạch quang chia thành loại: chuyển mạch kênh quang, chuyển mạch gói chuyển mạch chùm quang Trong. .. “Tổng quan công mạng chuyển mạch chùm quang giới thiệu mơ hình chuyển mạch truyền thơng quang, nguyên tắc hoạt động mạng OBS vấn đề cơng luồng mơ hình mạng Chương “Tập hợp chùm giảm độ trễ công độ... pháp thỏa hiệp mơ hình chuyển mạch chùm quang (OBS) Một đặc trưng tiêu biểu truyền thông mạng chuyển mạch chùm quang (mạng OBS) phần (gói) điều khiển BCP tách rời với phần (chùm) liệu (data burst)

Ngày đăng: 19/11/2019, 10:19

Từ khóa liên quan

Tài liệu cùng người dùng

  • Đang cập nhật ...

Tài liệu liên quan