Trong những năm gần đây, mặc dù nền Công nghệ thông tin của thế giới ngày một phát triển
Trang 1TIỂU LUẬN MÔN HỌC CÁC KỸ THUẬT HIỆN ĐẠI TRONG CNTT
Nội dung:
ỨNG DỤNG LẬP TRÌNH SONG SONG GIẢI QUYẾT BÀI TOÁN SẮP XẾP BẰNG PHƯƠNG PHÁP TRỘN (MERGE SORT)
Phú Thọ, tháng 05-2011
Trang 2MỤC LỤC
LỜI MỞ ĐẦU 3
I.MÔ TẢ GIẢI THUẬT SONG SONG 4
1 Giới thiệu 4
2 Nguyên lý thiết kế thuật toán song song 4
2.1 Cách thức xây dựng một chương trình song song và phân bố 4
2.2 Thiết kế thuật toán song song 4
II MÔ HÌNH LẬP TRÌNH TRUYỀN THÔNG ĐIỆP- CHUẨN MPI 5
1 Giới thiệu 5
2 Các khái niệm cơ bản 6
3 Cấu trúc chương trình MPI 6
III.BÀI TOÁN SẮP XẾP 7
1 Sắp xếp nổi bọt 7
2 Sắp xếp chèn 7
3 Sắp xếp chọn 7
4 Sắp xếp trộn 7
5 Sắp xếp vun đống 7
6 Sắp xếp nhanh 8
IV ỨNG DỤNG LẬP TRÌNH SONG SONG VÀO BÀI TOÁN SẮP XẾP BẰNG PHƯƠNG PHÁP TRỘN(MERGESORT) 8
1 Phát biểu bài toán 8
2 Mã nguồn 9
3 Đánh giá thời gian chạy với số CPU khác nhau 12
KẾT LUẬN 15
TÀI LIỆU THAM KHẢO 17
Trang 3LỜI MỞ ĐẦU
Trong những năm gần đây, mặc dù nền Công nghệ thông tin của thế giới ngày một phát triển Tốc độ xử lí máy tính ngày càng tăng lên Tuy nhiên, chúng ta cũng gặp phải khó khăn trong một số bài toán có dữ liệu đầu vào lớn (bài toán dự báo thời tiết, dự báo động đất, …) Với dữ liệu đầu vào là một con số rất lớn, dù máy tính
có tốc độ lớn, bộ nhớ nhiều vẫn vấp phải yêu cầu phải giải quyết bài toán trong thời gian chấp nhận được
Trong nhiều năm qua, các nhà khoa học đã nghĩ ra biện pháp giản quyết hiệu quả đó là chia nhỏ bài toán ra thành nhiều bài toán Việc giải quyết các bài toán nhỏ được tiến hành đồng thời với nhiều máy tính Kết quả của bài toán lớn sẽ được giải quyết khi tất cả các bài toán nhỏ đã được làm
Các máy tính tiến hành xử lí song song được kết nối với nhau thành các cụm tính toán tốc độ cao
Trang 4NỘI DUNG I.MÔ TẢ GIẢI THUẬT SONG SONG
1 Giới thiệu
Hiện nay, để giải quyết các bài toán lớn người ta thường nghĩ đến việc sử dụng các siêu máy tính hoặc việc kết hợp nhiều máy tính với nhau để tính toán Tuy nhiên, với phương pháp lập trình cổ điển thì không thể nào phát triển được chương trình có thể tận dụng được sức mạnh của các hệ thống đó Đó chính là lý
do lập trình song song ra đời
Lập trình song song là một công việc rất phức tạp so với lập trình tuần tự thông thường, người phát triển phải thực hiện một quá trình “song song hóa”, biến đổi các chương trình tuần tự thành chương trình song song có khả nănG tận dụng tối đa sức mạnh của hệ thống
2 Nguyên lý thiết kế thuật toán song song
2.1 Cách thức xây dựng một chương trình song song và phân bố
Phát triển thuật toán là một phần quan trọng trong việc giải quyết vấn đề khi sử dụng máy tính Một thuật toán song song là một phương pháp giải quyết vấn đề dựa trên việc sử dụng nhiều bộ xử lý Tuy nhiên để chỉ ra được một thuật toán song song không đơn giản chỉ ra từng bước cụ thể, mà là ở một mức
độ nào đó thuật toán song song phải được them vào tính đồng thời và người thiết
kế ra thuật toán cũng phải chỉ ra tập hợp những bước xử lý đồng thời , điều này
sẽ tận dụng được khả năng tính toán của các máy tính song song Trên thực tế việc thiết kế ra một thuật toán song song là khá phức tạp,gồm các công việc:
- Chỉ ra phần của công việc có thể thực thi đồng thời
- Ánh xạ các phần của công việc vào nhiều bộ xử lý chạy song song
- Phân tán dữ liệu nhập, xuất và trung gian cùng với chương trình
- Quản lý truy cập vào dữ liệu chung giữa các bộ xử lý
- Đồng bộ hóa các bộ xử lý khi thực thi các chương trình song song
2.2 Thiết kế thuật toán song song
Thuật toán song song là một tập các tiến trình (process) hoặc các tác vụ (task) có thể thực hiện đồng thời và có thể trao đổi dữ liệu với nhau để kết hợp cùng giải một bài toán đặt ra
Trang 5Thiết kế giải thuật song song là chia bài toán thành các bài toán nhỏ hơn
và gán bài toán nhỏ cho các bộ vi xử lý khác nhau để thực hiện song song.Quá trình thiết kế giải thuật song song là quá trình song song hóa bài toán tuần tự
Nguyên lý cơ bản trong thiết kế giải thuật song song bao gồm:
2.2.1 Nguyên lý lập lịch:
Giảm tối thiểu các bộ xử lý sử dụng trong thuật toán sao cho thời gian tính toán là không tăng (xét theo khía cạnh độ phức tạp) Nghĩa là, nếu độ phức tạp tính toán của thuật toán là O(f(n)) thì thời gian thực hiện của chương trình có thể tăng khi số bộ xử lý giảm, và thời gian tính toán tổng thể tăng lên một hằng
số nào đó - nhưng vẫn là O(f(n))
2.2.2 Nguyên lý hình ống:
Nguyên lý này được áp dụng khi bài toán xuất hiện một dãy các thao tác {T1, T2, , Tn },trong đó Ti+1 thực hiện sau khi Ti kết thúc
2.2.3 Nguyên lý chia để trị:
Tức là chia bài toán thành những phần nhỏ hơn tương đối độc lập với nhau và giải quyết chúng một cách song song Tạo ra một mô hình cây phân cấp
để phân cấp quá trình truyền thông và tính toán
- Tăng tính song song so với mô hình trước
- Thời gian chạy giảm từ O(n) xuống O(logn)
2.2.4 Nguyên lý đồ thị phụ thuộc dữ liệu:
Phân tích mối quan hệ dữ liệu trong tính toán để xây dựng đồ thị phụ thuộc dữ liệu và dựa vào đó để xây dựng thuật toán song song
2.2.5 Nguyên lý điều kiện tương tranh:
Nếu hai tiến trình cùng muốn truy cập vào cùng một mục dữ liệu chia sẻ thì chúng phải tương tranh với nhau, nghĩa là chúng có thể cản trở lẫn nhau
II MÔ HÌNH LẬP TRÌNH TRUYỀN THÔNG ĐIỆP- CHUẨN MPI
1 Giới thiệu
Có rất nhiều ngôn ngữ lập trình và các thư viện được xây dựng nên để dành cho lập trình song song Mô hình lập trình truyền thông điệp là một trong những
mô hình cổ nhất và được sử dụng rộng rãi nhất trong các mô hình dùng cho lập
Trang 6trình trên các máy tính song song Mô hình này có hai tính chất quan trọng đó là:
nó giả sử không gian địa chỉ được phân chia và nó chỉ hỗ trọ song song hóa tường minh
Môi trường truyền thông điệp LAM/MPI là phiên bản nguồn mở, cung cấp miễn phí với chuẩn MPI Chuẩn MPI (Message Passing Interface) là kết quả sau hơn 2 năm thảo luận của MPI Forum, 1 nhóm gồm khoảng 60 người từ 40 tổ chức khác nhau đại diện cho những nhà phân phối các hệ thống song song, những phòng thí nghiệm quốc gia và những trường đại học danh tiếng MPI là một thư viện các hàm có thể chèn vào mã nguồn để truyền dữ liệu giữa các tiến trình
2 Các khái niệm cơ bản
- Communicator: Một nhóm các tiến trình có thể truyền thống với nhau.
Một tiến trình có thể thuộc nhiều Communicator
- Rank: Mỗi tiến trình trong 1 communicator có 1 định danh, gọi là Rank,
đánh số bắt đầu từ 0.Một tiến trình có thể các rank khác nhau khi thuộc về các communicator khác nhau
- Group: là các nhóm xử lý
- Process(tiến trình hay xử lý): với kiểu lập trình trên một máy có một bộ
xử lý thì process được coi như là một tiến trình trong một chương trình có không gian địa chỉ riêng do hệ điều hành cung cấp
- Send/receive: Vì các chương trình sử dụng phương pháp lạp trình
Message passing không chia sẻ vùng nhớ chung, hay biến cục bộ mà tất
cả dữ liệu đều phải giao tiếp thông qua truyền thông Do đó MPI định
nghĩa Send/receive là 2 cơ chế gửi nhận thông điệp giữa các xử lý trên máy khác nhau.
3 Cấu trúc chương trình MPI
Các tập tin tư viện: liên quan đến các hàm và thủ tục , các kiểu dưa liệu.Bao gồm tập tin.h như mpi.h, mpio.h,…Cấu trúc chương trình MPI:
Các tập tin thư viện Khởi tạo môi trường MPI Thực hiện các thủ tục hàm MPI Thoát khỏi môi trường
Trang 7III.BÀI TOÁN SẮP XẾP
Trong toán học, cũng như khoa học máy tính thì bài toán sắp xếp một dãy
số cho trước thành 1 dãy số tăng hoặc giảm được giọi là các bài toán sắp xếp Việc sắp xếp giúp ích rất nhiều trong công việc tìm kiếm thông tin cũng như trong cuộc sống
Một số thuật toán sắp xếp tương đối đơn giản như:
1 Sắp xếp nổi bọt
Sắp xếp nổi bọt (bubble sort) là phương pháp sắp xếp đơn giản, dễ hiểu thường được dạy trong khoa học máy tính Giải thuật bắt đầu từ đầu của tập dữ liệu Nó so sánh hai phần tử đầu, nếu phần tử đứng trước lớn hơn phần tử đứng sau thì đổi chỗ chúng cho nhau Tiếp tục làm như vậy với cặp phần tử tiếp theo cho đến cuối tập hợp dữ liệu Sau đó nó quay lại với hai phần tử đầu cho đến khi không còn cần phải đổi chỗ nữa
2 Sắp xếp chèn
Sắp xếp chèn (insertion sort) là một thuật toán sắp xếp rất hiệu quả với các danh sách nhỏ Nó lần lượt lấy các phần tử của danh sách chèn vào vị trí thích hợp trong một danh sách mới đã được sắp
3 Sắp xếp chọn
Sắp xếp chọn (select sort) là phương pháp sắp xếp bằng cách chọn phần
tử bé nhất xếp vào vị trí thứ nhất, tương tự với các phần tử nhỏ thứ hai, thứ ba,
4 Sắp xếp trộn
Sắp xếp trộn (merge sort) cùng với sắp xếp nhanh là hai thuật toán sắp xếp dựa vào tư tưởng "chia để trị" (divide and conquer) Thủ tục cơ bản là việc trộn hai danh sách đã được sắp xếp vào một danh sách mới theo thứ tự Nó có thể bắt đầu trộn bằng cách so sánh hai phần tử một (chẳng hạn phần tử thứ nhất với phần tử thứ hai, sau đó thứ ba với thứ tư ) và sau khi kết thúc bước 1 nó chuyển sang bước 2 Ở bước 2 nó trộn các danh sách hai phần tử thành các danh sách bốn phần tử Cứ như vậy cho đến khi hai danh sách cuối cùng được trộn thành một
5 Sắp xếp vun đống
Sắp xếp vun đống (heapsort) là một trong các phương pháp sắp xếp chọn
Ở mỗi bước của sắp xếp chọn ta chọn phần tử lớn nhất (hoặc nhỏ nhất) đặt vào
Trang 8cuối (hoặc đầu) danh sách, sau đó tiếp tục với phần còn lại của danh sách
Thông thường sắp xếp chọn chạy trong thời gian O(n2) Nhưng heapsort đã giảm độ phức tạp này bằng cách sử dụng một cấu trúc dữ liệu đặc biệt được gọi
là đống (heap) Đống là cây nhị phân mà trọng số ở mỗi đỉnh cha lớn hơn hoặc bằng trọng số các đỉnh con của nó Một khi danh sách dữ liệu đã được vun thành đống, gốc của nó là phần tử lớn nhất, thuật toán sẽ giải phóng nó khỏi đống để đặt vào cuối danh sách Sắp xếp vun đống chạy trong thời gian O(nlogn)
6 Sắp xếp nhanh
Sắp xếp nhanh (quicksort) là một thuật toán theo tư tưởng chia để trị, nó dựa trên thủ tục phân chia như sau: để chia một dãy ta chọn một phần tử được gọi là "chốt" (pivot), chuyển tất cả các phần tử nhỏ hơn chốt về trước chốt, chuyển tất cả các phần tử lớn hơn chốt về sau nó Thủ tục này có thể thực hiện trong thời gian tuyến tính Tiếp tục phân chia các dãy con đó như trên cho đến khi các dãy con chỉ còn một phần tử
Điểm khác biệt giữa sắp xếp nhanh và sắp xếp trộn là trong sắp xếp trộn việc xác định thứ tự được xác định khi "trộn", tức là trong khâu tổng hợp lời giải sau khi các bài toán con đã được giải, còn sắp xếp nhanh đã quan tâm đến thứ tự các phần tử khi phân chia một danh sách thành hai danh sách con
Ngoài ra còn nhiều giải thuật sắp xếp khác, trong đó nhiều giải thuật sắp xếp được cải tiến từ các giải thuật trên Trong sau giải thuật liệt kê trên, ta
thường coi các giải thuật chèn, chọn, nổi bọt là các giải thuật cơ bản, độ phức tạp trong trường hợp trung bình của chúng là O(n2) Ba giải thuật còn lại thường được coi là giải thuật cao cấp, độ phức tạp tính toán trung bình của chúng là n.ln(n)
IV ỨNG DỤNG LẬP TRÌNH SONG SONG VÀO BÀI TOÁN SẮP XẾP BẰNG PHƯƠNG PHÁP TRỘN(MERGESORT)
1 Phát biểu bài toán
Giả sử có hai danh sách đã được sắp xếp a[1 m] và b[1 n.] (trong đó m
và n là các số rất lớn) Ta có thể trộn chúng lại thành một danh sách mới c[1 m + n] được sắp xếp theo cách sau:
So sánh hai phần tử đứng đầu của hai danh sách, lấy phần tử nhỏ hơn cho vào danh sách mới Tiếp tục như vậy cho tới khi một trong hai danh sách là rỗng
Trang 9Khi một trong hai danh sách là rỗng ta lấy phần còn lại của danh sách kia cho vào cuối danh sách mới
Ví dụ: Cho hai danh sách a = (1,3,7,9),b = (2,6), quá trình hòa nhập diễn ra như
sau:
Danh sách a Danh sách b So sánh Danh sách c
Như vậy, việc áp dụng tính toán song song ở bài toán sắp xếp chính là ta chia mảng c thành 2 mảng a và b Ta tiến hành sắp xếp 2 mảng a, b sau đó trộn mảng a và mảng b vào với nhau, ta có mảng c là kết quả của bài toán
Bài toán được tiến hành theo các bước sau:
Bước 1: Tiến trình chính có nhiện vụ khởi tạo (đọc) dữ liệu, chia các thành các
block dữ liệu liên tục cho các task làm việc
Bước2 : Các task làm việc nhận dữ liệu sửa dụng thuật toán sắp xếp trộn để tiến
hành sắp xếp trên phân đoạn của mình, trả kết quả về cho MASTER để tiến hành trộn lần cuối
2 Mã nguồn
Dưới đây là mã nguồn C dùng MPI của chương trình trên, mã nguồn này được trình bày trong cuốn "Parallel Programming in C with MPI and OpenMP" của tác giả Quinn
Trang 10#include <stdio.h>
#include <stdlib.h>
#include <math.h>
#include <mpi.h>
#define N 10000000
#define MASTER 0
int * merge( int *A, int asize, int *B, int bsize);
void m_sort( int *A, int min, int max);
double startT, stopT;
double startTime;
int * merge( int *A, int asize, int *B, int bsize) {
int ai, bi, ci, i;
int * C;
int csize = asize+bsize;
ai = 0;
bi = 0;
ci = 0;
C = ( int *)malloc(csize* sizeof ( int ));
while ((ai<asize)&(bi<bsize))
{
if (A[ai]<B[bi])
{
C[ci] = A[ai];
ai++;ci++;
}
else
{
C[ci] = B[bi];
bi++;ci++;
}
}
if (ai >= asize)
for (i=ci;i<csize;i++,bi++)
C[i] = B[bi];
else if (bi >= bsize)
for (i=ci;i < csize; i++, ai++)
C[i] = A[ai];
for (i=0; i < asize;i++)
A[i] = C[i];
for (i=0; i < bsize; i++)
B[i] = C[asize + i];
return C;
}
void m_sort( int *A, int min, int max)
{
int * C;
int mid = (min + max )/2;
Trang 11int left = mid - min + 1;
int right = max - mid;
if (max != min)
{
m_sort(A, min, mid);
m_sort(A, mid+1, max);
C = merge(A + min, left, A + mid + 1, right); }
}
int main( int argc, char * argv[])
{
int * data;
int * blk;
int * temp;
int m, n = N;
int id, p;
int s = 0;
int i;
int step;
MPI_Status status;
MPI_Init(&argc,&argv);
MPI_Comm_rank(MPI_COMM_WORLD,&id);
MPI_Comm_size(MPI_COMM_WORLD,&p);
startT = MPI_Wtime();
if (id == MASTER)
{
int r;
srandom(MPI_Wtime());
s = n/p;
r = n%p;
data = ( int *)malloc((n+s-r)* sizeof ( int ));
for (i=0;i<n;i++)
data[i] = random();
if (r != 0)
{
for (i=n;i<n+s-r;i++)
data[i]=0;
s++;
}
MPI_Bcast(&s,1,MPI_INT,0,MPI_COMM_WORLD);
blk = ( int *)malloc(s* sizeof ( int ));
MPI_Scatter(data,s,MPI_INT,blk,s,MPI_INT,0,MPI_COMM_WORLD); m_sort(blk, 0, s-1);
}
else
{
MPI_Bcast(&s,1,MPI_INT,0,MPI_COMM_WORLD);
blk = ( int *)malloc(s* sizeof ( int ));
Trang 12
m_sort(blk, 0, s-1);
}
step = 1;
while (step < p)
{
if (id%(2*step)==0)
{
if (id + step < p)
{
MPI_Recv(&m,1,MPI_INT,id+step,0,MPI_COMM_WORLD,&status); temp = ( int *)malloc(m* sizeof ( int ));
MPI_Recv(temp,m,MPI_INT,id+step,0,MPI_COMM_WORLD,&status); blk = merge(blk,s,temp,m);
s += m;
}
}
else
{
int near = id-step;
MPI_Send(&s,1,MPI_INT,near,0,MPI_COMM_WORLD); MPI_Send(blk,s,MPI_INT,near,0,MPI_COMM_WORLD); break ;
}
step *= 2;
}
stopT = MPI_Wtime();
printf(" %d; %d processors; %f secs\n", s, p, (stopT-startT));
MPI_Finalize();
return 0;
}
3 Đánh giá thời gian chạy với số CPU khác nhau
Kết quả một số test thực hiện trên bkluster@hut.edu.vn Sắp xếp 1 mảng có 400.000 thực hiện trên 4 processors
[guest@bkluster ~]$ mpirun -np 4 MergeSort
100000; 4 processors; 0.081254 secs
100000; 4 processors; 0.083078 secs
200000; 4 processors; 0.096949 secs
400000; 4 processors; 0.105866 secs
Sắp xếp 1 mảng có 400.000 thực hiện trên 40 processors
[guest@bkluster ~]$ mpirun -np 40 MergeSort
10000; 40 processors; 0.013951 secs
10000; 40 processors; 0.019274 secs
10000; 40 processors; 0.022400 secs
10000; 40 processors; 0.022348 secs
20000; 40 processors; 0.026182 secs
20000; 40 processors; 0.026826 secs