Mô hình một mạng truyền thông hợp tác nhận thức

Một phần của tài liệu (LUẬN văn THẠC sĩ) đánh giá khả năng bảo mật ở tầng vật lý trong mạng không dây (Trang 26 - 29)

Trong hình 1.13 là mô hình một mạng truyền thông hợp tác nhận thức CCRN (Cognitive Cooperative Radio Network ) trong đó SU-Tx truyền tin tới SU-Rx thông qua sự hỗ trợ của các nút chuyển tiếp. Nút chuyển tiếp và SU-Rx phải chịu nhiễu từ PU-Tx trong khi SU-Tx và các nút SRi phải kiểm soát công suất truyền của chúng sao cho nhiễu gây ra cho PU-Tx ở dưới ngưỡng chấp

nhận được. Tương tự các mạng truyền thông hợp tác truyền thống, một CCRN với nhiều SRi đạt được độ phân tập và cải thiện hiệu năng.

Tóm lại, một mạng vô tuyến nhận thức sử dụng kỹ thuật truyền thông hợp tác đem lại những lợi ích sau:

- Nhiễu gây ra bởi su tới PU có thể được giảm bằng cách chọn một SRi thích hợp.

- Vùng phủ sóng của một mạng vô tuyến nhận thức được mở rộng bởi sự trợ giúp của một hoặc nhiều SR.

- Bằng cách thực hiện các kỹ thuật chuyển tiếp như DF, AF hoặc CF tại SRi, độ tin cậy truyền của mạng vô tuyến nhận thức được cải thiện ngay cả khi việc truyền trực tiếp từ SU-Tx tới SU-Rx chịu ảnh hưởng nghiêm trọng của fading.

1.3 Tổng quan về lý thuyết thông tin

1.3.1 Lịch sử phát triển của lý thuyết thông tin

Lý thuyết thông tin xuất phát từ nghiên cứu “Lý thuyết toán học về truyền thông” của Claude Elwood Shannon được công bố trên tạp chí Bell System Technical Journal vào tháng 7 và tháng 10 năm 1948. Mô hình chính của lý thuyết thông tin cổ điển chính là kỹ thuật truyền thông tin trên một kênh nhiễu. Các kết quả cơ bản nhất của lý thuyết là định lý mã hóa nguồn của Shannon, định lý khẳng định rằng truyền thông đáng tin cậy có thể thực hiện thông qua các kênh truyền nhiễu với điều kiện tỷ lệ truyền thông thấp hơn một ngưỡng nhất định, được gọi là dung lượng kênh truyền. Dung lượng kênh truyền có thể được đạt được trong thực tế bằng cách sử dụng các hệ thống mã hóa và giải mã thích hợp.

Trong nghiên cứu của mình, Shannon lần đầu tiên giới thiệu mô hình định tính và định lượng của thông tin như là một quá trình thống kê làm cơ sở cho lý thuyết thông tin, mở ra khẳng định rằng “vấn đề cơ bản của truyền thông là tái tạo tại một thời điểm, hoặc là chính xác hoặc là xấp xỉ, một thông điệp

thông tin và lượng dư thừa (Redundancy) của nguồn, và sự liên quan đến lý thuyết mã hóa nguồn, thông tin tương hỗ, và dung lượng kênh của một kênh nhiễu, bao gồm sự triển vọng về truyền thông hoàn hảo không mất dữ liệu được đưa ra bởi lý thuyết mã hóa kênh nhiễu.

Lượng quan trọng nhất của thông tin là entropy, thông tin trong một biến ngẫu nhiên, và thông tin tương hỗ, lượng thông tin chung giữa hai biến ngẫu nhiên.

Định nghĩa 1.1: Entropy là một đơn vị đo độ bất định (uncertainty) của

một biến ngẫu nhiên. Cho X là một biến ngẫu nhiên rời rạc, có thể nhận các giá trị x trong tập  và hàm khối xác suất (PMF: Probability Mass Function)

(x) 

Entropy của biến ngẫu nhiên rời rạc X (x) được định nghĩa như sau:

2 (X) (x) log (x) x H       , (1.1)

Entropy được đo bằng bit, và ở đây, ta quy ước 0log 0 02  . Từ công thức (1.1) ta nhận thấy rằng entropy của X có thể được hiểu như là giá trị kỳ vọng của biến ngẫu nhiên log2(X), với X (x). Vì vậy,

2

(X) E (logX (x))

H   

ChoXY là hai biến ngẫu nhiên rời rạc, với hàm khối xác suất kết hợp

(x, y)

 với hàm xác suất đơn là (x) và (y). Entropy có điều kiện của Y được cho bởi X như sau:

Định nghĩa 1.2: Entropy có điều kiệnH(Y | X) cho (X, Y) (x, y) được định nghĩa như sau:

, 2 (Y | X) (x) (Y | X x) EX Y(log (Y | X)) x H H         , (1.2)

Entropy vi phân (Differential Entropy): cho X là một biến ngẫu nhiên

liên tục có thể nhận các giá trị x trong tập hữu hạn và hàm mật độ xác suất (PDF: Probability Density Function) f(x)như sau.

Định nghĩa 1.3: Entropy vi phân của biến ngẫu nhiên liên tục X f(x) được định nghĩa là: 2 (X) (x) log (x) x h f f dx     , (1.3)

Thông tin tương hỗ (Mutual information): là đại lượng đo lượng thông

tin mà một biến ngẫu nhiên chứa một biến ngẫu nhiên khác.

Định nghĩa 1.4: Thông tin tương hỗ I(X;Y) được định nghĩa là:

2 ( , ) X Y (x, y) (X, Y) (x, y) log (x) p(y) x y p I p p     , (1.4)

Quan hệ giữa thông tin Entropy và thông tin tương hỗ. Từ các công thức (1.2),(1.2),và (1.4) suy ra đẳng thức sau:

(X;Y) H(X) H(X | Y) H(Y) H(Y | X)

I     , (1.5)

Vì vậy thông tin tương hổ I(X;Y) tương ứng với mức giảm độ bất định của Xvới tri thức về Y hoặc tương đương, mức giảm độ bất định của Y với tri thức về X . Giải thích tương tự về quan hệ giữa entropy vi phân và thông tin tương hỗ cũng dùng cho các biến ngẫu nhiên liên tục.

1.3.2 Truyền thông từ điểm tới điểm

Mô hình hệ thống truyền thông được giới thiệu bởi Claude E. Shannon trong bài báo [4] và đã đặt nền tảng cho lĩnh vực lý thuyết thông tin. Trong mô hình này, máy phát mong muốn gửi thông điệp W đến máy nhận. Thông điệp này phải được gửi thông qua các kênh truyền thông, là một đại diện của môi trường vật lý được chia sẽ bởi máy phát và máy thu.

Một phần của tài liệu (LUẬN văn THẠC sĩ) đánh giá khả năng bảo mật ở tầng vật lý trong mạng không dây (Trang 26 - 29)

Tải bản đầy đủ (PDF)

(67 trang)