Mô hình PA nhớ phi tuyến

Một phần của tài liệu Luận văn thạc sĩ Kỹ thuật điện tử: Mô hình hóa mạch khuếch đại siêu cao tần trong thông tin di động sử dụng mạng Neuron (Trang 41 - 55)

Chương 2 CƠ SỞ LÝ THUYẾT

2.3. Mô hình PA mức hệ thống

2.3.3. Mô hình PA nhớ phi tuyến

Trong một vài trường hợp cần thiết xét đến mô hình hành vi có hiệu ứng nhớ phi tuyến. Hiệu ứng được xét cho đáp ứng méo biến điệu (IMD – intermodulation) tín hiệu 2- tones tần số phụ thuộc còn được gọi là đáp ứng xung phi tuyến thậm chí là đáp ứng biến điệu ngẫu nhiên số. Tất cả những hiệu ứng này được quan sát thậm chí dưới xấp xỉ băng hẹp. Vì vậy, hiệu ứng bộ nhớ được quan sát trong mạch PAs siêu cao tần không dây phổ biến được cho bởi tín hiệu có băng thông tương đối

0.25% hay 0.01% ( ví dụ: trong CDMA hay GMS-1800, PA có tín hiệu sóng mang gần 2GHz được biến điệu có băng thông nhỏ là 5MHz hay 200KHz) thì khó có thể cho là sự giới hạn băng thông của mạch PA kết nối mạng.

Một phương pháp dự đoán cho vấn đề mô hình hoá hành vi PA gần đây được đề xuất bởi Asbeck và sau đó được bổ sung bởi Draxler.

Một ý tưởng là để mở rộng đặc tính AM-AM và AM-PM không nhớ thì PA phải có hiệu ứng nhớ lâu, độ lợi và pha của nó không chỉ phụ thuộc vào biên độ bao hình tức thời rx(t) mà còn phụ thuộc vào thông số ̃( ). Sau này điều đó được sử dụng để mô hình hoá hiệu ứng động, chẳng hạn như hiệu ứng động đó bị gây ra bởi sự toả nhiệt của thiết bị hay là do nguồn cung cấp thay đổi công suất. Do đó, ngõ ra PA được diễn đạt từ hàm độ lợi phức phi tuyến thay đổi động.

( ) = [ ( ), ̃( )] ( ) ( ) (2.17) Phương trình (2.17) tương đương với chuỗi Taylor bậc nhất như sau:

[ ( ), ̃( )] ≈ [ ( )][1 +ℎ ( )∗ ( )] (2.18) Trong đó [ ( )] được thế cho sự biến đổi AM-AM/AM-PM không nhớ đã được tính toán, ℎ ( ) là đáp ứng xung lực của một mạch lọc tuyến tính bất kỳ và

“*” là toán tử tích chập . Vì vậy, PA trở thành mô hình hoá như hình 2.12 bởi một hàm độ lợi phức mà hàm này phụ thuộc vào bao hàm biên độ tức thời và thông số

̃( ) thu được từ bao hình biên độ vào bởi mạch lọc tuyến tính. Phương pháp này

được biết bởi Ku, đối tượng được dùng để mô hình cho hiệu ứng nhớ được tìm thấy trong PA khi có tác động kích thích bởi tín hiệu RF 2- tone, biên độ của tín hiệu này là A và tần số sóng mang là và . Giả sử là hai tần số này đối xứng tại một tần số sóng mang ảo , tín hiệu 2- tone này tương ứng với tín hiệu bao hình phức hình sin:

( ) = ( ) = Acos[ t] (2.19) Ở một phương pháp để đưa bộ nhớ vào trong mô hình này tác giả đưa phần trình bày đa thức bậc lẻ theo sau AM-AM/AM-PM không nhớ của hệ số phức a2n+1

[ ( )] = a [r(t)] (2.20)

Ngõ ra bao hình phức của nó là:

( ) = a A cos( t)

= d A cos[(2n + 1)ω t ] (2.21)

Sau đó, bước kế tiếp là bao gồm bộ nhớ mà giả sử là đáp ứng bao hình phức sẽ luôn phụ thuộc vào tần số của tín hiệu bao hình hình sin ω , vì vậy công thức (2.21) sẽ chuyển thành như sau:

[ ( ),ω ] = a (ω ) [r(t)] (2.22) Hàm này được thực thi thành mô hình như cấu trúc của hình 2.12

Hình 2. 12: Mô hình hành vi tham số PA. Độ lợi phụ thuộc phi tuyến vào biên

độ bao hình tức thời và một tham số động tuyến tính.

Hình 2. 13: Cấu trúc mô hình kết nối mạch lọc không nhớ phi tuyến song song.

Như đã nói ở trên, kết nối song song một số lượng lớn các nhánh tuỳ ý (nhưng có giới hạn) được đưa vào bởi mạch lọc tuyến tính theo sau bởi một bộ phi tuyến không nhớ là được tính tương đương với mạng ANN không đệ qui và được biết đến với khả năng mô hình hoá tổng quát.

Khi hàm phi tuyến F(.) là một đa thức và hệ thống được tác động bởi bao hình tín hiệu sin thì ngõ ra của mô hình là:

( ) = , { | ( )| [ + ( )]} (2.23)

Trong đó ( ) ≡ ∠ ( ).

Khi sử dụng mô hình tác giả đề nghị đặt ( )=1 và hàm F(.) là hàm AM- AM/AM-PM 1-tone, trong khi đó b , (p>1) là một đối tượng có lỗi nhỏ nhất (MSE – mean square error)

≡ [ ( ),ω ]− ( ) (2.24)

Trong một phát triển gần đây về việc mô hình hoá PA, Ku và Kenney đã đề xuất một mô hình hành vi có khả năng hỗ trợ đáp ứng méo biến dạng bất đối xứng về tần số phụ thuộc và biên độ của PA được tác động tín hiệu vào 2- tone, còn được gọi là bất đối xứng IMD (intermodulation). Giả sử thành phần IMD bậc thứ (2n+1)

bất đối xứng ( nghĩa là trong đó 2n+1 có thể là âm hay dương vì bao hình là bất đối xứng) có biên độ và pha được trình bày bằng tổng một chuỗi của 2N đa thức phức

f2n+1(Ai, ) phụ thuộc vào biên độ bao hình ngõ vào Aivà tần số , bao hình ngõ ra ( ) được biểu diễn như sau:

( , Ai, ) = f ( Ai, ) ( ) (2.25)

Mà ở đây, trong một miền thời gian rời rạc với chiều dài Q+1 có thể được cho bởi:

( , , ) = , ( − , , )| ( − , , )| (2.26)

s: mẫu tức thời mà ở đó ngõ ra đã được tính toán.

, : là hệ số của luỹ thừa bậc 2n+1 mẫu tức thời (s-q)Ts của bao hình ngõ vào [ , , ]

Mô hình này cũng có thể được tổng hợp bằng cách cộng vào N cấu trúc song song giống như hình 2.14

Hình 2. 14: Ví dụ của phần bậc thứ (2n+1) của cấu trúc mô hình mạch lọc FIR phi

tuyến để đại diện cho hành vi IMD bất đối xứng tần số phụ thuộc.

Nếu tổng trong delay q và trong bậc n phi tuyến thay đổi lẫn nhau thì chúng ta sẽ có một cấu trúc tương đương khác mà cấu trúc này có thể được tổng hợp như là mạch lọc FIR ở hình 2.15

Hình 2. 15: Cấu trúc mô hình mạch lọc FIR phi tuyến một chiều được kế thừa

tương đương như mô hình ở hình 2.14.

Lưu ý rằng cả hai cấu trúc được trình bày ở hình 2.14 và hình 2.15 thì không phổ biến bằng mô hình mạch lọc FIR phi tuyến được trình bày ở hình 2.6 nhưng nó xấp xỉ mô hình một chiều đơn giản bởi vì nó thiếu những bộ phận liên quan giữa những phiên bản trì hoãn khác nhau của ngõ vào.

Thêm vào đó, bởi vì phương trình (2.26) cũng có thể được diễn đạt như là tổng của N tích chập:

( ) = ℎ ( ) ( − )| ( − )| (2.27)

Chúng ta kết luận rằng phương trình (2.26) cũng có thể được hiểu như là một kết nối song song của những nhánh Hammerstein được trình bày trong hình 2.14 mà ở đây những mạch phi tuyến không nhớ là những đơn thức giản đơn. Như đã thảo

luận ở trên, đây là cấu trúc đã được sử dụng trong mô hình Abuelma’atti mặc dù nó được xử lý theo một phương pháp hoàn toàn khác.

Những mô hình này chia sẽ một cấu trúc tương tự với mô hình Sila, mặc dù những mô hình này có nhiều điểm bao quát và nó không sử dụng mạch lọc tuyến tính đơn sau mạch phi tuyến không nhớ nhưng có khác biệt mạch lọc cho thứ bậc phi tuyến khác nhau. Ngoài ra, bởi vì mô hình này lấy mạch lọc và mạch phi tuyến không từ dữ liệu biến điệu vào/ra giống nhau nên nó không bị ảnh hưởng từ sự hạn chế được quyết định bởi sự phi tuyến AM-AM/AM-PM.

Hình 2. 16: Biểu diễn tương đương mạch lọc FIR phi tuyến 1-D từ hình 2.14 và 2.15.

Mạch phi tuyến không nhớ và mạch lọc tuyến tính có thể không được tính toán theo cách trực tiếp như trong mô hình Abuelma’atti hay mô hình đa phổ (polyspectral) một chiều nhưng nó được chọn lựa đơn giản để hàm lỗi (error) nhỏ nhất giữa một đo lường xác định và tiên đoán đáp ứng PA. Một thủ tục tối ưu như vậy không thể đảm bảo có một giải pháp duy nhất hay là nó có thể đảm bảo rằng mô hình sẽ cho độ chính xác của nó khi dự đoán đáp ứng PA với một kích thích dễ nhận thấy từ một mô hình được sử dụng cho sự rút gọn mô hình.

Trong một phương pháp chính thức hơn, Brazil và những cộng sự đã thử khai thác mô hình chuỗi Volterra đầy đủ cho PAs. Trong một nghiên cứu đầu tiên của họ, Brazil và Wang đề nghị khai thác mô hình băng thông RF cho PA bằng cách sử dụng dữ liệu mô phỏng cân bằng hoạ tần tức thời được thu thập từ mô hình mức độ mạch của thiết bị. Một thủ tục khai thác ít lỗi của một cách trình bày hỗn hợp

Volterra miền tần số và miền thời gian cho phép dự đoán chính xác cơ bản và IMD 2- tone trên bậc thứ 5, ngoài ra để phát triển phổ nên đưa tín hiệu CDMA dạng sin.

Mặc dù bậc của mô hình Volterra là không được trình bày rõ ràng hay là không có bất kỳ thảo luận nào đưa ra những khó khăn có thể nhưng kết quả dự đoán là khá tốt vì mô hình có khả năng mô tả lồi lõm đã quan sát của đồ thị của mức độ IMD bậc thứ 5 so với đầu vào.

Trong sự phát triển gần đây, Zhu đề xuất mô hình tương đương thông thấp trên chuỗi Volterra thời gian rời rạc. Mặc dù bị giới hạn trong phạm vi mô hình phi tuyến yếu nhưng mô hình Volterra có nhiều lợi thế hơn nhưng mô hình hành vi khác trước đó nên nó được thiết lập thành lý thuyết nền cho chuỗi Volterra.

Đưa ra một sắp xếp khác thường của cấu trúc mô hình được gọi là vectơ V, cấu trúc này thay thế mạch lọc FIR Volterra truyền thống vì tổng các tầng được hình thành bởi tích số của những time-delayed của ngõ vào và mạch lọc FIR tuyến tính theo sự thay đổi chiều dài bộ nhớ. Với điều đó, sự sắp xếp mới này của mạch lọc FIR Volterra, phần xử lý mô hình được đề nghị bao gồm xác định hệ số của mỗi mạch lọc FIR tuyến tính. Trong những bước tiếp theo để xây dựng mô hình hoá người ta đề nghị nên sử dụng quá trình học (learning) kế thừa sẽ cho ra việc xử lý trực tiếp đơn giản và trực quan hơn.

Tập dữ liệu đo đạc dùng để huấn luyện (dùng để xử lý mô hình) được lấy từ những mẫu trong miền thời gian của bao hình tín hiệu vào ra.

Điều đặc biệt trong kết luận này là mặc dù được dựa trên một quá trình nhận dạng thích ứng với hạt nhân tương quan và bị hạn chế trong giới hạn phi tuyến vừa và yếu nhưng điều này tạo nên một phương pháp tương đương thông thấp tổng quát đựa vào hình thức của chuỗi Volterra.

Cũng sử dụng một mô hình nhưng ít tổng quát hơn để tiếp cận với mô hình hành vi đó là một mô hình được thực hiện bởi Mirri và nối tiếp theo là Ngoga và Soury. Bắt đầu với mô hình FIR phi tuyến tổng quát, sau đó các tác giả nói rằng nó tương đương bằng một sự mở rộng chuỗi Taylor bậc nhất mở rộng xung quanh trang thái toán hạng không nhớ phi tuyến được xác định trước x0(t)

( ) ≈ [ ( ), ] ( − ) (2.28)

Xác định cái gọi là đáp ứng xung lực ℎ[ ( ), ] và trình bày tích chập phi tuyến

( ) ≈ ℎ[ ( ), ] ( − ) (2.29)

Như vậy, một cách trình bày bao gồm một ứng dụng khéo léo của mô hình phi tuyến của Filicori và các cộng sự để mạch phi tuyến tương đương thông thấp dựa trên giả định rằng trong khi tín hiệu có thể được xử lý phi tuyến theo một phương pháp không nhớ thì hiệu ứng động là tuyến tính, nó xấp xỉ một chiều.

Mô hình phi tuyến trình bày rằng đáp ứng của hệ thống có thể được trình bày xấp xỉ như ngõ ra của hệ thống động tuyến tính khác mà đáp ứng xung lực của nó phụ thuộc vào ngõ vào hiện tại trong một phương pháp không nhớ. Như vậy, sử dụng cách trình bày thời gian rời rạc, mô hình phi tuyến này có thể được diễn đạt theo tích chập dưới đây:

( ) = [ ( − ), ] ( − ) (2.30)

Trong đó [ ( − ), ] là đáp ứng xung lực ngõ vào phụ thuộc không nhớ được tìm thấy. Giả sử rằng đáp ứng xung lực này là liên tục thì nó có thể được coi là tương đương với một đa thức bậc chẵn và có thể được viết lại như sau:

( ) = ℎ ( )| ( − )| ( − )

= ℎ ( ) ( − )| ( − )|

= ℎ ( ) ( − ) + ℎ ( ) ( − )| ( − )| +⋯

+ ℎ ( ) ( − )| ( − )| ( ) (2.31)

Phương trình (2.31) cho thấy rằng những mô hình của Mirri và Soury một lần nữa có thể tổng hợp với cấu trúc nhánh Hammerstein song song ở hình 2.16 và như vậy nó giống các mô hình của Ku, Kenney và Heutmaker.

2.4. Mạng neural:

Bên cạnh sự phát triển của mô hình hành vi mạch khuếch đại công suất siêu cao tần phi tuyến thì mạng Neuron cũng nhận được nhiều sự quan tâm của các nhà nghiên cứu. Một câu hỏi đặt ra là làm cách nào để đưa ứng dụng mạng Neuron vào trong mô hình hành vi của mạch khuếch đại phi tuyến.

Gần đây, mạng Neuron nhân tạo được thừa nhận như là một công cụ mô hình hoá hữu ích trong lĩnh vực siêu cao tần. Cụ thể hơn, mô hình hoá và mô phỏng linh kiện của mạch phi tuyến trong hệ thống truyền thông không dây sử dụng mô hình hành vi dựa vào mạng Neuron là một lĩnh vực được quan tâm ngày càng tăng. Sự hữu dụng của mạng Neuron là không giới hạn với các mô hình mạng Neuron thời gian trì hoãn (TDNN) và mô hình hành vi với cách tiếp cận thông qua mạng Neuron. Dưới đây là một lý thuyết ngắn gọn tổng quan về mạng Neuron nhân tạo (ANN) tổng quan được trình bày(1).

Một ANN là một hệ thống bao gồm một số lượng lớn các yếu tố cơ bản được sắp xếp theo lớp và có mối tương quan cao. Cấu trúc này có một số ngõ vào và một

số ngõ ra mà nó có thể huấn luyện để cho ngõ ra từ nhiều ngõ vào theo mong muốn.

1 Nguồn tài liệu tham khảo [8] trang 168

Hình 2. 17: Biểu đồ mạng Neuron nhân tạo

Hệ thống này mô phỏng bộ não của con người theo những cách nhất định.

Nó cần được huấn luyện như thế nào về hành vi và phải dạy nó hay huấn luyện nó dựa trên tri thức trước đó trong môi trường cần huấn luyện. Các yếu tố cơ bản đó gọi là neuron nhân tạo. Đó là căn bản của một đơn vị quá trình kết nối với những đơn vị quá trình khác thông qua khớp nối mạng. Khả năng xử lý của mạng được lưu trữ trong mối liên kết giữa các đơn vị - w được thu bởi một quá trình thích ứng hoặc quá trình huấn luyện, w là một tập hợp của tập mẫu huấn luyện.

Theo toán học, quan hệ vào/ra của cấu trúc ANN được trình bày bởi:

y=f(x,w)

Định nghĩa w và cách thức mà y được tính toán từ x và w xác định cấu trúc

ANN. Nhận thức đa lớp (MLP – multilayer perceptron) là cấu trúc phổ biến nhất cho mô hình ANN. Nó theo sau một lớp chung của cấu trúc gọi là tiền ANN. Trong cấu trúc MLP những neuron được nhóm thành lớp, lớp đầu tiên và lớp cuối cùng lần lượt được gọi là lớp vào và lớp ra, bởi vì nó đại diện cho ngõ vào và ngõ ra của một mạng tổng thể, các lớp còn lại được gọi là lớp ẩn.

Hình 2. 18: Cấu trúc một mạng neuron nhiều lớp

Giả sử rằng tổng số lớp là L, lớp đầu tiên là lớp vào, lớp thứ L là lớp ra và từ lớp 2 cho đến lớp thứ L-1 là lớp ẩn. Cho số lượng neuron ở lớp thứ l là Nl, với l=1,2,…,L. Cho Wlij là trọng lượng đường nối giữa neuron thứ j của lớp thứ (l-1) với neuron thứ i của lớp thứ l, 1≤j≤Nl-1,1≤i≤Nl. Cho xi biểu diễn các kích thích ngõ vào của MLP và zli là ngõ ra của neuron thứ I của lớp thứ l. Có thêm một thông số trọng lượng cho mỗi neuron là wli0 đại diện cho sự phân cực của neuron thứ i của lớp thứ l.

Đối với MLP với j=0,1,2,…,Nl-1,i=1,2,…,Nl, and l=2,3,…,L, kế tiếp là trọng lượng w có công thức sau:

Mỗi neuron trong lớp vào nhận một kích thích, mỗi neuron trong lớp khác gồm lớp ra, ngõ vào nhận được từ neuron trong lớp trước và xử lý chúng. Sau đó thì thông tin xử lý có sẵn tại ngõ ra của neuron.

Hình 2. 19: Quá trình xử lý thông tin của neuron thứ i thuộc lớp l

Hình thức đơn giản nhất của cấu trúc mạng neuron MLP là cấu trúc ba lớp được trình bày trong khối phi tuyến dưới đây:

Hình 2. 20: Cấu trúc mô hình mạng neuron MLP cơ bản dùng cho mạch PA

Trọng lượng w được xác định thông qua việc huấn luyện pha, việc huấn luyện này yêu cầu một tập dữ liệu vào/ra của mạch cần mô hình hoá. Trong suốt quá trình huấn luyện trọng lượng w trong cấu trúc mạng được lặp đi lặp lại theo

cách mà khi vector ngõ vào đã cho trước, mạng được huấn luyện tiên đoán vector ngõ ra với lỗi thấp nhất mà nó có thể. Khá nhiều thuật toán tồn tại để thi hành việc huấn luyện này. Bên cạnh giải thuật lan truyền trở lại đã được sử dụng phổ biến trong mô hình khuếch đại siêu cao tần. Nguyên tắc chính đằng sau giải thuật lan truyền trở lại là giảm đến mức tối thiểu tổng lỗi ngõ ra bình phương được tính trung bình trên tập huấn luyện.

Một phần của tài liệu Luận văn thạc sĩ Kỹ thuật điện tử: Mô hình hóa mạch khuếch đại siêu cao tần trong thông tin di động sử dụng mạng Neuron (Trang 41 - 55)

Tải bản đầy đủ (PDF)

(82 trang)