1. Trang chủ
  2. » Luận Văn - Báo Cáo

Nâng cao chất lượng và dung lượng hệ thống thông tin di động cd ma dùng kỹ thuật tách sóng đa truy cập

58 0 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

sé KHOA HỌC CÔNG NGHỆ & MÔI TRƯỜNG TP.HCM TRƯN/: TÂM PHÁT TRIỂN KHOA HỌC VÀ CÔNG NGHỆ TRẺ THÀNH ĐỒN TP.HỒ CHÍ MINH BÁO CÁO ĐỀ TÀI wb NGHIÊN CÚU KHOA HỌC VÀ PHÁT TRIỂN CÔNG NGHỆ Đề tài: NÂNG CAO CHẤT LƯỢNG VÀ DUNG LƯỢNG HỆ THỐNG THÔNG TIN DI ĐỘNG CDMA DÙNG KỸ THUẬT TÁCH SÓNG ĐA TRUY CẬP (Improving Performance and Capacity of CDMA Mobile System Using Multi-User Detection Techniques) Chủ nhiệm đề tài: Huỳnh Phú Minh Cường Thang năm 2005 ' Chuong MUC LUC GIGI THIEU DE TAI 1.1 Tên Để Tài . cseeseecsererers 1.2 Chủ Nhiệm Để Tài 1.3 Cơ Quan Chủ Trì - 1.4 Cơ Quan Quản Lý Để Tài 1.5 Danh Sách Nhân Sự Tham Gia 1.6 Kinh Phí Và Thời Gian Thực Hiện 17 Mục Tiêu Và Nội Dung Nghiên Cứu 18 Kết Quả Và Sản Phẩm Cần Đạt Được 1.9 Tổng Quan Về Đề Tài -.-. -ssssriere Thực Hiện 1.9.1 Kỹ Thuật Đa Truy Cập Phân Chia Theo Mã (CDMA) 1.9.2 Hệ Thống Thông Tin Di Động CDMA Thông Thường Và Các Vấn Để Hạn Chế Của Nó .-.-ccesccsesireeseersser 1.9.3 Tính Cần Thiết Của Đề Tài -.eeeriiirriiirrisieeriirerrrrer 110 Tổ Chức Của Báo Cáo Để Tài -—— ~— =~==-=~-==——=~==ez==ze=xx~====m=~~m=eee=rei Chương2 21 2.2 KỸ THUẬT TRÃI PHỔ VÀ DUNG LƯỢNG THONG CDMA HỆ KY Thuat Trdi PhO Chudi Troe Tidp ccssccccscscsceneeessnrsesersesenencnnncnenereneseereee 10 Tín Hiệu Trải Phổ - Mã Giả Ngẫu Nhiên -« Rt (6.20) Vì vậy, SNR tiến tới vơ cực tách sóng MMSE hội tụ tách sóng giải tương quan Điều có nghĩa tách sóng MMSE có hiệu suất tiệm cận tách sóng giải tương quan ® Cũng MMSE, (Adaptive - Minimum Thích Nghỉ 3.3.5 Phương Pháp MMSE Emor Detector) tách sóng MMSE thích nghi cho Mean-Square user thứ k lựa chon dang sóng cụ khoảng thời bít T để cực tiểu hóa lỗi trung bình bình phương: E[(b,~ < €,,y >] ® Lúc kết tách sóng : by =sgn() @ Tuy nhiên, khác với phương pháp MMSE, máy thu phương pháp khơng biết trước tín hiệu giải trải phổ c„ mà phải dựa vào chuỗi huấn luyện để tái tạo dạng sóng c„ , theo giải thuật thích nghỉ sau: œ&[I=£œ7~1~ #@eI7~, y0 - b,7DyL1 đó: 1a hệ số hội tụ chọn ; L: chiều dài chuỗi huấn luyện Chiều dài chuỗi huấn luyện khác cho kết khác nhau, chiều dài chuỗi huấn luyện dài phương pháp xác 3.3.6 Phương Pháp Tách Sóng Triệt Nhiễu Nối Tiếp, SIC: (Successive Interference Cancellation Detector) Kỹ thuật triệt nhiễu nối tiếp dựa ý tưởng đơn giản tự nhiên sau: định tạo từ bịt người dùng giao thoa tín hiệu giao thoa tái tạo máy thu trừ từ tín hiệu thu Giải thuật đơn giản khử tín hiệu giao thoa trước đưa định Nếu bít giao thoa định nhiễu giao thoa loại bổ, ngược lại giao thoa nhân đơi Khi thực q trình trừ tín hiệu cách nối tiếp, máy thu nghĩ tín hiệu cịn lại chứa người dùng trình lặp lại tất cá giao thoa bị loại bỏ hết Để mô tá đủ máy thu ta cần rõ định trung gian đạt nào, Trong hình thức đơn giản nhất, khử nối tiếp ý tới dùng định tạo lọc thích nghí, mà khơng ảnh diện giao thoa Vì định trung gian không thật hưởng lớn tới độ tin cậy tất định nên suất giảm hợp lý tách sóng người dùng theo thứ tự cơng dân tầng Phương pháp sử dụng giải pháp triệt nhiễu MAI nối tiếp Mỗi user, đồng thời tham tách sóng thực việc tách sóng cho gia việc triệt phần nhiễu MAI user vừa tách sóng tín hiệu tổng, để giấm bớt MAI cho user cịn lại Q trình mơ tả thơng qua bước sau: > Tín hiệu thu từ máy thu y(), qua băng Matched Filter cho vectơ y, từ máy thu thực việc xếp user theo thứ tự giảm dẫn mức cơng suất thu > Sử dụng cách tách sóng thơng thường ( lấy hàm sgn) cho user có > Tao lai tin hiệu thu s %+(Ð) = Ai.bi.SI(Ð user (tạo MAI user 1) sử dụng : mức cơng suất lớn #k Kết tách sóng bước Biết chuỗi PN user mạnh Tiên đoán biên độ Tao tin hiéu yi(t) = y(t) - s ^(Ð, tín hiệu xem khơng chứa tín hiệu user & # > > Thực lại bước với tín hiệu thu y:(t) Quyết định cho user thứ k hệ thống đồng : x - $448, by =e ˆ J2m Quyết định cho user thứ k hệ thống bất đồng : b,17]= s1 a với: sô =l 34,0„b,i~8y]* øyb ~ ây K ˆ ˆ =1 tr, Yêu cầu phải biết biên độ thu Ước lượng biên độ thu bị sai tăng thêm mức nhiễu cho định kế tiếp, thay triệt Những người dùng yếu so với người dùng tách sóng bỏ qua Khác với tách sóng tuyến tính, q trình triệt nhiễu nối tiếp khơng u câu tính tốn số học với giá trị tương quan chéo mà tính tích chúng thu (Bộ tách sóng với biên độ đa truy cập tối ưu có thuận lợi tương tự ) Độ phức tạp bit phụ thuộc tuyến tính theo số lượng người dùng hệ thống Lý thuyết triệt nhiễu nối tiếp tổng quát : khơng áp dụng hệ thống đa truy cập phân chia theo mã CDMA (với tín hiệu điều chế tuyến tính ) mà cịn áp dụng cho hệ thống đa truy cập mà mà tính hiệu thu xếp chồng tín hiệu phát Thời gian trễ giải điều chế triệt nhiễu nối tiếp tăng tuyến tính theo số lượng người dùng số lượng bít khung 3.3.7 Phương Pháp Tách Sóng Hồi Tiếp Quyết Dinh DF (Decision -Feedback Detector) »> Ta thực phép biến đổi Scholesky cho ma trận R: R=F'.F F ma trận tam giác Nhân vectơ ngõ lọc thích nghỉ phương trình y F'=(F)1 ma trận tam giác : ta được: ÿ=F 'y=FAb+ñ d= Fi Ab +3 k-1 ip = Fy Ayhy + > Fy A,B, +, fal Quyết định cho user thứ : bị = sgnÖ7,) = sgn(Hi Ab, +) Quyết định cho user thứ k : ^ b= vol Tổng quát ~ kl ˆ S48] fal = sgn(F-*y -(F -diag(F))AB) = RAb+n F¬—>| , y0 | Maiched | + ey Bank + + 14731 —7 : é, DEC > + - Ậ AF, + AP rn + > = _> pec |_| aoa mm, i, A + Hình 3-7 Bộ tách sóng hỏi tiếp định giải tương quan Như tách sóng hổi tiếp định có đặc điểm sau: > > > Kết hợp phương pháp tuyến tính phi tuyến để chống lại nhiễu đa truy cập Hoạt động cách tuần tự, giải điều chế lần bit Các định trung gian sử đụng tách sóng tiếp định định (ngõ ra) cuối »> Không làm tăng mức nhiễu có thời gian trễ lớn 3.3.8 Phương Pháp Tách Sóng Hổi Tiếp Quyết Định MMSE (MMSE Decision -Feedback Detector) > Ta thực phép biến đổi ma trận : oA? +R=FIF, > dé F, 1a ma tran tam gidc dudi Các bước giải thuật giống phương pháp DF việc thay thé F bang F, Phuong Phap Tach Séng Triét Nhiễu Song Song Thông Thường Conv- 3.3.9 PIC (Conventional Parallel Interference Cancellation Detector) > Y tưởng triệt nhiễu song song (PIC) giải điều chế đồng thời cho tất người dùng, sử dụng định thử nghiệm từ tầng trước (các ngõ tách sóng bất kì) để ước lượng trừ tất nhiễu đa truy cập (MAI) cho người dùng, Q trình xử lý lặp lại nhiều lần tạo nên triệt nhiễu song song nhiều tầng, với hy vọng tăng độ tin cậy định thử nghiệm song ước lượng nhiễu đa truy cập Sơ đổ tổng quát tách sóng song nhiều tâng hình sau: |ị Bộ |, tách sóng | ¡ y@ Tang m Tảng?2 | ” a hom ñ bi Tầng Bef song song thứ ủi triệt i nhiễu nhiễu Be _| i triệt |” At > É£ song song thứ m1 | ” bf BO Tâng Hình 3-8 Sơ Đề Bộ Tách Sóng Triệt Nhiễu Song Song Nhiều thường > Conv-PIC có hai tầng với tầng đầu tách sóng thơng định cứng Do tầng tách sóng thông thường nên bị) =sgn0,) tang thứ là: nb") > Quyết định cho bít tầng sau là: 62 = sen(y, -¥4; jak > lặp sau: Sử dụng cách biểu diễn ma trận, ta công thức > Đ#9 =sgn(y - (R~A ") ấđ =sgn(y) ú: tự > Conv-PIC hệ thống bất đồng tương trình bày cấu trúc ma trận R„ A, b khác, phan trước 3.310 Dec-PIC Phương Pháp Tách Sóng Triệt Nhiễu Song Song Giải Tương Quan, on Detector) (Decorrelating Parallel Interference Cancellati > tương tự Conv-PIC Nguyên tắc tách sóng Dec-PIC hồn tồn quan, tức là: khác chỗ tầng tách sóng giải tương bY = sen(R 'y) »> Và định cuối là: — ð'# =sgn(y~ (R-IAB®) 3.311 Phương Pháp Dec-PIC nhiều tầng > Tách Sóng Triệt Nhiễu Song Song Giải Tương Quan song nhiều tầng với tầng Bộ tách sóng tách song song đâu tiên tách sóng giải tương quan: = sen(R“y) > Gọi bị? định user k tầng thứ s (s € [2 , m]) phương pháp triệt nhiễu song song nhiều tâng thực sau: oe > 3.3.12 > = sgn(y, ~LAipnb)) mm: số tầng tách sóng song song Sử dụng cách biểu diễn ma trận, ta công thức lặp sau: bo = sen(y — (R~ DA 8®) Bộ Tách Sóng MMSE-PIC: Ngun tắc tách sóng MMSE-PIC hồn tồn tương tự ConvPIC khác tang đâu tiên tách sóng MMSE, tức là: bY = sgn ([R+07A ?1“ y) > Và quyét dinh cuéi cing la: 3.3.13 = sgn(y -(R-NAB™) Phương Pháp Tách Sóng Dùng Mạng Neural Tuyến Tính: Mạng tuyến tính có khả đáp ứng với thay đổi môi trường thông qua việc điểu chỉnh trọng số theo bước dựa vector vào vector mong muốn cho tổng bình phương sai số nhỏ Mạng loại thường sử dụng lọc, hệ thống điều khiển xử lý tín hiệu số Với vector vào ta tính vector ra, sai số e sai khác vector vector mong muốn Ta thay đổi giá trị trọng số w, giá trị ngưỡng b để tổng bình phương sai số nhỏ nhỏ giá trị cụ thể Vấn đề giải mạng tuyến tính có giá trị nhỏ sai số Trong hầu hết trường hợp tính trực tiếp mạng tuyến tính việc tính sai số cực tiểu vector vào vector Một neuron tuyến tính có R ngõ vào cho sau : Ngõ vào Neuron tun tính có vector vào a=purelin(n) a=purelin(Wptb) Ham truyén Tuyén Tinh Hàm truyền tuyến tính tính tốn ngõ neuron theo giá trị đưa qua : a = purelin (n) = purelin (Wp + b) = Wp + b Neuron huấn luyện để học tập hàm quan hệ vector đầu vào tìm xấp xỉ gần đứng cho hàm phi tuyến Mạng tuyến tính nhiên khơng thể thực tính tốn phi tuyến Hình mạng lớp gồm § neuron kết nối với R ngõ vào qua ma trận trọng số W Lớp Neuron Ngõ vào Tuy€n Tinh Ngõ vào Lớp Neuron Tuyến Tính a=purelin(Wp+b) a=purelin(Wptb) Luật Widrow-Hoff huấn luyện mạng tuyến tính lớp Tuy nhiên nhiều mạng tuyến tính lớp có khả mạng tuyến tính đa lớp Trung Bình Bình Phương Sai Số _ Mean Square Error Tập vector vào mong muốn : {pst b Past bs Postos Với pọ ngõ vào mạng, tọ giá trị mong muốn tương ứng Sai số tính khác giá trị mong muốn giá trị mạng thực Chúng ta cực tiểu hoá tổng sai số mse = 2Š, (z())* = 3%, ŒŒ) ~ a(k))? Thuật toán LMS điều chỉnh trọng số ngưỡng mạng để cực tiểu hóa trung bình bình phương sai số Hơn trưng bình bình phương sai số vị trí hàm quadratic Chính kết q trình thực thi m, minimum nhỏ minimum khơng có giá trị minimu điều Đặc biệt đặc tính tùy thuộc vào đặc tính vector nhập khơng vector nhập cịn định cách giải toán Thuật Toán LMS Thuật toán LMS hay thuật toán huấn luyện Windrow-Hoff huấn luyện mạng khơng tính tốn mạng tuyến tính trực tiếp ding để Sự thay đổi trọng số ngưỡng theo công thức sau : W(k+1) = W(k) + 2œe(k)pTŒ) b(k+1) = b(k) + 2ae(k) độ học tập Ir Trong sai số e, ngưỡng b vector 2œ tốc không ổn Nếu lr lớn việc học nhanh lớn hệ thống hàm lr = định, chí cịn gia tăng lỗi Để lấy hợp lý giá trị Ir thường dùng maxlinir(P,bìas") Tinh giá trị thay đổi trọng số ngưỡng dùng hàm learnwh Giá tri dw, db tinh theo céng thức toán học : dw =Ire.p" db =lre Hay viết ngắn gọn dùng hàm trainwh , hàm tính tốn thực tìm sai số chấp nhận (goal) khơng {net,tr]=train(net,p,t) đến giá trị epoch lớn : tri goal (ví dụ Goal có giá tri mặc định 0, cài dat gid net.trainParam.goal = 0.1 0.1): Lưu đồ giải thuật chương trình: Tạo liệu nguồn P đích T để huấn luyện mạng ‡ Trong lưu đô giải thuật này: > Tạo mạng Neural Tuyến Tính Hàm newlin số huấn luyện mạng (epochs, goal .) Huấn luyện mạng Ỷ Lấy đữ liệu cần truyền để mô ‡ Mô mạng Hàm Sim cho chúng mô tả qua hệ thống CDMA đặc Để đạt điểu đó, tín hiệu nguồn tạo từ khả có bít truyền tổ hợp lập lại nhiều lẫn dé mạng thích nghỉ theo đặc tính nhiễu nên mơi Thiết lập thơng Train trưng, đặt tính tín hiệu truyền ‡ Hàm Bước thứ bước quan trọng, định tính xác mạng tuyến tính Ta phải tạo đữ liệu nguồn P đích T trường truyền > Ở bước mạng thứ 3, thơng số thay đổi để thấy đáp ứng mạng > Ở bước thứ 5, liệu cẩn truyền lấy từ cách file âm ngẫu thanh, nhiên, hình ảnh tùy theo yêu cầu mô ‡ Dữ liệu 3.3.14 Phương Pháp Tách Sóng Dùng Mạng Neural BackPropagation Mạng BackPropagation thực dựa quy luật học Widrow-Hoff tổng quát hóa cho mạng đa lớp hàm truyễển phi tuyến khác Mạng có ngưỡng, lớp sigmoid lớp tuyến tính ngõ mơ hàm với số mẫu rời rạc hữu hạn Mạng Backpropagation huấn luyện xác cho đáp ứng hợp lý đưa ngõ vào chưa huấn luyện Thơng thường tín hiệu vào có ngõ tương tự với ngõ xác tín hiệu vào huấn luyện giống với ngõ vào Do tính chất tổng quát hố này, ta huấn luyện mạng dựa cặp vào đại điện mà cho kết tốt tín hiệu chưa huấn luyện Nếu lớp cuối mạng đa lớp có neuron sigmoid ngõ mạng giới hạn vùng nhỏ Nếu sử dụng neuron tuyến tính ngõ mạng lấy giá trị Mạng lớp neuron logsig có R ngõ vào sau : Ngõ vào Lớp Neuron Ngõ vào “N Lép Neuron CNG “tp ‘N P Rxi R Loy = a hn Poa X Sxl Sei? Lo Sxl ° s a=f{Wp+b) L2 a=fWp+b) Mạng thường có hay nhiều lớp ẩn gồm neuron sigmoid, lớp ngõ thường gồm neuron tuyến tính Các neuron lớp ẩn có hàm truyền phi tuyến cho phép mạng học mối quan hệ tuyến tính phi tuyến vector ngõ vào ngõ Lớp ngõ tuyến tính cho phép mang tạo giá trị khoảng (-1,1) Ngõ vào [Nf p? Lépra Lớp ẩn al 4x1 n 4x1 Va > ` ø1~fansig(TW ®in! +p1) 21 x F ~ JX 3xI Ly 3x1 n 3x1 Z Hàm tạo mạng (newff) Bước đâu tiên huấn luyện mạng Hàm newff tạo mạng feedforward Ví dụ : net= newff ([-1 2;0 feedfoward tạo đối tượng mạng 5],[3 1],Ÿ/tarsig”,'purelin"}/traingd') Hàm tạo mạng hai ngõ vào, hai purelin, dùng thuật toán gradient descent lớp có hàm truyền tansig Hàm khởi động trọng số : Trước huấn luyện mạng feedforward, trọng số ngưỡng phải khởi tạo Dùng lệnh init để tạo giá trị đâu cho trọng số ngưỡng Hàm net = init (net) khởi động init thường hàm newff gọi, mạng tự động khởi tạo giá trị mặc định Tuy nhiên người sử dụng muốn khởi tạo lại trọng số ngưỡng Vi du :net.layer{1}.initFen = ‘initwb’; net.inputWeights {1,1].initFen = ‘rands’; net.biases{1,1}.initFcn = ‘rands’; net.biases{2,1}.initFen = ‘rands’; net.init(net); Huấn luyện mạng, " Khi trọng số ngưỡng huấn luyện Cách thức huấn hoạt động mạng gồm định mạng feedforward mạng khởi tạo, mạng sẵn sàng luyện yêu cầu tập mẫu cách thức cặp ngõ vào ngõ Hàm hiệu suất mặc trung bình bình phương sai số, Có nhiều thuật tốn huấn luyện Backpropagation khác Cách thực đơn giản cập nhật trọng số ngưỡng trực tiếp cho hàm hiệu suất giảm nhanh _ gradient có giá trị âm Mỗi vịng lặp thuật tốn viết lại sau : V6i Xk+1 = Xk fkỹk x, : vector trọng số ngưỡng gx : gradient hién k : tốc độ học Có nhiều thuật tốn huấn luyện backpropagation khác Chúng khác cách tính tốn, dung lượng nhớ khơng có thuật tốn tốt trường hợp Sau số hàm huấn luyện: HÀM Traingd MÔ TẢ Gradient đescent bắn Đáp ứng chậm, sử dụng chế độ incremental Traingdm | Gradient đescent có quán tính Thường nhanh traingd, sử dụng chế độ nấc Traingdx | Tốc độ học thay đổi Huấn luyện nhanh traingd sứ dụng chế độ batch Resillient backpropagation Trainrp Day 1a thuật toán huấn luyện chế Traincgb độ batch đơn giản, có độ hội tụ nhanh tốn nhớ | Thuật tốn conjugate gradient Fletcher ~ Reeves Ít tốn nhớ thuật toán conjugate gradient | Thuật toán conjugate gradient Polak -Ribiére Yêu cầu nhớ nhiều trạncgf, số tốn có độ hội tụ nhanh | Thuật toán conjugate gradient Powell - Beale Yêu câu nhớ Trainscg | Thuật toán Scaled Conjugate Gradient Trainbfg | Phương pháp quasi - Newtơn BFGS Traincgf Traincgp lớn traincgp, tốc độ hội tụ nhanh Day thuật toán conjugate gradient khơng u cầu định hướng tìm u cầu lưu trữ ma trận Hessian có nhiều phép tính thuật tốn conjugate gradient vịng lặp, thường hội tụ sau vài phép lặp | Phương pháp one step secant Đây phương pháp kết hợp phương pháp conjugate gradient phương, pháp quasi Newton Thuật toán Levenberg - Marquardt Thuật toán huấn luyện Trainoss Trainlm nhanh mạng có kích thước vừa phải, có tính chất giảm nhớ tập huấn luyện lớn Thuật toán chuẩn quát héa Bayesian Là giải thuật huấn luyện Levenberg - Marquardt sửa đổi, tạo mạng tốt hơn, giảm Trainbr phức tạp để mạng hội tụ Để huấn luyện ta dùng hàm sau: net=train(net,p,t) p liệu vào tlà đữ liệu mong muốn Mô mạng: mô Sau huấn luyện, mạng sẵn sàng cho việc lệnh sau: y = sim(net, x) x: đữ liệu ngõ vào y liệu ngõ Tiên Và Hậu Xử Lý: có vài Mạng Neural Networks hoạt động tốt huấn bước xử lý tập giá trị vào, đích trước qua mạng Trước sử dụng luyện, thường chuẩn hóa ngõ vào, ngõ đích Hàm premnmx để chuẩn hóa ngõ vào đích khoảng [-1,1] Sau họa cách sử dụng hàm [pn, minp, maxp, tn, mint, maxt] = premnmx pt pn, tn (p,t); net= train (net,pn,tn); : giá trị vào đích ban đầu : giá trị vào đích chuẩn hóa minp, maxp : chứa giá trị min, max giá trị vào ban đầu mint, maxt : chtfa gid tri min, max gid tri dich ban dau cho Sau huấn luyện, giá trị sử dụng để biến đổi ngõ vào, hàm sau số ngưỡng Chúng trở thành phận mạng, giống trọng mạng, Do hàm premnmx chuẩn hóa giá trị vào, đích, nên ngõ thường ta dùng giá trị khoảng [-1,1] Để đổi ngõ giá trị bình hàm postmnmx Minh họa sau cho thấy cách mô biến đổi ngõ mạng giá trị bình thường : an = sim(net,pn); a= postmnmx (an,mint,maxt); Ngõ mạng an tương ứng với tập đích tn anew = postmnmx (anewn, mint, max); Lưu để giải thuật chương trình: Giống mạng tuyến tính 3.315 n Phương Pháp Tách Sóng Dùng Mạng Neưral Elma Cấu trúc mạng Elman: hổi tiếp từ ngõ Mạng Elman thơng thường mạng hai lớp có đường Elman nhận lớp thứ ngõ vào Đường hổi tiếp cho phép mạng phát mẫu liệu thay đổi theo thời gian DỊ m1(Á-1) wil a2) =y a(t) Dane 14 st Input Recurrent tansig layer al() = tansig Wp seul su nt "“ +L Wiiac-1) + bt) Output puretin layer nk) + b2) dL W218:( az(&) = pureli nơron purelir Mạng Elman có nơron tansig lớp ẩn mạng hai lớp với lớp ngõ Sự kết hợp đặc biệt cầu với độ xác tùy ý u hàm truyền tạo hàm đủ nơron Số nơtron lớp ẩn nhiều lớp ẩn phải có tạp mạng mơ tả xác phức Thiét ké mang Elman: Mạng Elman có hai hay nhiều lớp tạo hàm newelm Các lớp ẩn thường có hàm truyền tansig Hàm truyền lớp ngõ purelin net = newelm([0 11,15 1],{'tansig';1logsig'}) Hàm huấn luyện mặc định trainbfg, dùng trainlm, nhanh tốn nhớ Hàm học mặc định learngdm hiệu suất mse Huấn luyện mạng Elman: Mạng Elman huấn luyện hai hàm train Sau toàn chuỗi ngõ vào vào mạng, ngõ tính so sánh với chuỗi đích để phát chuỗi sai số e Với nấc thời gian sai số truyền ngược dé tim gradient cua sai số trọng số ngưỡng Gradient gần trọng số ngưỡng góp phân vào sai số thơng qua kết nối tiếp trễ bỏ qua « Sau gradient sử dụng để cập nhật trọng số với hàm huấn luyện tự chọn, thường dùng hàm traingdx Nhận xét mạng Elman: + Mạng Elman không tin cậy mạng train adapt sử dụng hàm gần sai số gradient khác hàm + Đối với vấn dé mang Elman cần dùng nhiều nơron ẩn mạng khác Mạng Elman khó tìm trọng số cho nơron ẩn gradient sai số tính gần + Hàm train huấn luyện mạng Elman phát chuỗi vector đích có chuỗi vector vào Các vector ngõ vào đích ma trận P T Hàm train lấy vector trọng số, ngưỡng mạng, huấn luyện mạng sử dụng phương pháp Backpropagation tốc độ học thay đổi có qn tính, trả trọng số ngưỡng Lưu đồ giải thuật chương trình: Giống mạng tuyến tính

Ngày đăng: 06/10/2023, 11:51

Xem thêm:

TÀI LIỆU CÙNG NGƯỜI DÙNG

  • Đang cập nhật ...

TÀI LIỆU LIÊN QUAN

w