Nguyễn Phương Anh người đã tận tình chỉ bảo, hướng dẫn và giúp đỡ em trongsuốt quá trình hoàn thành luận văn này.Em xin chân thành cảm ơn tập thể cán bộ Viện Toán ứng dụng và Tin học, Vi
Phát biểu bài toán điều khiển tối ưu
Bài toán (P1) đặt ra trong chương này là đi tìm một hàm điều khiển u ∗ liên tục từng khúc và cực đại hàm mục tiêu:
F x t , u t , t dt( ( ) ( ) ) + [ ( )S x T , T ,] (1.1) trong đó, F :R n ×R m ×R 1 →R 1 vàS R: n ×R 1 → R 1 là những hàm có các đạo hàm riêng liên t ục thỏa mãn:
Trong bài toán điều khiển tối ưu, x(t) là biến trạng thái, u(t) là biến điều khiển, t là biến thời gian và x0 là giá trị của biến trạng thái tại thời điểm ban đầu Các giá trị này được giả thiết là đã biết, với hàm liên tục và khả vi từng khúc Điều khiển u* được gọi là điều khiển tối ưu, trong khi x* là đường tối ưu hay quỹ đạo tối ưu xác định bởi phương trình trạng thái khi u = u* Giá trị tối ưu của hàm mục tiêu được ký hiệu là J(u*) hoặc J* Bài toán điều khiển tối ưu này được biểu diễn dưới dạng công thức Bolza do hàm mục tiêu có dạng đặc trưng.
F x t , u t , t dt( ( ) ( ) ) + [ ( )S x T , T ]Bài toán có dạng Lagrange khi S ≡0và có dạng M ayer khiF ≡0.
Phương trình Hamilton - Jacobi - Bellman
Hàm V x, t( ) : R n ×R 1 → R 1 được định nghĩa là hàm tối đa hóa giá trị của hàm mục tiêu trong bài toán điều khiển tối ưu, bắt đầu từ thời điểm t với trạng thái x.
F x s , u s , s ds( ( ) ( ) ) + ( ( )S x T , T ,) (1.3) với s≥t, dx ds = ( ( ) ( ) )f x s , u s , s , x t( ) =x. Đầu tiên, ta giả sử rằ ng hàm giá trị V x, t( ) là tồn tại với mọi x và trong tập xáct định.
Nguyên lý tối ưu của Bellman khẳng định rằng mỗi đoạn cuối của quỹ đạo trạng thái tối ưu đều là một quỹ đạo trạng thái tối ưu Điều này có nghĩa là các quyết định tối ưu trong quá trình ra quyết định sẽ dẫn đến những kết quả tối ưu cho toàn bộ quỹ đạo, khẳng định tính nhất quán và hiệu quả trong việc tìm kiếm giải pháp tối ưu.
Chúng ta sẽ áp dụng nguyên lý tối ưu Bellman để xác định các điều kiện cho hàm giá trị V(x, t) Hình 1.1 minh họa thành phần tối ưu x*(t) trong không gian thời gian - trạng thái, cùng với hai điểm liền kề (x, t) và (x + δx, t + δt), trong đó δt là một khoảng thời gian rất nhỏ và x + δx = (x + t δt) Hàm giá trị thay đổi từ V(x, t) đến V(x + δx, t + δt) giữa hai điểm này Sự thay đổi trong hàm mục tiêu được chia thành hai phần: đầu tiên là sự thay đổi hàm J từ t đến t + δt; thứ hai là hàm giá trị V(x + δx, t + δt) tại thời điểm t + δt Điều kiện u(τ) sẽ được chọn sao cho nằm trong Ω, với τ ∈ [t, t + tτ], nhằm cực đại hóa tổng của hai toán tử này.
Hình 1.1: Đường tối ưu trong mặt phẳng thời gian trạng thái
, (1.4) với δtbiểu diễn một số gia nhỏ của t Và so sánh với phương trình định nghĩa trong (1.3):
F x s , u s , s ds( ( ) ( ) ) + ( ( )S x T , T ,) do F là hàm liên tục trên [t, t+δt], tồn tại τ ∈[t, t+δt] sao cho:
Ta viết lại (1.4) như sau:
V x, t( ) = max u∈Ω{F x, u, t δt( ) +V x t[ ( +δt , t) +δt] + ( )} o δt , (1.5) trong đó o δt( ) là một hàm vô cùng bé bậc cao hơn bậc Giả sử rằng hàm giá trị V có các đạo hàm riêng liên tục với mọi đối số, ta có thể áp dụng xấp xỉ Taylor để phân tích hàm V theo đối số δt.
V x t[ ( +δt , t) +δt] =V x, t( ) + [Vx(x, t x) ˙ +Vt(x, t δt)] + ( )o δt , (1.6) với Vx vàVt là đạo hàm riêng của V x, t( )theo và x t
Thay x t˙( ) = ( ( ) ( ) )f x t , u t , t vào phương trình (1.6), sau đó thế vào (1.5) ta được:
BỏV x, t( ) ở hai vế và chia cho δt ta được:
Ta cho δt→ 0và suy ra phương trình:
0 = max u∈Ω{F x, u, t( ) +V x (x, t f x, u, t) ( ) +V t (x, t)}, (1.7) với điều kiện biên:
Ta ký hiệu véc tơ giá trị biên bởi véc tơ đ ồng trạng thái λ t( ) ∈R n : λ t( ) =Vx(x ∗ ( ) ) :=t , t Vx(x, t)|x x = ∗ ( ) t (1.9)
Ta định nghĩa hàm Hami l ton:
Phương trình Hamilton - Jacobi - Bellman được biểu diễn bởi công thức 0 = max u∈Ω[ (H x, u, Vx, t) +Vt] Điều kiện cực đại của hàm Hamilton trong nguyên lý cực đại có thể được suy ra từ các phương trình (1.9) và (1.11) Nếu x ∗ ( )t và u ∗ ( )t đại diện cho các giá trị tối ưu của biến trạng thái và biến điều khiển, thì λ t( ) là giá trị tương ứng của biến đồng trạng thái tại thời điểm t Để đạt được điều kiện tối ưu, biến điều khiển u ∗ ( )t phải thỏa mãn phương trình (1.11) với mọi u∈Ω.
BỏV t ở hai vế, ta suy ra:
H x[ ∗ ( )t , u ∗ ( )t , λ t , t( ) ]≥H x[ ∗ ( )t , u, λ t , t ,( ) ] (1.13) với mọi u∈Ω Tiếp theo, ta xây dựng phương trình đồng trạ ng thái.
Phương trình đồng trạng thái
Xét nhiễu nhỏ của quỹ đạo t ối ưu: x t( ) = x ∗ ( ) +t δx t ,( ) (1.14) với δx t , δx t( ) k ( )k < ǫ, không âm đủ nhỏ Từ (1.13) ta có thể viết như sau:ǫ
Từ (1.11), vế trái của (1.15) bằng một giá trị nhất định Vế phải chỉ đạt giá trị này khi x t( ) = x ∗ ( )t Trong trường hợp tổng quát, x t( ) = 6 x ∗ ( )t, điều này không xảy ra Do đó, công thức vế phải của (1.15) đạt cực đại tại x t( ) = x ∗ ( )t.
Giả sử hàm V có các đạo hàm riêng liên tục hai lần với mọi đối số, khi đó dựa trên định nghĩa của hàm Hamilton và tính chất Vxx = (Vxx)T, chúng ta có thể suy ra một số kết quả quan trọng.
Lấy đạo hàm theo thời gian củat V x (x, t), ta có: dV x dt = dV x 1 dt ,dV x 2 dt , ,dV x n dt
Thế (1.18) vào (1.1 7 ) ta có: dV x dt =−F x −V x f x (1.19)
Theo định nghĩa trong (1.9 ), ta viết (1.19) thành: λ˙ =−F x −λf x
Từ định nghĩa hàm H trong (1.10) ta thấy rằng vi phân từng phần H theo biến , biếnx đồng trạng thái λkhông phụ thuộc vào mà chỉ phụ thuộc vào x t λ˙ =−Hx (1.20)
Từ định nghĩa λtro ng (1.9) và điều kiện biên (1.8), ta có điều k i ện h oàn h sau: λ T( ) = ∂S x, T( )
Phương trình đồng trạng thái (1.20) và điều kiện biên (1.21) được dùng để xác định những biến đồng trạng thái.
Từ định nghĩa hàm Hamilton H x, u, λ, t( ) = F x, u, t( ) +λf x, u, t( ), ta viết phương trình trạng t hái như sau: ˙ x=f =H λ (1.22)
Kết hợp với (1.20), (1.21) và (1.22) ta được hệ:
(1.23) được gọi là hệ phương trình đồng trạng thái dạng chính tắc, λ được gọi là véc tơ đồng trạng thái.
Nguyên lý cực đại
Từ những kết quả thu được, có thể xác định các điều kiện cần cho điều khiển tối ưu Định lý 1.1 nêu rõ rằng nếu (u ∗ ( )t , x ∗ ( ))t là nghiệm của bài toán (P 1 ), thì tồn tại một hàm λ t( ) khả vi từng khúc.
• Điều khiể n tối ưuu ∗ ( )t cực đại hóa hàm H(x ∗ ( )t , u ∗ ( )t , λ ∗ ( )t , t), hay
• Biến đồng trạng thái thỏa mãn ph ươn g trình sau: λ˙ =−H x (x ∗ , u ∗ , λ, t , λ T) ( ) =S x [x ∗ ( )T , T ] (1.25)Những điều kiện cần này được gọi là nguyên lý cực đại.
Điều kiện đủ
Đầu tiên, ta định nghĩa một hàm H 0 :R n ×R m ×R 1 → R 1 được gọi làhàm dẫn xuất Hamilton như sau:
Giả sử rằng, hàmu=u 0 (x, λ, t)là hàm ẩn và được định nghĩa duy nhất Ta viết lại (1.26) như sau:
H 0 (x, λ, t) =H x, u( 0 , λ, t ) (1.27) Lấy đạo hàm của (1.27 ) theo biến :x
Có hai trường hợp cần nghiên cứu:
• Cực đại toàn cục không ràng buộc của H xảy ra ở miền trong của Ω Suy ra
• Cực đại toàn cục không ràng buộc củaH xảy ra ở miền ngoài Suy raΩ ∂u 0 /∂x= 0, vì sự thay đổi của không ảnh hưởng đến giá trị củax u 0
Hàm H x 0 (x, λ, t) bằng với H x (x, u 0 , λ, t) cho mọi x Định lý 1.2 chỉ ra rằng, nếu u ∗(t) và x ∗(t), λ(t) thỏa mãn điều kiện cần theo định lý 1.1, thì u ∗ là một điều khiển tối ưu Điều này xảy ra khi H 0 (x, λ(t), t) tồn tại và là hàm lõm theo x cho mọi t, đồng thời S x, T(x) cũng là hàm lõm theo x.
Theo định nghĩa (1.26) ta có:
VìH 0 là hàm khả vi và lõm Theo tính chất hàm lõm xem phụ lục
Từ (1.32) suy ra (1.33), từ (1.27) suy ra (1.34), (1.35) như sau:
+ ( ) [λ t f x ∗ ( )t , u ∗ ( ) ]t , t − λ t x t˙( )[ ( )−x ∗ ( )]t (1.36) Hơn nữa,S x, T[ ]là một hàm lõm theo , ta có:x
S x[ ∗ ( )T , T]−S x T , T[ ( ) ] +S x [x ∗ ( )T , T x T][ ( )−x ∗ ( )]T ≥0 (1.38) Lấy tích phân hai vế của (1.36) và cộng với (1.38), ta được:
Trong đó J u( ) là giá trị của hàm mục tiêu kết hợp với một điều khiển Vìu x ∗ (0) x(0) =x 0 ,λ T( ) =S x [x ∗ ( )T , T], ta có :
Vì vậy, u ∗ là một điều khiển tối ưu Định lý được chứng minh.
Ý nghĩa kinh tế của nguyên lý cực đại
Biến đồng trạng thái
Ta viết lại hàm Hamilton của bài toán như sau:
Suy ra, F x, u, t( ) =H x, u, λ, t( )−λf x, u, t( ), thay vào (1.41) ta được:
H x, u, λ, t( ) + ˙λ ∗ ( )t x ∗ ( )t dt−λ T x( ) T + (0)λ x0 (1.46) Xét giá t rị hàm mục tiêu tại nghiệm tối ưu (x ∗ , u ∗ , λ ∗ ):
Lấy đạo hàmJ ∗ theo vốn ban đầux 0 và vốn cuối (tối ưu) x ∗ T ta được:
Công thức ∂x ∗ T =−λ ∗ ( )T xác định λ ∗ (0) như một thước đo độ nhạy của tổng lợi nhuận tối ưu J ∗ đối với vốn ban đầu Khi có thêm một đơn vị vốn vô cùng bé, tổng lợi nhuận J ∗ sẽ tăng thêm một lượng λ ∗ (0) Do đó, biểu thức này có thể được coi là giá bóng (giá ẩn) của một đơn vị vốn ban đầu.
Trong đạo hàm riêng thứ hai, giá trị cuối của đường đồng trạng thái tối ưu λ ∗ ( )T thể hiện tốc độ thay đổi âm của H ∗ theo số vốn cuối tối ưu Nếu quyết định để lại thêm một đơn vị vốn ở cuối kỳ kế hoạch, tổng lợi nhuận sẽ bị hi sinh một lượng tương ứng là λ ∗ ( )T Do đó, giá trị λ ∗ tại thời gian này lại một lần nữa được nhấn mạnh.
T đo giá bóng của một đơn vị vốn ở cuối kỳ.
Nói chung,λ ∗ ( )t là giá bóng của vốn tại thời điểm cụ thể đó.
Hàm Hamilton và triển vọng lợi nhuận
Như trên, ta có hàm Hamilton của bài to án là:
Từ (1.48), lợi nhuận F tại thời điểm hiện tại phụ thuộc vào số vốn có sẵn và quyết định lựa chọn tại thời điểm đó Chúng ta có thể coi F là "lợi nhuận trước mắt tương ứng với chính sách tối ưu u".
Thành phần thứ hai của hàm Hamilton (1.48), được biểu diễn bởi hàm f(x, u, t), thể hiện tốc độ thay đổi của vốn hiện tại theo chính sách Khi hàm f được nhân với giá bóng λ(t), nó chuyển đổi thành giá trị tiền tệ Do đó, thành phần này phản ánh lợi nhuận tiềm năng mà u sẽ mang lại trong tương lai.
Quyết định chính sách có thể tạo ra lợi nhuận trước mắt nhưng thường phải đánh đổi với lợi nhuận tương lai Hàm Hamilton thể hiện mối quan hệ giữa lợi nhuận hiện tại và lợi nhuận tiềm năng trong tương lai từ các quyết định chính sách.
Nguyên lý cực đại đòi hỏi cực đại hàm Hamilton theo Ta có:u
Hệ thức này chỉ ra rằng khi lựa chọn u ∗, nếu tăng u, lợi nhuận biên trước mắt phải bằng với số lợi nhuận biên tương lai bị mất.
Phương trình đồng trạng thái
Phương trình đồng trạng thái đối với biến đồng trạng thái là: λ˙ =−∂H
Vế trái của (1.49) ký hiệu tốc độ giảm của giá bóng theo thời gian, hoặc tốc độ sụt giá của giá bóng.
Phương trình chuyển động yêu cầu tốc độ đạt được bằng tổng hai số hạng ở vế phải của (1.49) Số hạng đầu tiên thể hiện đóng góp biên của vốn vào lợi nhuận hiện tại, trong khi số hạng thứ hai phản ánh đóng góp biên của vốn trong việc gia tăng giá trị của nó Nguyên lý cực đại chỉ ra rằng giá trị của vốn giảm theo tốc độ mà vốn đã đóng góp vào lợi nhuận hiện tại và tương lai của doanh nghiệp.
Điều kiện hoà nh
Tại thời điểm cuối T, với trạng thái tự do x( )T, điều kiện λ T( ) = 0 cho thấy giá bóng của vốn phải bằng 0 Điều này phản ánh rằng giá trị vốn của công ty phụ thuộc vào khả năng sinh lợi nhuận Khi có một kế hoạch cứng T, chỉ những lợi nhuận trong khoảng thời gian [0, t] mới có ý nghĩa, vì bất kỳ vốn nào còn lại vào cuối thời kỳ sẽ không có giá trị kinh tế Do đó, giá bóng của vốn tại thời điểm T là 0, và công ty sẽ không chú trọng vào việc tích lũy vốn nghiêm túc vào cuối kỳ hoạch Thay vào đó, vào thời điểm T, công ty sẽ cố gắng sử dụng hết số vốn của mình.
Bài toán điều khiển tối ưu có ràng buộc hỗn hợp trạng thái và điều khiển
Trong chương trước, chúng ta đã phân tích bài toán liên quan đến ràng buộc của biến điều khiển Tuy nhiên, các mô hình ứng dụng thực tế yêu cầu bổ sung thêm các ràng buộc cho cả biến điều khiển và biến trạng thái.
Ràng buộc bất đẳng thức hỗn hợp bao gồm các biến điều khiển và biến trạng thái, tạo ra những miền nghiệm nơi ràng buộc là chặt Khi ràng buộc chặt được thiết lập, hệ thống cần được điều chỉnh để đảm bảo không vi phạm các ràng buộc này Điều này được thực hiện thông qua việc thêm vào hàm Hamilton một đại lượng ràng buộc hỗn hợp, nhằm xây dựng hàm Lagrange và xác định điểm dừng Lagrange.
Bố cục của chương này như sau:
• Trong phần (2.1), ta phát biểu nguyên lý cực đại cho bài toán với những ràng buộc bất đẳng thức hỗn hợp.
• Trong phần (2.2), ta phát biểu những điều kiện để nguyên lý cực đại cũng là điều kiện đủ.
• Trong phần (2.3), ta trình bày công thức giá trị hiện thời.
• Trong phần (2.4), ta trình ứng dụng kinh tế với mô hình Eisner - Strotz.
Nội dung chương này được tham khảo trong [6], [9], [10].
Bài toán với ràng buộc bất đẳng thức hỗn hợp
Chúng ta sẽ trình bày nguyên lý cực đại cho bài toán điều khiển tối ưu với các ràng buộc hỗn hợp Hệ thống được mô tả bằng phương trình trạng thái: ˙x = f(x, u, t) với điều kiện ban đầu x(0) = x₀ Quá trình điều khiển diễn ra trong khoảng thời gian t ∈ [0, T], với x(t) thuộc Rⁿ và u(t) thuộc Ω ⊆ Rᵐ Hàm f: Rⁿ × Rᵐ × R → Rⁿ có các đạo hàm riêng liên tục.
Ta xét bài toán (P 2 ): max
Trong đó, F : R n ×R m ×R 1 → R 1 và S : R n ×R 1 → R 1 là những hàm có các đạo hàm riêng liên tục và T là thời gian cuối.
Chúng tôi đặt ra các ràng buộc đối với biến điều khiển u(t) và biến trạng thái x(t) cho mọi t ∈ [0, T] như sau: g(x, u, t) ≥ 0, t ∈ [0, T], trong đó g: R^n × R^m × R^1 → R^q là hàm có các đạo hàm riêng liên tục với mọi biến và bao gồm số hạng có u.
Những ràng buộc của trạng thái cuối được viết dưới dạng: a x T , T( ( ) )≥0, (2.4) b x T , T( ( ) ) = 0, (2.5) với các hàm a R: n ×R 1 → R l a và b R: n ×R 1 → R l b là hàm có các đạo hàm riêng liên tục với mọi biến số.
Điều khiển u(t) được coi là chấp nhận được nếu nó là liên tục từng khúc và kết hợp với đường cong trạng thái x(t), thỏa mãn các ràng buộc (2.3), (2.4) và (2.5) Để phát biểu nguyên lý cực đại, ta định nghĩa hàm Hamilton H: R^n × R^m × R → R như sau:
H x, u, λ, t[ ] :=F x, u, t( ) +λf x, u, t ,( ) (2.6) với λ∈R n là một véc tơ hàng.
Ta cũng định nghĩa h àm Lagrange L R: n ×R m ×R n ×R q ×R 1 →R 1 như sau:
L x, u, λ, à, t[ ] =H x, u, λ, t( ) +àg x, u, t ,( ) (2.7) với à ∈ R q là một vộc tơ hàng, những thành phần của nú được gọi là những nhõn tử Lagrange.
Những nhân tử Lagrange này thỏa mãn những điều kiện bù: à≥0, àg x, u, t( ) = 0 (2.8)
Véc tơ đồng trạng thái là nghiệm của phương trình vi phân λ˙ =−L x [x, u, λ, à, t ,] với các điều kiện biên λ T( ) =S x ( ( )x T , T) +αa x ( ( )x T , T) +βb x ( ( )x T , T ,) và α≥0, αa x T , T( ( ) ) = 0 Trong đó, α∈R l a và β ∈R l b là các véc tơ hằng số Để phát biểu điều kiện cần cho bài toán P 2, ta giả thiết điều kiện hạng được thỏa mãn.
• Các ràng buộc hoạt động của (2.3) có các véc tơ gradient đối với biến ulà độc lập tuyến tính.
Các ràng buộc đẳng thức và ràng buộc hoạt động có các véc tơ gradient đối với biến độc lập tuyến tính Định lý 2.1 (Điều kiện cần) chỉ ra rằng nếu u* là điều khiển tối ưu với trạng thái tối ưu tương ứng x*, thì tồn tại một hàm λ liên tục có đạo hàm liên tục từng khúc, cùng với hàm a liên tục từng khúc.
• Véc tơ biến điều khi ểnu ∗ ( )t cực đại hàm Hamilton:
H x[ ∗ ( )t , u ∗ ( )t , λ t , t( ) ]≥H x[ ∗ ( )t , u, λ t , t( ) ] với mọi u t( )∈Ω, mọi u thỏa mãn: g x[ ∗ ( )t , u, t]≥0.
• Phương trình đồng trạng thái với điều k i ện h oàn h: λ˙ =−L x [x ∗ , u ∗ , λ, à, t] λ T( ) =S x (x ∗ ( )T , T) +αa x (x ∗ ( )T , T) +βb x (x ∗ ( )T , T ,) α≥0, αa x( ∗ ( )T , T) = 0.
• Phương trình trạn g thái với đ i ều kiện: ˙ x ∗ = (f x ∗ , u ∗ , t , x) ∗ (0) =x 0 a x( ∗ ( )T , T)≥0 vàb x( ∗ ( )T , T) = 0.
• u ∗ là điể m dừng của hàm Lagrange, kết hợp với điều kiện bù:
Điều kiện đủ
Here is a rewritten paragraph that complies with SEO rules:"Để tìm ra điều kiện đủ cho vấn đề tối ưu, chúng ta xét trường hợp (x∗, u∗, λ, à, α, β) thỏa mãn các điều kiện cần trong định lý 2.1 Nếu hàm H(x, u, λ, t) là hàm lõm theo (x, u) tại mỗi điểm t thuộc đoạn [0, T], hàm S(x, T) là hàm lõm theo x, hàm g(x, u, t) là hàm tựa lõm theo (x, u), hàm a(x, T) là hàm tựa lõm theo x và hàm b(x, T) là hàm tuyến tính theo x, thì nghiệm (x, u) = (x∗, u∗) là nghiệm tối ưu."
Theo giả thiết ta có:H = F + fλ Nên F = H - f = H-λ λx.˙
Hơn nữa, Từ S x, T[ ] là hàm lõ m theox xem phụ lục
S x[ ∗ ( )T , T]−S x T , T[ ( ) ] +Sx[x ∗ ( )T , T x T][ ( )−x ∗ ( )]T ≥0 (2.13) Cộng (2.12) và (2.13) và rút gọn ta được:
Ta có λ T( ) = S x (x ∗ ( )T , T) +αa x (x ∗ ( )T , T) +βb x (x ∗ ( )T , T) từ điều kiện cuối (2.10) Ta được:
Theo giả thiết a x T , T( ( ) )là hàm lõm theo vàx g x, u, t( )là hàm lõm theo(x, u)(xem phụ lục) Ta có: αa x (x ∗ ( )T , T x T)[ ( )−x ∗ ( )]T ≥0 à
Và b x T , T( ( ) ) là hàm tuyến tính theo Vậyx J ∗ ≥J với mọi u∈R m
Ta suy ra (x ∗ ( )t , u ∗ ( ))t là tối ưu Điều phải chứng minh.
DoL=H +àg NờnH =L−àg ta cú:
Công thức giá trị hiện thời
Trong các ứng dụng kinh tế của lý thuyết điều khiển tối ưu, hàm dưới dấu tích phân
F thường chứa thừa số chiết khấu e −ρt Một hàm F như thế nói chung có dạng:
F x, u, t( ) = (φ x, u e) −ρt và S x, T( ) = ( )σ x e ρT , cho nên bài toán điều khiển tối ưu đặt ra là: max
Ta có hàm Hamilton và hàm Lagrange lần lượt là :
L s = H s +à s g x, u, t ,( ) (2.16) với những biến đồng trạng thái λ s và những nhân tử α s vàβ s thỏa mãn: λ˙ s =−L s x , (2.17) λ s ( ) =T S x [ ( )x T , T] +α s a x ( ( )x T , T) +β s b x ( ( )x T , T ,)
=e −ρT δx[ ( )] +x T α s ax( ( )x T , T) +β s bx( ( )x T , T ,) (2.18) α s ≥0, α s a x T , T( ( ) ) = 0, (2.19) và à s thỏa món: à s ≥0, à s g = 0 (2.20)
Hàm giá trị hiện thời Hamilton và hàm giá trị hiện thời Lagrange được định nghĩa lần lượt là:
L x, u, λ, à, t[ ] = H+àg x, u, t ( ) (2.22) Để thấy t ạ i sao ta làm điều này, ta chú ý rằng nếu định nghĩa: λ=e ρt λ s vàà =e ρt à s , (2.23) ta có thể viết lại (2.15) và (2.16) như sau:
Vìe ρt >0, cực đại H s theo biến tại thời điểm tương đương với cực đại hàm giá trịu t hiện thời Hamilton theo tại thời điểm Từ (2.23), ta có:u t λ˙ =ρe ρt λ s +e ρt λ˙ s (2.25 )
Vìλ=e ρt λ s ,λ˙ s =−L s x vàL=e ρt L s Thế vào (2.25) ta được: λ˙ = ρλ−L x
Từ (2.18), ta có thể thiết lập công thức λ T( ) =σ x [ ( )] +x T αa x ( ( )x T , T) +βb x ( ( )x T , T ,) (2.26), trong đó α=e ρt α s và β=e ρt β s (2.27) Các điều kiện cần thiết cho các tham số hiện tại và α bao gồm: à≥0, àg = 0, α≥0 và αa= 0 (2.28) Điều kiện hòa nh cần thiết cho T ∗ để tối ưu là rất quan trọng.
Nguyên lý cực đại được phát biểu qua hàm giá trị hiện thời, theo đó, nếu \( u^* \) là điều khiển tối ưu với trạng thái tối ưu tương ứng \( x^* \), thì tồn tại một hàm \( \lambda \) liên tục có đạo hàm liên tục từng khúc, hàm \( a \) liên tục từng khúc, cùng với các hằng số \( \alpha \) và \( \beta \) thỏa mãn điều kiện cần trong định lý 2.3.
• Véc tơ biến điều khi ểnu ∗ ( )t cực đại hàm Hamilton:
H x[ ∗ ( )t , u ∗ ( )t , λ t , t( ) ]≥H x[ ∗ ( )t , u, λ t , t ,( ) ] với mọi t∈[0, T], mọi u thỏa mãn:g x[ ∗ ( )t , u, t]≥0.
• Phương trình trạn g thái với đ i ều kiện hoành: λ˙ =ρλ−Lx[x ∗ , u ∗ , λ, à, t ,] λ T( ) =σ x (x ∗ ( )) +T αa x (x ∗ ( )T , T) +βb x (x ∗ ( )T , T ,) α≥0, αa x( ∗ ( )T , T) = 0.
• Phương trình trạn g thái với đ i ều kiện: ˙ x ∗ = (f x ∗ , u ∗ , t , x) ∗ (0) =x 0 a x( ∗ ( )T , T)≥0 vàb x( ∗ ( )T , T) = 0,
• u ∗ là điể m dừng của hàm Lagrange, kết hợp với điều kiện bù:
Ví dụ ứng dụng: Mô hình Eisner - Strotz
[ ( )φ x −C u e( )] −ρt dt, (2.30) thỏa mãn: ˙ x= u (2.31) x(0) =x0( x0 cho trước) (2.32)
-φ là hàm lợi nhuận gắn với vốn x,
- làx số vốn( bi ến trạng thái),
-C là chi phí điều chỉnh,
- làu đầu tư ròng (biến đi ều khiển). và thỏa mãn: φ ” ( )x < , C0 ′ ( )u >0và C ” ( )u >0.
Theo nguyên lý cực đại ta có:
∂x =−φ ′ ( )x e −ρt (2.36) Đây là dạng nguyên lý cực đại chuẩn, nếu ta sử dụng Hamilton theo giá trị hiện thời ta được:
Dạng sau đơn giản hơn bởi vì nó không chứa thừa số chiết khấu e −ρt
∂u =C ′′ ( )u > ,0 chứng tỏ,λ s là hàm đơn điệu tăng của Từ đó, có có thể viết hàm ngượcu ψ =C ′−1 : u= (ψ λ s ) (2.40)
Gộp các phương trình (2.39) và (2.41) tạo thành hệ hai phương trình đồng thời theo các biến vàx λ s Giải hệ phương trình này cho phép xác định đường đi x ∗ ( )t và λ s ( )t, từ đó xác định hằng số tùy ý dựa trên các điều kiện biên và điều kiện hoành Cuối cùng, đường tối ưu u ∗ ( )t được tìm ra thông qua phương trình (2.40).
Bài toán điều khiển tối ưu có ràng buộc trạng thái thuần nhất và ràng buộc hỗn hợp
Trong chương 1, ta đã nghiên cứu bài toán chỉ có ràng buộc điều khiển Trong chương
Chương này mở rộng nghiên cứu về bài toán có ràng buộc hỗn hợp, bao gồm cả biến điều khiển và biến trạng thái Chúng ta sẽ tập trung vào các ràng buộc trạng thái, được gọi là ràng buộc trạng thái thuần nhất Những ràng buộc này phức tạp hơn so với các ràng buộc hỗn hợp, vì khi chúng là chặt, thông tin về biến điều khiển không đủ để đảm bảo rằng ràng buộc không bị vi phạm Nội dung chương này được tham khảo trong
Ràng buộc bất đẳng thức trạng thái thuần nhất
Điều kiện nhảy
Khi có ràng buộc thuần nhất dạng (3.1), biến đồng trạng thái λ(t) có thể không liên tục trên khoảng [0, T] Trong ví dụ dưới đây, hàm đồng trạng thái λ(t) sẽ liên tục từng khúc, với điều kiện bước nhảy phải thỏa mãn: λ(τ−) = (λ(τ+) + (ζ(τ)), trong đó ζ(τ) ≥ 0.
H x[ ∗ ( )τ , u ∗ (τ − ), λ τ( − ) ] =, τ H x[ ∗ ( )τ , u ∗ (τ + ), λ τ( + ) ], τ , (3.10) tại thời điểm khi trạng thái đạt giá trị biên khiτ x τ( ) = 0.
Ví dụ
Ta viết lại (3.12) thành − ≤1 u ≤ 1 Đây là bài toán điều khiển tối ưu với ràng buộc thuần nhất.
H = −x+λu, Theo nguyên lý cực đại ta suy ra: u ∗ ng[ 1 1; ]− , λ , với x > 0 (3.14)
Khi x= 0, ta phải có x˙ =u≥0để x≥0được thỏa mãn Ta viết lại (3.1 4): u ∗ ng[0 1; ], λ , với mọix= 0 (3.15) Theo (3.5) ta có hàm Lagrange:
Theo (2.8) và (3.6),à1, à 2 và thỏa món những điều kiện bự sau:η à1≥0, à1( + 1) = 0u , (3.16) à 2 ≥0, à 2 (1ưu) = 0, (3.17) η ≥0, ηx= 0 ˙,η ≤0 (3.18)
Ngoài ra, đường cong tối ưu phải thỏa mãn:
Từ công thức Lagrange và (3.8) , ta suy ra: λ˙ =−∂L
0, t∈(1 2], Để suy ra λ t( ), thử λ(2) =γ = 0 Ta thấy, x ∗ ( )t tiến tới biên tạit = 1, ở đây không có bước nhảy trên khoảng(1 2], , nghiệm λ t( ) là: λ t( ) = t−2 (3.21)
Hình 3.1: Đường cong đồng trạng thái và trạng thái.
Với t∈(1 2 ], , ta có λ t( ) ≤0và x ∗ ( ) = 0t , suy ra u ∗ ( ) = 0t bởi (3.15) Từ (3.16 ) - (3.17), ta cú à 1 ( ) =t à 2 ( ) = 0t Từ (3.19) ta suy ra η t( ) =−λ t( ) = 2− ≥t 0, thỏa món (3.18). Tại t= 1 Từ (3.21) ta cóλ(1 + ) =−1 Ta áp dụng (3.10) để suy raλ(1 − ) Ta thấy rằng:
Vậy λ(1 − ) = 0 Từ (3.9) cho ta giá trị bước nhảy làζ(1) = (1λ − )−λ(1 + ) = 1≥0. Vớiλ(1 − ) = 0, ta giải (3.20) được: λ t( ) =t−1, t∈[0 1],
Ta có λ t( ) ≤ −1 và x ∗ ( ) = 1t −t > 0 trên [0 1], , từ (3.14) để suy ra u ∗ ( ) =t −1 với
Bài toán có ràng buộc trạng thái thuần nhất kết hợp với ràng buộc trạng thái hỗn hợp
hợp với ràng buộc trạng thái hỗn hợp
Chúng ta sẽ trình bày nguyên lý cực đại cho bài toán điều khiển tối ưu với ràng buộc trạng thái thuần nhất và ràng buộc trạng thái hỗn hợp Hệ thống được mô tả bởi phương trình trạng thái: ˙x = f(x, u, t, x) với điều kiện ban đầu x(0) = x0 Quỹ đạo điều khiển t, t( ) ∈ [0, T] với x(t) ∈ R^n và u(t) ∈ R^m, trong đó hàm f: R^n × R^m × R^1 → R^n có các đạo hàm riêng liên tục.
Ta xét bài toán (P 3 ): max
Trong đó, F : R n ×R m ×R 1 → R 1 và S : R n ×R 1 → R 1 là những hàm có các đạo hàm riêng liên tục và T là thời gian cuối.
Chúng tôi đặt các ràng buộc đối với biến điều khiển \( u(t) \) và biến trạng thái \( x(t) \) cho mọi \( t \in [0, T] \) như sau: \( g(x, u, t) \geq 0, \, t \in [0, T] \) (3.24), trong đó \( g: \mathbb{R}^{n} \times \mathbb{R}^{m} \times \mathbb{R} \to \mathbb{R}^{q} \) là một hàm có các đạo hàm riêng liên tục với mọi biến và bao gồm số hạng có \( u \).
Những ràng buộc của trạng thái cuối được viết dưới dạng: a x T , T( ( ) )≥0, (3.25) b x T , T( ( ) ) = 0, (3.26) với các hàm a R: n ×R 1 → R l a và b R: n ×R 1 → R l b là hàm có các đạo hàm riêng liên tục với mọi biến số.
Những ràng buộc bất đẳng thức trạng thái thuần nhất: h x, t( )≥0 (3.27)
Giả sử hàm h : R n × R 1 → R p có các đạo hàm riêng liên tục, thì điều kiện (3.27) tương đương với một tập ràng buộc h i (x, t) ≥ 0, với i = 1, 2, , p Ràng buộc h i ≥ 0 được gọi là ràng buộc bậc, nếu đạo hàm bậc của h i lần đầu tiên xuất hiện sau khi thay thế x˙ = f trong mỗi bước lấy đạo hàm.
Trong phần này ta chỉ nghiên cứu bài toán có ràng buộc bậc 1 (r= 1) Trong trường hợp này, t a định nghĩa hàm h 1 (x, u, t)như sau: h 1 = dh ht = ∂h
Để phát biểu điều kiện cần cho bài toán P3, ta giả thiết các điều kiện hạng sau: ∂t (3.28) à≥0, với η∈R p (một véc tơ hàng) thỏa mãn điều kiện η ≥0, ηh x, t( ) = 0 ˙, và η ≤0.
• Các điều kiện hạng cho bài toán P 2 được thỏa mãn.
Các thành phần của h1 tương ứng với các ràng buộc hoạt động trong (3.27) có véc tơ gradient đối với biến là độc lập tuyến tính Định lý 3.1 (Điều kiện cần) khẳng định rằng nếu u∗ là nghiệm của bài toán (P3), thì tồn tại một biến đồng trạng thỏi cùng với các nhân tử λ, α, β, γ, η và bước nhảy ζ thỏa mãn các điều kiện nhất định.
• Véc tơ biến điều khi ển u ∗ ( )t cực đại hàm Hamilton:
H x[ ∗ ( )t , u ∗ ( )t , λ t , t( ) ]≥H x[ ∗ ( )t , u, λ t , t ,( ) ] với mọi t∈[0, T], với mọi u thỏa mãn: g x[ ∗ ( )t , u, t]≥0. h 1 i (x ∗ ( ) )t , t ≥0 khi h i (x ∗ ( ) ) = 0t , t , i= 1 2, ,ã ã ã, p.
• Biến đồng trạng thái λ thỏa mãn: λ˙ =−Lx[x ∗ , u ∗ , λ, à, η, t ]
• Biến trạng thái thỏa mãn: ˙ x ∗ = (f x ∗ , u ∗ , t , x) ∗ (0) =x 0 , g x( ∗ , u ∗ , t)≥0, h x( ∗ , t)≥0,
• Nhõn tử Lagrange à t( ) thỏa m ón:
• Điều kiện cuối và những điều kiện hoành: a x( ∗ ( )T , T)≥0 vàb x( ∗ ( )T , T) = 0, λ T( − ) =S x (x ∗ ( )T , T) +αa x (x ∗ ( )T , T) +βb x (x ∗ ( )T , T) +γh x (x ∗ ( )T , T ,) α≥0, αa x( ∗ ( )T , T) = 0, γh x( ∗ ( )T , T) = 0.
• Những đi ều kiện bước nhảy tại thời điểm tiếp xúc :τ λ τ( − ) = (λ τ + ) + ( )ζ τ hx(x ∗ ( ) )τ , τ
• Những đi ều kiện bù: à t( )≥0, à t g x( ) ( ∗ , u ∗ , t) = 0, η t( )≥0,η˙ ≤0 ( ) (, η t h x ∗ ( ) ) = 0t , t , và ζ τ( )≥0, ζ τ h x( ) ( ∗ ( ) ) = 0τ , τ đ ược thỏa mãn.
Điều kiện đủ
Để xây dựng điều kiện đủ, ta định nghĩa hàm Hamilton H và hàm Lagrange L d như sau:
Định lý 3.2 nêu rõ điều kiện đủ cho (x ∗ , u ∗ , λ, à, α, β, γ, ζ , η) thỏa mãn các điều kiện cần thiết Cụ thể, nếu λ d được xác định theo công thức λ d ( ) = ( ) + ( )t λ t η t h x (x ∗ ( ) )t , t và hàm H x, u, λ( d ( ) )t , t là lõm trong (x, u) cho mọi t∈[0, T], thì S trong (3.23) cũng phải là lõm theo x, g trong (3.24) tựa lõm theo (x, u), h trong (3.27) và a trong (3.25) là tựa lõm theo x, trong khi b trong (3.6) là tuyến tính theo x Dựa trên những điều kiện này, (x ∗ , u ∗ ) sẽ đạt được tính tối ưu.
Chứng minh Tương tự định lý 2.2.
Ví dụ áp dụng: Bà i toán số dư tài khoản
Mô hình
Để phát biểu rõ ràng bài toán điều khiển tối ưu, ta giới thiệu những ký hiệu sau đây:
Khoảng thời gian t xác định số dư tiền mặt tại thời điểm t là y(t) và số dư tài khoản chứng khoán tại thời điểm t là d(t) Tỉ lệ tức thời của yêu cầu tiền mặt d(t) có thể là dương hoặc âm, trong khi tốc độ bán hàng chứng khoán được biểu thị bằng u(t).
Tốc độ bán âm đề cập đến tốc độ mua hàng, với lãi suất kiếm được trên số dư tài khoản là r1(t) và lãi suất trên số dư tài khoản chứng khoán là r2(t) Tiền hoa hồng môi giới được ký hiệu là α, với điều kiện 0 < α < 1 Phương trình trạng thái mô tả sự thay đổi của biến x theo thời gian là ˙x = r1x - d + u - ||αu, với điều kiện ban đầu x(0) = x0, trong khi biến y được mô tả bởi ˙y = r2yu - u, với y(0) = y0.
−U 2 ≤u t( ) ≤U 1 , (3.34) trong đó, U 1 và U 2 là những hằng số không âm.
J = x T( ) + ( )y T (3.35) thỏa mãn (3.32) - (3.33) Đây là bài toán có dạng Mayer tuyến tính.
Giải bằng nguyên lý cực đại
Gọiλ 1 vàλ 2 là những biến đồng trạng thái và ta định nghĩa hàm Hamilton:
H = λ 1 (r 1 xưd+uư | |) +α u λ 2 (r 2 yưu ) (3.36) Những biến đồng trạng thái thỏa mãn phương trình vi phân: λ˙ 1 =−∂H
Ta có thể giải hệ trên để nhận được: λ 1 ( ) =t e
Ta có thể giải thích những nghiệm này như sau,λ 1 ( )t là giá trị tương lai (tại thời điểm
T) của một đô la đã được giữ trong tài khoản tiền mặt từ thời điểm tớit T và λ2( )t là giá trị tương lai của một đô la đã đầu tư chứng khoán từ thời điểm tới t T
Chúng ta sẽ xác định chính sách tối ưu bằng cách tối đa hóa hàm Hamilton trong (3.36) thông qua việc lựa chọn biến điều khiển u Để thực hiện điều này, chúng ta biểu diễn hàm trị tuyệt đối dưới dạng hiệu của hai biến không âm, với hàm điều khiển được viết như sau: u = u1 - u2, trong đó u1 ≥ 0 và u2 ≥ 0.
Ta đưa thêm ràng buộc: u 1 u 2 = 0, (3.42) để tránh việc vừa bán vừa mua chứng khoản do phải trả chi phí Từ (3.41) và (3.42) ta có thể viết:
Thế (3.41 ) và (3.43) vào phương trình Hamilton (3.3 6) ta có:
Cực đại hàm Hamilton (3.36) được đạo hàm tương tự như cực đại hàm W theo các biến u1 và u2 Tuy nhiên, hàm W là tuyến tính với u1 và u2, trong khi các giá trị tối ưu của chúng là bang-bang, cụ thể là: u* = u*1 - u*2 (3.45).
Vìu1( )t miêu tả tốc độ bán chứng khoán khi(1−α λ) 1 > λ 2 Ta có chính sách tối ưu là:
Bán với tốc độ tối đa cho phép khi giá trị tương lai của 1−α đô la trong tài khoản tiền mặt vượt quá giá trị tương lai của một đô la đầu tư vào chứng khoán.
• Không bán tro ng trường hợp ngược lại.
Tương t ự, u 2 ( )t miêu tả sự mua chứng khoán khi λ 2 >(1 + )α λ 1 Do đó, ta có chính sách tối ưu là:
• Ta mua nếu giá trị tương lai của một đô la đầu tư chứng khoán lớn hơn giá trị tương lai của 1 +αđô la trong tài khoản tiền mặt.
• Ta không mua trong trường hợp ngược lại.
0 1 λ 2 λ 1 Đường điều khiển đơn lẻ
Bán chứng khoán ở tốc độ cực đại
(1 − α λ ) 1 = λ 2 Đường khả năng của véc tơ biến đồng trạng thái
Hình 3.2: Chính sách tối ưu trong không gian (λ 1 , λ 2 ) ở thời điểm cực đại tư hiện tại
(1 + )α λ 1 ( )t > λ 2 ( )t , để nếu u1( )t >0, thì u2( ) = 0t Tương tự, nếu:
(1−α λ) 1 ( )t < λ 2 ( )t , để nếu u 2 ( )t > 0, thì u 1 ( ) = 0t Như vậy chính sách mua, bán tối ưu được thỏa mãn.
Một cách khác để mô tả thành phần tối ưu trong không gian(t, λ 2 /λ1) Đườngλ 1 ( )t , λ2( )t trong hình 3.2 tương ứng với đường λ 2 ( )t /λ 2 ( )t thông qua thời gian trong hình 3 3
Một mở r ộng số tiền bội chi và bán ngắn hạn
Here is a rewritten paragraph that complies with SEO rules:"Trong vấn đề số dư tài khoản, ta cũng sẽ mở rộng cho bài toán có bội chi và bán ngắn hạn Để mô tả toán học một cách chính xác, chúng ta cần đặt thêm những ràng buộc quan trọng, cụ thể là x(t) ≥ 0 và y(t) ≥ 0, được thể hiện qua công thức (3.48)."
Hình 3.3: Chính sách tối ưu trong không gian (t, λ 2 /λ 1 ) t
Bán Giữ Mua Giữ Mua Giữ
Trong (3.3 4), ta đặt U1=U2 =∞ để đơn g iản hóa Ta có hàm Lagrange:
+η 1 (r 1 xưd+uư | |) +α u η 2 (r 2 yưu) (3.49) với những biến đồng trạng thái thỏa mãn: λ˙ 1 =−∂L
∂y =−(λ 2 +η 2 )r 2 , λ 2 (T − )≥1 [, λ 2 ( )T −1] ( ) = 0y T , (3.51) Các nhân tử Lagrange η 1 và η 2 thỏa mãn điều kiện bù: η 1 ( )t ≥0, η 1 ( ) ( ) = 0t x t , η 1 ( )[t r 1 x t( )−d t( ) + ( )u t − |α u t( ) ] = 0| , (3.52) η 2 ( )t ≥0, η 2 ( ) ( ) = 0t y t , η 2 ( )[t r 2 y t( )−u t( )] = 0, (3.53) và
∂u = 0 (3.54) với mọi t∈[0, T] Nói chung, nghiệm của bài toán này là khó để giải.
Phương pháp số giải bài toán điều khiển tối ưu
Trong các chương trước, chúng ta đã trình bày các điều kiện cần thiết cho bài toán điều khiển tối ưu, được thể hiện qua nguyên lý cực đại Tuy nhiên, việc tính toán điều khiển tối ưu cho bài toán tổng quát lại rất phức tạp và gặp nhiều khó khăn khi áp dụng phương pháp số.
Bài viết này trình bày phương pháp Gradient liên hợp kết hợp với phương pháp Runge-Kutta, và ứng dụng của phương pháp này vào mô hình chu trình kinh doanh chịu ảnh hưởng của chính trị theo William Nordhaus.
Mục 4.1 trình bày, rời rạc hóa bài toán và xây dựng thuật toán bằng phương pháp gradient liên hợp cho bài toán điều khiển tối ưu.
Mục 4.2 ứng dụng phương pháp để tính toán cho mô hình William Nordhaus.
Phát biểu bài toán
Rời rạc hóa bài toán
Rời rạc hóa bài toán liên tục được thực hiện theo các bước sau:
Bước 1: Ta chia khoảng thời g ian [0, T] ra thành nđoạn bằng nhau Ta nhận được các điểm lưới t= 0, T /n, T /n, , T2
Bước 2: Tiến hành thực hiện rời rạc u theo dạng bậc thang, biến tối ưu sẽ trở thành véc tơ (u1, u2, , un) tương ứng với các giá trị tại các điểm lưới.
Bước 4: Thay (un, xn) vào phương trình (4.5) và áp dụngphương pháp Runge– Kutta [xem phụ lục] để giải phương trình vi phân này tìm (λn).
Ngoài ra, có thể dùng phương pháp n ội suy[xem phụ lục] để ước lượng giá trị củax t( ) và λ t( )giữa các điểm lưới nếu cần thiết.
Như vậy, hàm mục tiêu rời rạc được tính như sau:
Thuật toán
Sau khi thực hiện rời rạc hóa, bài toán điều khiển tối ưu vô hạn chiều được chuyển đổi thành bài toán tối ưu hữu hạn chiều, với biến điều khiển cần tìm là một véc tơ n chiều Phương pháp gradient liên hợp đã được áp dụng để giải quyết bài toán tối ưu này.
Thuật toán gradient liên hợp giải bài toán điều khiển tối ưu như sau:
Giải phương trình (4.2) bằng phương pháp Runge - Kutta bậc 4 để có các giá trị
Giải phương trình (4.5) bằng phương pháp Runge - Kutta bậc 4 để có các giá trị (λ j ) 1≤ ≤ j n
Tính chuẩn r k =▽J u( k )theo ( 4 7 ) a) Nếukrkk ≤ ⇒ǫ dừng thuật toán. b) Nếu không, đặt wk
r0 khi k= 0 rk +αkwk−1 khi k >0 với αk= kr kr k k 2 k−1 k 2
Bước 4: Giải phương trình một ẩ n
= 0,ta nhận được giá trị ρ k Bước 5: Đặtu k+1 =u k −ρ k w k , k =k+ 1và quay trở lại bước 2.
Ví dụ áp dụng: Mô hình William Nordhaus
Để làm rõ bài toán điều khiển tối ưu, chúng ta sử dụng các ký hiệu sau: u(t) đại diện cho tỷ lệ thất nghiệp tại thời điểm t (hàm điều khiển), x(t) là dự đoán thích nghi (hàm trạng thái), a là tốc độ lạm phát dự đoán trước (0 < a ≤ 1), và p là tốc độ lạm phát kỳ vọng.
T =Khoảng thời gian(T 0).
Trong mô hình William Nordhaus, cực đại số phiếu bầu của Đảng cầm quyền trong giai đoạn [0, T] được miêu tả bởi hàm:
(−u 2 −hj+hku−hax e) rt dt (4.8) với điều kiện: ˙ x= (b j−ku−(1−a x) ) (4.9) x(0) =x 0 , x( 0 cho trước) (4.10) trong đó: F x, u, t( ) = (−u 2 −hj+hku−hax e) rt vàS x T , T( ( ) ) = 0.
( 2 +− u hk e) rt −λbk z t dt( ) trong đó: λ là nghiệm của phương trình liên hợp: λ˙ =−∂H
Hàm mục tiêu rời rạ c được tính như sau:
(−u 2 i −hj+hkui−haxi)e rt dt (4.13)
( 2 +− u hk e) rt −λbk dt với mọi i= 1, ,n (4.14)
Mục tiêu là xác định quỹ đạo điều khiển theo thời gian nhằm tối đa hóa số phiếu bầu Dữ liệu đầu vào từ bàn phím bao gồm các thông số cần thiết.
- Dự đoán thích nghi ban đầux 0 ,
- Tốc độ lạm phát dự đoán ban đầu a,
- Tốc độ lạm phát kỳ vọng p,
- Tỷ lệ thất nghiệp ban đầu u 0
Ví dụ 1:G iả i bài toán trên với bộ dữ liệu sau: n= 5, T = 1, ǫ= 0 4 , u0 = (2 2 2 2), , , , x0 1, b= 0 8 , j = 10, k= 10, a= 0 5 , r= 0 4 , h= 0 1 .
Kết quả thu được như sau:
Quỹ đạo tối ưu thu được như hình 4.1
Hình 4.1: Quỹ đạo tối ưu cho ví dụ 1
Ví dụ 2: Giải bài toán trên với bộ dữ liệu sau:
(2 2 2 2 2 2 2 2 2 2), , , , , , , , , , x 0 = 1, b= 0 8 , j= 10, k= 10, a= 0 5 , r= 0 4 , h= 0 1 . Kết quả thu được như sau:
Quỹ đạo tối ưu thu được như hình 4.2.
Hình 4.2: Quỹ đạo tối ưu cho ví dụ 2
Ví dụ áp dụng: Bà i toán tối ưu tiêu dùng và đầu tư một chiều
0 e −δt u γ dt (4.15) thỏa mãn: ˙ x= ξe ηt x β ưmxưu (4 1 6) x(0) =x0, x T( ) =xT, (4.17) trong đó: u t( ) =Lượng tiêu dùng tại thời điểmt (hàm điều k hiển), x t( ) =Vốn đầu tư tại thời điểmt (hàm trạng thái),
T =Khoảng thời gian hữu hạn (T 0
Hàm Impulse rất quan trọng trong những tình huống mà một điều khiển không biên được áp dụng trong thời gian ngắn, nhằm tạo ra một bước nhảy không liên tục cho các biến trạng thái.
Hàm Impulse được sử dụng để đánh giá tích phân của hàm mục tiêu Tại thời điểm t, hàm điều khiển Impulse sẽ thay đổi biến trạng thái từ x t( ) = x 1 sang giá trị tức thời x t( + ) = x 2 sau thời gian t Để đánh giá tác động của hàm Impulse đối với hàm mục tiêu, chúng ta áp dụng một quy trình cụ thể.
Cho ǫ > 0 và một điều khiển hằngu ǫ( ) Tích phân (1.2) với t → t+ǫ với x t( ) = x 1 và chọn u ǫ( ) sao cho x t( + ) =ǫ x 2 Điều khiển này cho bởi đường cong x τ, ǫ, u ǫ( ( )) với τ ∈[t, t+ ] Ta được:ǫ imp x( 1 , x 2 , t) = lim ǫ→0 t ǫ +
Nếu hàm Impulse được áp dụng tại thời điểm t, ta có thể tính được (1.1) như sau:
Công thức Taylor cho hàm hai biến f(x, y) cho phép triển khai hàm trong lân cận của điểm (a, b) nếu hàm này có tất cả đạo hàm riêng đến cấp n+1 Cụ thể, công thức được biểu diễn như sau: f(x, y) = f(a, b) + n.
n+1 f a( +θn(x−a), b+θn(y−b)) Hoặc có thể viết dưới dạng: f x, y( ) = (f a, b) +df a, b( )
Cho hai điểm \( x_1 \) và \( x_2 \) thuộc \( \mathbb{R}^n \), đoạn thẳng nối chúng được định nghĩa là \( x = \lambda x_1 + (1 - \lambda)x_2 \) với \( 0 \leq \lambda \leq 1 \) Tập hợp \( M \subset \mathbb{R}^n \) được gọi là tập lồi nếu nó chứa toàn bộ đoạn thẳng nối hai điểm bất kỳ thuộc tập đó, tức là với mọi \( x_1, x_2 \in M \), đoạn thẳng \( [x_1, x_2] \) cũng nằm trong \( M \).
Ta gọ i điểmx∈R n có dạng: x k
X i=1 λi = 1 là tổ hợp lồi của các điểm x 1 , x 2 , , x k ∈R n Nếu λ i > 0với mọi i = 1, , k thì ta nóix là tổ hợp lồi chặt củax 1 , x 2 , , x k ∈R n
Hàm f được gọi là hàm lồixác định trên tập lồi X ⊂R n nếu f λx( 1 + (1−λ x) 2 )≤λf x( 1 ) + (1−λ f x) ( 2 ) với bất kỳ x 1 , x 2 ∈X và số thựcλ∈[0 1],
Hàmf được gọi làhàm lõm nếu−f là hàm lồi.
• Nếu hàm f xác định trên tập lồi X ⊆R n là hàm lồi thì tập mức d ưới Lα( ) =f { ∈x
X f x| ( )≤ }0 là tập l ồi vớ i mọi α∈R.
• Nếu g là h àm l õm xác định trên tập lồi khác rỗ ng X ⊆R n thì tập mức trên L α ( ) =g { ∈x X g x| ( )≥ }0 l à tập lồi vớ i mọi α∈R.
Chứng minh xem [7] Tr ang 31-32. Định lý 1 Nếuf là hàm khả vi trên tập lồi mở X ⊆R n Khi đó:
• Hàm f là hàm lồi trên X khi và chỉ khi f y( )≥f x( ) +f ′ ( )(x y−x)
• Hàm f là hàm lõm trên X khi và chỉ khi f y( )≤f x( ) +f ′ ( )(x y−x)
Với mọi 0< t≤1ta luôn cóx+ (t y−x)∈X.
Theo tính chất hàm lồi lồi Ta có: f x( + (t y−x))≤(1−t f x) ( ) +tf y( ) Chia cả 2 vế cho Ta được:t f y( )≥f x( ) + f x( + (t y−x))−f x( ) t
Lấy giới hạn với t → 0 Ta được: f y( )≥f x( ) + lim t→0 f x( + (t y−x))−f x( ) t
Vì theo định nghĩa về đạo hàm ta có: f ′ (x0) = lim
Giả sử hàm f là khả vi và thỏa mãn điều kiện y( ) ≥ f(x) + f′( )(x - y) liên tục trong tập X Cho x₁, x₂ ∈ X và t ∈ (0, 1), ta đặt x₀ = t * x₁ + (1 - t) * x₂ Khi đó, ta có f(x₀) = (f(x₀)) + f′(x₀) * (t * (x₁ - x₀) + (1 - t) * (x₂ - x₀)) Sử dụng tính chất tuyến tính của hàm f′(x₀), ta có thể viết lại dưới dạng f(x₀) = [t * f(x₀) + f′(x₁ - x₀)] + (1 - t) * f(x) * [f(0) + f′(x₂ - x₀)].
Bất phương t rình f y( )≥f x( ) +f ′ ( )(x y−x)thỏa mãn vớix=x 1 vàx=x 2 , vì vậy: f x( 0 )≤tf x( 1 ) + (1−t f x) ( 2 )
Ta suy ra f là hàm lồi Suy ra điều phải chứng minh
Nhận xét.Tương tự như trên với hàm là lõm khi và chỉ khif f y( )≤f x( ) +f ′ ( )(x y−x)
6 Hàm tựa lõm Định nghĩa Một hàm f đã được định nghĩa trong tập lồiS ∈R n là tựa lõm nếu f x( )≥f x( 0 )⇒f λx( + (1−λ x) 0 )≥f x( 0 )
Với mọi x, x 0 ∈S vàλ∈[0 1], Định lý 2.Một hàmf được định nghĩa trên một tập lồiU ⊆L α (Tập mức trên) là tựa lõm khi và chỉ khi với mọi x, y ∈U và λ∈[0 1], f λx( + (1−λ y) )≥min{f x , f y( ) ( )}
Cho x, y ∈U cố định Lấyα=min{f x , f y( ) ( ) = (} f x 0 ) thìx∈L α , y ∈L α DoL α là lồi.
Theo định nghĩa tập mức trên, ta có: f λx( + (1−λ y) )≥α= (f x 0 ) =min{f x , f y( ) ( )}
Ngược lại, giả sửL α là tập mức trên của hàm thỏa mãnf λx( +(1−λ y) )≥min{f x , f y( ) ( )}. Nếu x∈L α , y ∈L α thì hiển nhiên f x( )≥α, f y( )≥α Kết hợp với f λx( + (1−λ y) ) ≥ min{f x , f y( ) ( )}ta suy ra: f λx( + (1−λ y) )≥α
Tập lồi Lα chứa mọi điểm dạng λx + (1−λ)y, chứng tỏ rằng Lα là tập lồi Định lý 3 khẳng định rằng một hàm f: U → R là khả vi và liên tục trên tập lồi mở U ⊆ L nếu và chỉ nếu với mọi x, y ∈ U, điều kiện f(y) ≥ f(x) dẫn đến f'(x)(y − x) ≥ 0.
Giả sử f là hàm tựa lõ m và f y( )≥f x( ) Theo tính chất trên, cho 0< λ