24 d. Variogram fitting
Các chương trước chúng ta đã tìm hiểu về các mô hình và công thức tính variogram. Trong thực tế, kết quả của experimental variogram tính được khá khó khăn trong việc áp dụng các đặc trưng thống kê variogram. Chính vì vậy, để đơn giản hóa vấn đề, chúng ta thường sử dụng các mô hình variogram biết trước (như đã trình bày ở mục trước) để fit với kết quả thực tế.
Ở các chương trước, chúng ta đã đưa ra nhận xét rằng đối với các cặp điểm càng ở xa nhau, thì chúng càng thiếu tính tin cậy. Hay nói cách khác, sự tương quan của chúng là kém. Nếu như vậy, có nghĩa là việc tìm ra một mô hình fit với thực tế lại tập trung chủ yếu dựa vào số ít các điểm ban đầu của đồ thị experimental variogram, và gần như một nửa số điểm còn lại là không được sử dụng.
Việc tìm các mô hình để fit với dữ liệu thực sẽ dẫn đến trường hợp nhiều mô hình có thể fit với cùng một loại dữ liệu. Để có thể tìm được mô hình phù hợp, việc này đòi hỏi khá nhiều đến kinh nghiệm của người thực hiện nghiên cứu. Mặc dù phương pháp tìm kiếm variogram fitting này có điểm hạn chế, tuy nhiên ưu điểm lớn nhất của nó là việc quan sát experimental variogram có thể phát hiện nhiều vấn đề của tập dữ liệu cũng như quá trình tính toán. Các giá trị variogram quá cao hoặc quá thấp đều có nguyên nhân tiềm ẩn, và chúng ta cần tiến hành nghiên cứu kĩ để tìm hiểu lí do.
Nhìn vào variogram, chúng ta cũng có thể rút ra vài nhận xét về đặc tính của tập dữ liệu hiện thời. Thí dụ như nếu đường cong của đồ thị tăng trưởng đều theo một hướng và ổn định theo một hướng khác thường là biểu hiện của việc dữ liệu tồn tại một xu hướng (trend).
25
Một vài mô hình variogram phổ biến được nhắc lại là exponential, gaussian, spherical. Với c: sill, a: range và h: lag distance
Mô hình spherical: 𝛾(ℎ) = {𝑐 { 3ℎ 2𝑎− 1 2( ℎ 𝑎) 3 } 𝑉ớ𝑖 ℎ ≤ 𝑎 𝑐 𝑉ớ𝑖 ℎ > 𝑎 PT 3.20 Mô hình exponential: 𝛾(ℎ) = 𝑐 {1 − 𝑒𝑥𝑝 (−ℎ 𝑟)} , 𝑣ớ𝑖 𝑟 = 𝑎 3 PT 3.21 Mô hình gaussian: 𝛾(ℎ) = 𝑐 {1 − 𝑒𝑥𝑝 (−ℎ 2 𝑟2)} , 𝑣ớ𝑖 𝑟 = 𝑎 2 PT 3.22
Để xác định được mô hình variogram phù hợp, việc đầu tiên là xác định loại mô hình variogram dựa theo kinh nghiệm. Bước tiếp theo là lựa chọn các tham số phù hợp đối với mỗi mô hình riêng biệt nhằm tối thiểu hóa hàm lỗi. Phương pháp giảm thiểu hàm lỗi được chọn trong bài nghiên cứu này là least square error. Thuật toán tối thiểu hóa least square error được phát biểu như sau:
Với n điểm cho trước (𝑥𝑖, 𝑦𝑖), 𝑖 = 1, . . . , 𝑛; 𝛽 là tham số cần tìm để tối thiểu hóa hàm lỗi. Phần dư của giá trị quan sát và giá trị dự đoán sẽ là:
Hình 3.9 Ví dụ về variogram fitting. Chú thích: *: experimental variogram -: variogram fitting -: variogram fitting
26
𝑟𝑖 = 𝑦𝑖 − 𝑓(𝑥𝑖, 𝛽) PT 3.23
Hàm cần tối thiểu 𝑆 = ∑𝑛𝑖=1𝑟𝑖2.
Nếu r là hàm tuyến tính, bài toán sẽ trở nên đơn giản bởi đây sẽ là bài toán OLS (Ordinary Least Square) [22]
𝑓(𝑥, 𝛽) = ∑ 𝛽𝑖𝜙𝑖(𝑥), 𝑣ớ𝑖 𝜙𝑖 𝑙à ℎà𝑚 𝑐ủ𝑎 𝑥
𝑛
𝑖=1
PT 3.24
Biểu diễn dưới dạng ma trận, với D là tập tất cả dữ liệu
𝐿(𝐷, 𝛽) = ‖𝑋𝛽 − 𝑌‖2 = (𝑋𝛽 − 𝑌)𝑇(𝑋𝛽 − 𝑌) = 𝑌𝑇𝑌 − 𝑌𝑇𝑋𝛽 − 𝛽𝑇𝑋𝑇𝑌 + 𝛽𝑇𝑋𝑇𝑋𝛽
PT 3.25
Để tìm điểm minimum, chúng ta tìm 𝛽 sao cho 𝛽 khiến đạo hàm bậc 1 của
L bằng 0. 𝜕𝐿(𝐷, 𝛽) 𝜕𝛽 = −2𝑋 𝑇𝑌 + 2𝑋𝑇𝑋𝛽 = 0 ⟺ 𝛽̂ = (𝑋𝑇𝑋)−1𝑋𝑇𝑌 PT 3.26
Tuy nhiên, đa phần các công thức của các mô hình variogram đều phi tuyến tính, vì vậy chúng ta cần một phương pháp khác để tối ưu hóa hàm lỗi. Trong bài nghiên cứu này chúng ta sẽ sử dụng phương pháp STIR như được mô tả trong mục tiếp theo.
e. Phương pháp STIR
Có rất nhiều phương pháp để tối ưu hóa tham số cho một hàm phi tuyến tính. Sự so sánh giải thuật tối ưu tìm giá trị nhỏ nhất của hàm phi tuyến tính được thực hiện bởi F. V. Berghen [23] đã chỉ ra rằng, giải thuật trust region có nhiều ưu điểm hơn giải thuật Levenberg-Marquardt [24]. Ý tưởng chính của phương pháp trust region là cập nhật giá trị các tham số thông qua các vòng lặp.
Gọi 𝑓(𝑥) là hàm phi tuyến tính cần được tối ưu, trong đó, x là tham số cần tìm để 𝑓(𝑥) đạt giá trị nhỏ nhất. Gọi 𝑢, 𝑙 là hai giá trị biên để xác định x. Bài toán có thể được phát biểu dưới dạng công thức như sau:
𝑚𝑖𝑛
𝑥∈𝑅𝑛𝑓(𝑥), 𝑙 ≤ 𝑥 ≤ 𝑢, PT 3.27
Trong đó, 𝑙 ∈ {𝑅 ∪ {−∞}}𝑛, 𝑢 ∈ {𝑅 ∪ {+∞}}𝑛, 𝑙 < 𝑛; 𝑓: 𝑅𝑛 → 𝑅1 là một hàm trơn. Với mỗi vòng lặp, 𝑥𝑘 ∈ 𝑖𝑛𝑡(ℱ) ≝ {𝑥: 𝑙 < 𝑥 < 𝑢}
27
Trước khi đi sâu vào phương pháp STIR, chúng ta điểm qua một chút về phương pháp TIR – tiền thân của phương pháp STIR, được giới thiệu bởi Coleman và Li [25]. Phương pháp TIR (Trust-region Interior Reflective) giải quyết vấn đề tối thiểu hóa hàm phi tuyến tính không ràng buộc bằng cách chuyển bài toán thành tối thiểu hóa hàm phi tuyến tính với ràng buộc biên. Một vài khái niệm của thuật toán được đưa ra như 𝑔𝑘 ≝ 𝛻𝑓𝑘, 𝐻𝑘 ≝ 𝛻2𝑓𝑘, 𝐷𝑘, 𝐶𝑘 là các ma trận chéo affine scaling, với k chỉ số đánh dấu cho mỗi vòng lặp.
Một điểm quan trọng trong phương pháp trust region, là xử lý các vấn đề con (subproblem) trong mỗi vòng lặp. Phương pháp TIR được mô tả như sau:
Với 0 < 𝜇 < 𝜂 < 1, 0 < 𝛬𝑙 < 𝛬𝑛, 𝛾1 < 1 < 𝛾2 cho trước. Chọn một 𝑥0 ∈ 𝑖𝑛𝑡(ℱ), ∆0< 𝛬𝑢, 𝑘 = 0, 1, . . ..
1. Tính 𝑓𝑘, 𝑔𝑘, 𝐷𝑘, 𝐻𝑘, 𝐶𝑘, để thu đượic một vấn đề con cần xử lí
𝜓𝑘(𝑠) ≝ 𝑔𝑘𝑇𝑠 +1 2𝑠
𝑇(𝐻𝑘+ 𝐶𝑘)𝑠 PT 3.28
2. Tính toán mỗi 𝑠𝑘 = 𝑥𝑘+1 − 𝑥𝑘 dựa trên vấn đề con vừa thu được
𝑚𝑖𝑛 𝑠 {𝜓𝑘(𝑠): ‖𝐷𝑘𝑠‖2 ≤ ∆𝑘} PT 3.29 3. Tính toán 𝜌𝑘 =𝑓(𝑥𝑘 + 𝑠𝑘) − 𝑓(𝑥𝑘) + 1 2𝑠𝑘𝑇𝐶𝑘𝑠𝑘 𝜓𝑘(𝑠𝑘) PT 3.30
4. Nếu 𝜌𝑘 > 𝜇, đặt𝑥𝑘+1 = 𝑥𝑘+ 𝑠𝑘. Ngược lại, đặt 𝑥𝑘+1 = 𝑥𝑘 5. Cập nhật trust region ∆𝑘: • Nếu 𝜌𝑘 ≤ 𝜇, đặt ∆𝑘+1∈ (0, 𝛾1∆𝑘] • Nếu 𝜌𝑘 ∈ (𝜇, 𝜂), đặt ∆𝑘+1∈ [𝛾1∆𝑘, ∆𝑘] • Nếu 𝜌𝑘 ≥ 𝜇 thì: Nếu ∆𝑘> 𝛬𝑙: đặt ∆𝑘+1∈ [𝛾1∆𝑘, ∆𝑘] hoặc ∆𝑘+1∈ [∆𝑘, 𝛾2∆𝑘] Các trường hợp khác: đặt ∆𝑘+1∈ [∆𝑘, 𝑚𝑖𝑛(𝛾2∆𝑘, 𝛬𝑢)]
Chi tiết kĩ thuật ánh xạ ngược (reflective), chúng ta có thể tham khảo chi tiết tại [26]. Phương pháp STIR có sự thay đổi nhỏ so với phương pháp TIR là việc xấp xỉ miền tin (trust region ∆) bằng một không gian con đã được giảm chiều 𝑆𝑘.
Vấn đề con cần được xử lí tại (4.4.4-1) trở thành
𝑚𝑖𝑛
28
Với 𝑆𝑘 là một subspace đã được giảm chiều thuộc 𝑅𝑛. Phương pháp STIR [27] được mô phỏng như sau:
Với các giá trị cho trước 0 < 𝜇 < 𝜂 < 1, 0 < 𝛬𝑙 < 𝛬𝑢, 𝛾1 < 1 < 𝛾2, 𝑥0 ∈ 𝑖𝑛𝑡(Ϝ), ∆0< 𝛬𝑢. Với k = 0, 1,…
1. Tính𝑓𝑘, 𝑔𝑘, 𝐷𝑘, 𝐻𝑘, 𝐶𝑘. Xác định mô hình bậc hai
𝜓𝑘(𝑠) = 𝑔𝑘𝑇𝑠 +1 2𝑠
𝑇(𝐻𝑘+ 𝐶𝑘)𝑠 PT 3.32
2. Mỗi một bước, tìm 𝑠𝑘 sao cho 𝑥𝑘 + 𝑠𝑘 ∈ 𝑖𝑛𝑡(Ϝ) thõa mãn điều kiện sau:
𝑚𝑖𝑛
𝑠 {𝜓𝑘(𝑠): ‖𝐷𝑘𝑠‖2 ≤ ∆𝑘, 𝑠 ∈ 𝑆𝑘} PT 3.33
Với 𝑆𝑘 được thiết lập như bên dưới. 3. Tính 𝜌𝑘 =𝑓(𝑥𝑘 + 𝑠𝑘) − 𝑓(𝑥𝑘) + 1 2𝑠𝑘𝑇𝐶𝑘𝑠𝑘 𝜓𝑘(𝑠𝑘) PT 3.34
4. Nếu 𝜌𝑘 > 𝜇, đặt 𝑥𝑘+1 = 𝑥𝑘+ 𝑠𝑘. Ngoài ra, đặt 𝑥𝑘+1 = 𝑥𝑘. 5. Cập nhật ∆𝑘 theo như phương pháp TIR
Phương pháp để xác định subspace 𝑆𝑘:
Giả sử 𝜔𝑘 = 𝐷𝑘−1𝜔̂𝑘, với {𝜔𝑘} có large-step-size. Chọn 0 < 𝜏 < 1 là một hằng số dương đủ bé.
Nếu 𝑀̂𝑘 theo định nghĩa ban đầu là dương, 𝑆𝑘 ≝ 𝑠𝑝𝑎𝑛{𝐷𝑘−2𝑔𝑘, 𝜔𝑘}
Nếu 𝑀̂𝑘 định nghĩa ban đầu không phải là một ma trận dương và
(𝐷𝑘−2𝑠𝑔𝑛(𝑔𝑘))𝑇𝑀𝑘(𝐷𝑘−2𝑠𝑔𝑛(𝑔𝑘)) < 𝜏‖𝐷𝑘−2𝑔𝑘‖2
‖𝜔𝑘‖2 𝜔𝑘𝑇𝑀𝑘𝜔𝑘, thì
𝑆𝑘 ≝ 𝑠𝑝𝑎𝑛{𝐷𝑘−2𝑠𝑔𝑛(𝑔𝑘)}
Nếu 𝑀̂𝑘 định nghĩa ban đầu không phải là một ma trận dương và
(𝐷𝑘−2𝑠𝑔𝑛(𝑔𝑘))𝑇𝑀𝑘(𝐷𝑘−2𝑠𝑔𝑛(𝑔𝑘)) ≥ 𝜏‖𝐷𝑘−2𝑔𝑘‖2
‖𝜔𝑘‖2 𝜔𝑘𝑇𝑀𝑘𝜔𝑘, thì
29
3.1.3.Các bước thực hiện nội suy Kriging
Kriging là kĩ thuật thường được sử dụng nhiều trong các bài toán nội suy (interpolation) và ngoại suy (extrapolation). Trong trường hợp này, chúng ta sẽ chỉ quan tâm đến vấn đề nội suy dữ liệu sử dụng Kriging. Các đặc trưng quan trọng trong nội suy Kriging:
- Kriging là một phương pháp nội suy chính xác. Với mỗi điểm quan sát
𝑢𝑖 𝑍(𝑢𝑖) = 𝑍∗(𝑢𝑖) ta thu được một giá trị phương sai ước lượng bằng không.
- Các trọng số trong phương pháp Kriging tính được nhờ sự hỗ trợ của variogram, vị trí các điểm và giá trị biến tại các điểm. Phương pháp này không những quan tâm đến khoảng cách giữa các điểm mà còn quan tâm đến mối quan hệ vị trí giữa các điểm.
- Tổng giá trị các trọng số là bằng 1. Tuy nhiên mỗi giá trị có thể là số âm.
- Các trọng số không bị ảnh hưởng bởi giá trị các điểm. Nếu sự sắp xếp việc xuất hiện các điểm là khác nhau nhưng giá trị tại các điểm đấy vẫn không đổi, thì trọng số tính được sẽ là như nhau.
Các giá trị điểm sẽ ảnh hưởng đến việc tính variogram, và đấy cũng là nền tảng cho việc tính toán các trọng số của phương pháp này.
- Các trọng số mang tính chất sàng lọc: các điểm ở xa sẽ có trọng số nhỏ hơn và ngược lại, các điểm gần hơn sẽ có trọng số lớn hơn.
Các bước thực hiện phương pháp nội suy Kriging: - Bước 1: Quan sát dữ liệu đầu vào
Để quan sát đặc tính của dữ liệu cần phân tích. Chúng ta cần trực quan hóa dữ liệu bằng các phương pháp thống kê để rút ra những điểm đặc trưng của dữ liệu. Từ đó lựa chọn phương pháp giải quyết vấn đề phù hợp.
- Bước 2: Tính toán experimental variogram
Tính toán variogram với các bước nhảy được chọn. Biểu đồ variogram sẽ cho chúng ta biết được sự sự tương quan dữ liệu ở các vị trí (phụ thuộc vào bước nhảy h) của chúng.
- Bước 3: Lựa chọn mô hình variogram phù hợp (Modelling variogram) Lựa chọn một mô hình variogram phù hợp với biểu đồ variogram thực tế nhằm phục vụ cho việc phân tích và tính toán nội suy sau này. Các
30
mô hình phổ biến mà chúng ta có thể gặp như: Simple Kriging, Ordinary Kriging, Anisotropic Kriging, Universal Kriging, CoKriging…
- Bước 4: Nội suy Kriging
Áp dụng công thức tiến hành nội suy kết quả của các điểm cần tính toán. - Bước 5: Thu được kết quả
3.1.4.Phương pháp nội suy Ordinary Kriging
Một trong những ứng dụng quan trọng của variogram là ước lượng các tham số (giá trị biến) tại các điểm chưa biết, hoặc giá trị trung bình của các tham số trong một khu vực nhất định. Quá trình ước lượng đó trong địa thống kê sử dụng nhiều giải pháp khác nhau, nhưng đơn giản nhất là ordinary kriging. Ordinary kriging hay còn được phổ biến bởi một tên gọi khác ngắn gọn hơn, kriging. Trong giới hạn đề tài nghiên cứu, chúng ta sẽ chỉ quan tâm đến phương pháp nội suy giá trị tại một điểm – Point Kriging
Với phương pháp point kriging, chúng ta giả sử hàm ước lượng là một hàm tuyến tính có dạng như sau:
𝑍∗(𝑢) = ∑ 𝜆𝑖𝑍(𝑢𝑖)
𝑛
𝑖=1
PT 3.35
Chúng ta có rất nhiều lựa chọn cho các trọng số 𝜆𝑖. Mục tiêu của việc lựa chọn các trọng số là sao cho độ lệch dự đoán làm tối thiểu hóa phương sai dữ liệu ước tính. Áp dụng lý thuyết tính dừng bậc hai hoặc giả thuyết nội tại vào trường hợp này, ta có các suy luận sau:
𝐸[𝑍(𝑢)] = 𝑚, ∀𝑢 ∈ 𝐷 PT 3.36
Với hàm dự đoán là hàm tuyến tính:
𝐸[𝑍∗(𝑢)] = ∑ 𝜆𝑖 𝑛 𝑖=1 𝐸[𝑍(𝑢𝑖)] = 𝑚 PT 3.37 ∑ 𝜆𝑖 = 1 𝑛 𝑖=1 PT 3.38 𝜎2 = 𝑉𝑎𝑟[𝑍(𝑢) − 𝑍∗(𝑢)] = 𝐸 [(𝑍(𝑢) − ∑ 𝜆𝑖𝑍(𝑢𝑖) 𝑛 𝑖=1 ) 2 ] PT 3.39
31 = 𝐸 [𝑍(𝑢)2+ ∑ ∑ 𝜆𝑖𝜆𝑗𝑍(𝑢𝑖)𝑍(𝑢𝑗) − 2 ∑ 𝜆𝑖𝑍(𝑢𝑖)𝑍(𝑢) 𝑛 𝑖=1 𝑛 𝑗=1 𝑛 𝑖=1 ] = 𝐶(0) + ∑ ∑ 𝜆𝑗𝜆𝑖𝐶(𝑢𝑖− 𝑢𝑗) − 2 ∑ 𝜆𝑖𝐶(𝑢𝑖 − 𝑢) 𝑛 𝑖=1 𝑛 𝑖=1 𝑛 𝑗=1
Nhìn vào biểu thức PT 3.39, ta thấy phương sai dự đoán là một hàm bậc hai của các trọng số 𝜆𝑖. Mục tiêu của chúng ta là tìm các trọng số sao cho tối thiểu hóa giá trị hàm bậc hai kể trên. Giải pháp được đưa ra là sử dụng nhân tử Lagrange 𝜇. Hàm cần tối thiểu hóa sau khi sử dụng nhân tử Lagrange:
𝜎2(𝑢) − 2𝜇 (∑ 𝜆𝑖− 1 𝑛 𝑖=1 ) PT 3.40 Sử dụng đạo hàm từng phần, ta được: ∑ 𝜆𝑗𝐶(𝑢𝑖− 𝑢𝑗) − 𝜇 = 𝐶(𝑢𝑖− 𝑢)𝑣ớ𝑖 = 1, … , 𝑛 𝑛 𝑗=1 PT 3.41 ∑ 𝜆𝑗 = 1 𝑛 𝑗=1 PT 3.42
Kết hợp với phương trình PT 3.42, ta tìm được bộ trọng số 𝜆𝑖 cho hàm dự đoán cần tìm. Phương trình PT 3.42 cũng được gọi là hệ kriging có liên quan đến hiệp phương sai.
Trong trường hợp ta sử dụng các giả thuyết nội tại để tối thiểu hóa phương sai, phương sai cũng có thể được biểu diễn thông qua variogram:
𝜎2(𝑢) = 𝑉𝑎𝑟[𝑍(𝑢) − 𝑍∗(𝑢)] = − ∑ ∑ 𝜆𝑗𝜆𝑖𝛾(𝑢𝑖− 𝑢𝑗) + 2 ∑ 𝜆𝑖𝛾(𝑢𝑖 − 𝑢) 𝑛 𝑖=1 𝑛 𝑖=1 𝑛 𝑗=1 PT 3.43
Tương tự như trên, chúng ta cũng sử dụng phương pháp nhân tử Lagrange
𝜇 [28] để tối thiểu hóa phương sai dự đoán:
∑ 𝜆𝑗𝛾(𝑢𝑖 − 𝑢𝑗) + 𝜇 = 𝛾(𝑢𝑖 − 𝑢), 𝑖 = 1, … , 𝑛
𝑛
𝑗=1
32
∑ 𝜆𝑗 = 1
𝑛
𝑗=1
PT 3.45
Tương tự, kết hợp với phương trình PT 3.45 chúng ta tìm ra được bộ trọng số cần tìm. Phương trình PT 3.45 cũng được gọi là hệ kriging, và phương sai nói trên cũng được gọi là phương sai kriging.
Biểu diễn tính toán dưới dạng ma trận, ta có:
𝐴𝜆 = 𝑏 PT 3.46 Trong đó, 𝐴 = [ 𝛾(𝑢1, 𝑢1) 𝛾(𝑢2, 𝑢1) 𝛾(𝑢1, 𝑢2) 𝛾(𝑢2, 𝑢2) ⋯ … 𝛾(𝑢1, 𝑢𝑁) 1 𝛾(𝑢2, 𝑢𝑁) 1 ⋮ ⋮ ⋮ ⋮ 𝛾(𝑢𝑁, 𝑢1) 1 𝛾(𝑢𝑁, 𝑢2) 1 … ⋯ 𝛾(𝑢𝑁1, 𝑢𝑁) 10] PT 3.47 𝜆 = [ 𝜆1 𝜆2 ⋮ 𝜆𝑁 𝜇(𝑢0)] 𝑣à 𝑏 = [ 𝛾(𝑢1, 𝑢0) 𝛾(𝑢2, 𝑢0) ⋮ 𝛾(𝑢𝑁, 𝑢0) 1 ] PT 3.48
Ma trận A là ma trận khả nghịch, nên tham số cần tính và nhân tử Lagrange sẽ thu được như sau:
𝜆 = 𝐴−1𝑏 PT 3.49
Sai số ước lượng:
𝜎(𝑢0)2 = 𝑏𝑇𝜆 PT 3.50
Lấy một ví dụ để tường minh phương pháp trên.
Ví dụ 3.1.4-1: Giả sử ta có hai điểm nằm trên cùng một đường thẳng, và nhiệm vụ của chúng ta là dự đoán giá trị của điểm thứ ba còn lại. Biết 𝑢1 = 1,
𝑢2 = −2. Điểm cần dự đoán 𝑢 = 0. Các giá trị ngẫu nhiên tương ứng với các điểm như sau: 𝑍(𝑢1) = 2, 𝑍(𝑢2) = 4, variogram là một đường thẳng 𝛾(ℎ) = ℎ.
Hình 3.10 Trực quan vịtrí các điểm 𝑢1, 𝑢2, 𝑢
Áp dụng công thức kriging trong lí thuyết nêu trên, ta được:
33
3𝜆1+ 0𝜆2+ 𝜇 = 2 PT 3.52
𝜆1+ 𝜆2 = 1 PT 3.53
Sau khi tính toán, ta thu được 𝜆1 = 0.6667, 𝜆2 = 0.3333 và 𝜇 = 0, 𝜎2= 1.3333, 𝑍∗(𝑢) = 2.6667.
Bây giờ, nếu ta thay đổi một chút, để u2 sang vị trí bên phải u1 như hình dưới:
Hình 3.11 Thay đổi vịtrí các điểm quan sát của ví dụ 3.1.4-1
Công thức kriging được thay đổi thành:
0𝜆1+ 1𝜆2+ 𝜇 = 1 PT 3.54
1𝜆1+ 0𝜆2+ 𝜇 = 2 PT 3.55
𝜆1+ 𝜆2 = 1 PT 3.56
Kết quả thu được: 𝜆1 = 1.0, 𝜆2 = 0.0, 𝜇 = 1.0, 𝜎2 = 2.0, 𝑍∗(𝑢) = 2.0. Kết quả này có sự sai khác so với vị trí các điểm được cho trong ví dụ ban đầu. Đặc biệt, phương sai dự đoán ở lần này lớn hơn lần trước. Điều này chứng tỏ vị trí các điểm quan sát và điểm cần dự đoán có ảnh hưởng khá lớn đến kết quả nhận được. Việc dự đoán kết quả nội suy có vẻ được tin tưởng nhiều hơn là kết quả ngoại suy.
3.1.5.Phương pháp nội suy Univershal Kriging
Trong thực tế, không phải lúc nào chúng ta cũng gặp trường hợp nội suy các chuỗi dữ liệu có tính dừng. Phương pháp Ordinary Kriging được kể trên được sử dụng đối với các hàm ngẫu nhiên có tính dừng. Các chuỗi dữ liệu thuộc các lĩnh