Mô hình TNTN đề xuất

Một phần của tài liệu Ứng dụng phân tích lớp tiềm ẩn xây dựng hệ thống trắc nghiệp thích nghi (Trang 32 - 36)

CHƯƠNG 2. XÂY DỰNG MÔ HÌNHTRẮC NGHIỆM THÍCH NGHI TRÊN CƠ SỞ PHÂN TÍCH LỚP TIỀM ẨN (LCA)

2.2. Mô hình TNTN đề xuất

2.2.1. Phân tích lớp tiềm ẩn (LCA)

LCA là một phương pháp phân tích trong đó các biến quan sát được (việc trả lời câu hỏi) hoặc có thể quan sát (manifest variables) có liên quan đến các biến không quan sát được (năng lực của thí sinh) hoặc các biến tiềm ẩn [14]. Trong IRT, các biến quan sát được cũng được xác định, nhưng biến tiềm ẩn (mức độ năng lực thí sinh) liên tục thay đổi. Về bản chất, các mô hình LCA cung cấp một xác suất hoặc kết quả mờ với sự phân lớp, trong khi các mô hình IRT mang lại một ước lượng về mức độ năng lực thí sinh trong tình trạng liên tục.

Trong mô hình LCA, các thí sinh trong cùng phạm vi lớp có các đặc điểm chung về các tiêu chí nhất định, và các thí sinh trong các lớp khác nhau là không giống nhau. Trong LCA, các tham số: số lượng lớp tiềm ẩn và kích thước mỗi lớp được xác định.

Giả sử cần xác định xác suất thí sinh i rơi vào lớp tiềm ẩn C (C = 1,…, cùng với là tổng số các lớp tiềm ẩn):

P ( ) ∑ ∏ ( | ) (2.1) Trong đó:

- P(C=c| ) là xác suất thí sinh rơi vào lớp tiềm ẩn C;

- ( ) là tập hợp câu trả lời của thí sinh i đối với j câu hỏi trắc nghiệm đưa ra. Kết quả đánh giá câu trả lời trắc nghiệm là kết quả nhị phân, trong đó

* +, (kết quả câu trả lời thứ j của thí sinh i).

- cho biết tỷ lệ sinh viên thuộc lớp C.

Một khía cạnh khác là sử dụng LCA với các giải pháp mô hình chia thí sinh vào một lớp tiềm ẩn với một xác suất nhất định. Xác suất lớp tiềm ẩn được ước lượng cho mỗi thí sinh thuộc vào một lớp C, với mẫu câu trả lời của thí sinh i là :

( ) ( ) ( )

( ) (2.2)

Được gọi là xác suất kéo theo (a posterior probability). Ví dụ, thí sinh trả lời đúng câu hỏi trắc nghiệm thì xác suất sẽ được tính theo công thức sau:

( | ) ( ( )

) (2.3)

Trong LCA, mỗi thí sinh khi trả lời một câu hỏi trắc nghiệm sẽ thuộc vào một trong các lớp tiềm ẩn với một xác suất nhất định. Do đó, thí sinh sẽ được chỉ định thuộc về lớp tiềm ẩn có giá trị xác suấtP(C = c| )là cao nhất.

Vài chỉ số có thể được xem xét trong các kết luận về số lượng các lớp được yêu cầu cho phù hợp nhất với dữ liệu và xác định kích cỡ lớp tốt nhất. Một chỉ số đo lường và chỉ số phù hợp là -2 log likelihood (-2LL), so sánh một số mô hình với số lượng các lớp không ổn định [16]. Một chỉ số phù hợp khác là tiêu chuẩn thông tin Bayesian [18], được coi là một chỉ số tốt cho việc phân biệt giữa các mô hình với các lớp tiềm ẩn khác nhau.

BIC được định nghĩa là:

BIC = -2 ( ), (2.4)

Trong đó là các tham số mô hình tự do và N là đại diện cho kích thước mẫu.

Tiêu chuẩn thông tin này cũng sử dụng -2LL nhưng điều chỉnh số lượng tham số và kích cỡ mẫu trong mô hình, dẫn đến độ tin cậy chỉ số được cải thiện [16].

2.2.2. Phương pháp lựa chọn câu hỏi theo thông tin toàn cục (KL)

Trong lý thuyết xác suất và lý thuyết thông tin, khoảng cách Kullback – Leibler là một độ đo không đối xứng dùng để đo sự khác nhau giữa hau phân bố P và Q. Cụ thể hơn, độ lệch Kullback – Leibler của Q khỏi P kí hiệu là KL (P || Q) là độ đo lượng thông tin mất đi khi dùng Q để xấp xỉ P. Chính xác hơn khoảng cách Kullback – Leibler đo số bit trung bình dư ra để mã hóa một mẫu khi dùng Q thay vì dùng P.

Khái niệm này được đưa ra bởi Solomon Kullback và Richard Leibler năm 1951.

Định nghĩa:

(i) Cho các phân phối xác suất rời rạc P và Q. Khoảng cách Kullback – Leibler của Q từ P được định nghĩa là:

KL(P || Q) = ∑ ( ) ( ) ( )

(ii) Cho các phân phối xác suất liên tục P và Q. Khoảng cách Kullback – Leibler của Q và P được định nghĩa là tích phân

KL(P || Q) = ∫ ( ) ( ) ( ) ( ) Với p và q là kí hiệu mật độ của P và Q.

(iii) Tổng quát hơn, nếu P và Q là các độ đo xác suất trên một tập X và Q liên tục tuyệt đối theo P, khi đó khoảng cách Kullback –Leibler từ P tới Q được định nghĩa là

KL(P || Q) = ∫ Với

là đạo hàm Radon – Nikodym của Q theo P.

Nếu là một độ đo nào đó trên X mà p = và q=

tồn tại, khi đó khoảng cách Kullback – Leibler từ P tới Q là

KL(P || Q) = ∫ Tính chất:

(i) KL (P || Q)

KL (P || Q) P = Q hầu khắp nơi

(ii) Khoảng cách Kullback – Leibler là định nghĩa tốt cho phân phối liên tục và bất biến dưới các phép biến đổi tham số.

(iii) Khoảng cách Kullback – Leibler là cộng tính đối với các phân phối độc lập. Nếu P1, P2 là các phân phối độc lập với P (x, y) = P1(x).P2(y) và Q(x, y) = Q1(x).Q2(y) khi đó

KL(P || Q) = KL(P1 || Q1) +KL(P2 || Q2)

(iv) Khoảng cách Kullback –Leibler của phân phối Q từ phân phối P không phải là khoảng cách thông thường mà là độ đo lượng thông tin mất đi khi dùng Q để xấp xỉ P.

Trong luận văn, tác giả đề xuất sử dụng thuật toán lựa chọn câu hỏi theo thông tin toàn cục (KL) nhằm lựa chọn câu hỏi trong NHCH trắc nghiệm đã phân lớp theo LCA. Bản chất của thông tin KL [15] giữa hai phân bố xác suất được biểu diễn dưới dạng:

, - * ( ) ( )+

Sự phân bố xác suất ( )thường thể hiện cho sự phân bố dữ liệu. Thông thường, ( ) sẽ đại diện cho một mô hình hoặc xấp xỉ của ( ). Do đó, nó phản ánh một khoảng cách hoặc sự phân chia giữa hai phân bố này và khoảng cách nay không phải là khoảng cách về mặt toán học, vì phương pháp này không đối xứng với , - , -. Giá trị thông tin KL lớn của , - sẽ là chỉ số của hai phân bố thống kê khác nhau.

Chengđã đề xuất một ứng dụng của thuật toán KL [7] giúp lựa chọn các câu hỏi để nâng cao chẩn đoán nhận thức. Điểm quan trọng của chẩn đoán nhận thức là phân loại người trong hồ sơ nhận thức, . Trạng thái thực của hồ sơ thuộc tính của một người là không rõ. Do đó, thông tin KL về sắp xếp có điều kiện của mẫu trả lời , cho biết ước tính hiện tại về trạng thái chẩn đoán nhận thức của người thứ và sự sắp xếp có điều kiện của , với các trạng thái chẩn đoán nhận thức tiềm ẩn khác, có thể đo được. Khi áp dụng thông tin KL, nó có thể được tính toán giữa ( ̂), với ( )

̂( ) cho biết ước tính hiện tại của ̂, và sự sắp xếp khác dựa trên , đưa ra một trạng thái tiềm ẩn khác :

( ̂ ( ) ) ∑ ( . | ̂ /( )

( | ) )

( | ̂) (2.5) ( ) Công thức(2.5) có thể được sử dụng cho các mô hình với hai trạng thái tiềm ẩn. Tuy nhiên, có nhiều trạng thái ẩn khác, có thể sử dụng tổng của thông tin KL giữa trạng thái ẩn hiện tại ̂( ) và tất cả các trạng thái tiềm ẩn khác có thể được sử dụng [17]:

( ̂) ∑ ( ) ( ̂ ( ) ) (2.6)

Sự lựa chọn câu hỏi sau đó sẽ được dựa trên mục đích tìm câu hỏi với ( ̂) có mức tối đa của mỗi thí sinh ở một trạng thái tiềm ẩn cụ thể. Dựa vào ( ) thông tin KL tối đa của một câu hỏi, với ước tính hiện tại về trạng thái tiềm ẩn, câu hỏi ( ) sẽ được chọn. Nếu có hai trạng thái tiềm ẩn, tổng hợp thông tin KL bằng công thức(2.6) là không cần thiết.

Một phần của tài liệu Ứng dụng phân tích lớp tiềm ẩn xây dựng hệ thống trắc nghiệp thích nghi (Trang 32 - 36)

Tải bản đầy đủ (PDF)

(68 trang)