Phương pháp phân tích dữ liệu

Một phần của tài liệu NCKH Thái độ đối với tiền ảnh hưởng đến động cơ học đại học (Trang 54 - 60)

CHƯƠNG 3 PHƯƠNG PHÁP NGHIÊN CỨU

3.5. Nghiên cứu định lượng

3.5.2.2. Phương pháp phân tích dữ liệu

Phương pháp phân tích dữ liệu sơ cấp: Nhóm đã phân tích số liệu bằng phần mềm SPSS phiên bản 25.0 và phần mềm AMOS phiên bản 20.0 với các bước cụ thể như sau:

Thứ nhất: Thống kê mô tả các biến quan sát của thang đo

Kết quả thống kê mô tả các biến quan sát cho thấy ý kiến trả lời cho các phát biểu của thang đo các biến sử dụng trong mô hình khá đa dạng. Có những ý kiến rất đồng ý và những ý kiến rất không đồng ý. Các giá trị nhỏ nhất (minimum) và lớn nhất (maximum) của các thang đo nằm trong khoảng từ 1 đến 5 cho thấy không có giới hạn về mặt biến động đối với các thang đo được sử dụng.

Nhóm nghiên cứu tiến hành phân tích mô tả thống kê các biến quan sát trong mô hình qua các tiêu chí gồm: giá trị trung bình và độ lệch chuẩn.

Thứ hai: Đánh giá độ tin cậy của thang đo

Một đo lường được coi là có giá trị nếu nó đo lường đúng được cái cần đo lường (Campbell & Fiske, 1959). Hay nói cách khác, đo lường đó sẽ không có hiện tượng sai số hệ thống và sai số ngẫu nhiên.

Trên thực tế nghiên cứu, chúng ta sẽ bỏ qua sai số hệ thống và quan tâm đến sai số ngẫu nhiên. Khi một đo lường vắng mặt các sai số ngẫu nhiên thì đo lường có độ tin cậy. Vì vậy, một đo lường có giá trị cao thì phải có độ tin cậy cao.

Cronbach (1951) đưa ra hệ số tin cậy cho thang đo. Tuy nhiên, hệ số

Cronbach’s Alpha chỉ đo lường độ tin cậy của thang đo (bao gồm từ 3 biến quan sát trở lên1) chứ không tính được độ tin cậy cho từng biến quan sát. Hệ số Cronbach’s Alpha có giá trị biến thiên trong đoạn [0,1]. Về lý thuyết, hệ số này càng cao càng tốt (thang đo càng có độ tin cậy cao). Tuy nhiên điều này không hoàn toàn chính xác. Hệ số Cronbach’s Alpha quá lớn (khoảng từ 0.95 trở lên) cho thấy có nhiều biến trong thang đo không có khác biệt gì nhau, hiện tượng này gọi là trùng lắp trong thang đo. Theo Hoàng Trọng và Chu Nguyễn Mộng Ngọc (2008), các thang đo có hệ số Cronbach’s Alpha từ 0,6- 1 là các thang đo lường đủ điều kiện, các thang đo có hệ số Cronbach’s

1 là các thang đo lường rất tốt. Tuy nhiên, hệ số Cronbach’s Alpha quá lớn (khoảng từ 0.95 trở lên) thì cho thấy có nhiều biến trong thang đo không có gì khác biệt tạo nên hiện tượng gọi là trùng lắp trong thang đo.

Hệ số Cronbach’s Alpha cho biết các thang đo có liên kết với nhau hay không nhưng không giúp cho việc nên lựa chọn giữ hoặc bỏ biến quan sát nào. Do vậy, nhóm nghiên cứu sử dụng thêm hệ số tương quan biến tổng (item- total correclation) để có thêm cơ sở cho việc đưa ra quyết định giữ lại hay bỏ đi biến quan sát. Nếu một biến đo lường có hệ số tương quan biến tổng ≥ 0.3 thì biến đó đạt yêu cầu (Nunnally, 1978).

Vì vậy, theo tiêu chuẩn chọn biến đã trình bày ở trên, để đảm bảo độ tin cậy của thang đo, nhóm nghiên cứu sẽ lựa chọn các thang đo đảm bảo hệ số Cronbach’s Alpha ≥ 0,6 và có hệ số tương quan biến tổng > 0,3.

Thứ ba: Kiểm định giá trị của thang đo bằng phương pháp phân tích nhân tố khám phá- EFA.

Khi kiểm định một lý thuyết khoa học, chúng ta cần đánh giá độ tin cậy của thang đo và giá trị của thang đo. Ở phần trên, chúng ta đã tìm hiểu về độ tin cậy thang đo, vấn đề tiếp theo là thang đo phải được đánh giá giá trị của nó.

Phương pháp phân tích nhân tố khám phá EFA thuộc nhóm phân tích đa biến phụ thuộc lẫn nhau, nghĩa là không có biến phụ thuộc và biến độc lập mà nó dựa vào mối tương quan giữa các biến với nhau. EFA dùng để rút gọn một tập k biến quan sát thành một tập F (F < k) các nhân tố có ý nghĩa hơn. Thay vì đi nghiên cứu số lượng lớn đặc điểm nhỏ của một đối tượng, chúng ta có thể chỉ nghiên cứu một số lượng nhỏ đặc điểm lớn, trong mỗi đặc điểm lớn này gồm các đặc điểm nhỏ có sự tương quan với nhau. Cơ sở của việc rút gọn này dựa vào mối quan hệ tuyến tính của các nhân tố với các biến quan sát (Nguyễn Đình Thọ, 2011).

Phân tích nhân tố sẽ được sử dụng để kiếm định sự hội tụ của các biến thành phần. Để khẳng định dữ liệu phân tích là phù hợp và có độ tin cậy cao, phải thỏa mãn các tiêu chí sau:

Hệ số KMO (Kaiser- Meyer- Olkin) phải đạt giá trị từ 0,5 trở lên (0,5 ≤ KMO ≤1) thể hiện phân tích nhân tố là phù hợp. Hệ số KMO (Kaiser-Meyer-Olkin) là một chỉ số dùng để xem xét sự thích hợp của phân tích nhân tố. Nếu trị số này nhỏ hơn 0.5, thì phân tích nhân tố có khả năng không thích hợp với tập dữ liệu nghiên cứu.

Kiểm định Bartlett (Bartlett’s Test có ý nghĩa thống kê (sig ≤ 0,05), chứng tỏ các biến quan sát có tương quan với nhau nhân tố. Điều kiện cần để áp dụng phân tích nhân tố là các biến quan sát phản ánh những khía cạnh khác nhau của cùng một nhân tố phải có mối tương quan với nhau. Điểm này liên quan đến giá trị hội tụ trong phân tích EFA được nhắc ở trên. Do đó, nếu kiểm định cho thấy không có ý nghĩa thống kê

Tổng phương sai trích (Total Variance Explained) ≥ 50% cho thấy mô hình EFA là phù hợp với các mô hình nghiên cứu thông thường trên mẫu điều tra nhỏ (< 100) mới cần áp dụng tiêu chuẩn này ở mức 0,5 tuy nhiên để kết quả điều tra mang tính thực tiễn, nhóm nghiên cứu vẫn sử dụng mức kiểm định chặt chẽ này.

Trị số Eigenvalue là một tiêu chí sử dụng phổ biến để xác định số lượng nhân tố trong phân tích EFA. Với tiêu chí này, chỉ có nhân tố nào có Eigenvalue ≥1 mớ được giữ lại trong mô hình phân tích.

Hệ số tải nhân tố (Factor Loading) biểu thị mối quan hệ tương quan giữa biến quan sát với nhân tố. Hệ số tải nhân tố càng cao, nghĩa là tương quan giữa biến quan sát đó với nhân tố càng lớn và ngược lại Theo Hair và cộng sự (2009) thì Factor

Loading ở mức ±0.3 là điều kiện tối thiểu để biến quan sát được giữ lại; ở mức ±0.5 thì biến quan sát có ý nghĩa thống kê tốt và ở mức ±0.7 thì biến quan sát có ý nghĩa thống kê rất tốt.

Thứ tư: Phân tích nhân tố khẳng định (CFA)

Phương pháp sử dụng thích hợp khi nhà nghiên cứu có sẵn một số kiến thức về cấu trúc biến tiềm ẩn cơ sở. Trong đó mối quan hệ hay giả thuyết (có được từ lý thuyết hay thực nghiệm) giữa biến quan sát và nhân tố cơ sở thì được các nhà nghiên cứu mặc nhiên thừa nhận trước khi tiến hành kiểm định thống kê. Như vậy CFA là bước tiếp theo của EFA nhằm kiểm định xem có một mô hình lý thuyết có trước làm nền tảng cho một tập hợp các quan sát không. Phương pháp phân tích nhân tố khẳng định CFA chấp nhận các giả thuyết của các nhà nghiên cứu, được xác định căn cứ theo quan hệ giữa mỗi biến và một hay nhiều hơn một nhân tố. Các chỉ số đo lường độ phù hợp của mô hình cụ thể là:

Kiểm định Chi-Square (χ2) : Biểu thị mức độ phù hợp tổng quát của toàn bộ mô hình tại mức ý nghĩa p-value = 0.05 [Joserkog & Sorbom, 1989]. Điều này thực tế rất khó xảy ra bởi vì χ2 rất nhạy với kích thước mẫu lớn và độ mạnh của kiểm định, nên thực tế người ta dùng chỉ số χ2 /df để đánh giá.

Tỷ số Chi-Square/bậc tự do: χ2 / df Cũng dùng để đo mức độ phù hợp một cách chi tiết hơn của cả mô hình. Một số tác giả đề nghị 1 < χ2/df < 3 [Hair et al, 1998]; một số khác đề nghị χ2 càng nhỏ càng tốt [Segar, Grover, 1993] và cho rằng χ2/df < 3:1 [Chin & Todd, 1995] Ngoài ra, trong một số nghiên cứu thực tế người ta phân biệt ra 2 trường hợp : χ2/df < 5(với mẫu N > 200) ; hay < 3 (khi cỡ mẫu N < 200) thì mô hình được xem là phù hợp tốt [Kettinger và Lee,1995].

SRMR: standardized root mean square residua: là sự khác biệt giữa phần data thực tế và phần mô hình dự đoán. Dao động từ 0->1,càng nhỏ càng tốt, SRMR=0 thì mô hình dự đoán hoàn toàn trùng khớp với dữ liệu, <=5% thì tốt.

CFI: comparative fix index. Lấy độ phù hợp của một mô hình với một bộ data và so sánh với độ phù hợp của một mô hình khác với chính data đó. Dao động từ 0- >1 , càng lớn càng tốt. CFI>=90% là tốt . Những chỉ số dạng này: TLI (Tucker–Lewis index), BL89 (Bollen's fitndex), RNI (relative noncentrality index). CFI là một phiên bản được hiệu chỉnh của RNI. CFI dùng để tránh đánh giá thấp độ phù hợp khi cỡ mẫu nhỏ khi sử dụng NFI. Vì thế, ưu điểm của CFI so với NNFI là ít bị tác động của cỡ mẫu.

RMSEA: root mean square errors of approximation, cũng dạng như SRMR, nhưng sự phù hợp sẽ xấu đi khi số biến trong mô hình tăng, <=8% thì tốt. , nên SRMR được ưu tiên dùng hơn.

GFI (goodness of fix index): dao động từ 0.0 đến 1.0 , >=90% là tốt, đo lường quan hệ của phương sai và hiệp phương sai trong ma trận hiệp phương sai. Ý là mô hình phù hợp cỡ nào khi so sánh với mô hình null (các tham số đã được fix về 0). Ngoài ra, một số đề tài do sự giới hạn về cỡ mẫu nên trị số GFI khó đạt được mức 0.9. Chính vì vậy, mức giá trị tối thiểu 0.8 vẫn được chấp nhận theo Baumgartner and Homburg(1995), and Doll, Xia, and Torkzadeh(1994).

Thứ năm: Phân tích tương quan

Sau khi nhóm tiến hành kiểm định độ tin cậy của thang đo, phân tích nhân tố, các thang đo đảm bảo độ tin cậy và kết dính cao sẽ được đưa vào xem xét mức độ tương quan và phân tích hồi quy để kiểm định nghiên cứu và các giả thuyết kèm theo.

Người ta sử dụng một số thống kê có tên là hệ số tương quan được ký hiệu là r và có giá trị trong khoảng -1 ≤ r ≤ +1 để lượng hóa mức độ chặt chẽ của mối liên hệ tuyến tính giữa 2 biến định lượng.

Giá trị r > 0 thể hiện mối tương quan đồng biến giữa các biến phân tích và ngược lại giá trị r < 0 thể hiện mối quan hệ nghịch biến. Giá trị

r = 1: tương quan tuyến tính tuyệt đối r = 0: không có mối tương quan tuyến tính ● |r| → 1: Tương quan tuyến tính càng mạnh ● |r| → 0: Tương quan tuyến tính càng yếu.

Thứ sáu: Hồi quy đa biến

Sau khi kết luận về mối liên hệ tuyến tính giữa các biến trong mô hình, nhóm nghiên cứu thực hiện mô hình hóa mối quan hệ bằng phương pháp hồi quy tuyến tính bội. Mô hình hồi quy tuyến tính được chạy và kiểm định với mức ý nghĩa α = 0,05. Nhằm đánh giá mức độ ảnh hưởng của từng biến độc lập đến biến phụ thuộc, nhóm nghiên cứu sử dụng phương pháp hồi quy bình phương nhỏ nhất– OLS với các biến độc lập là tâm lý đám đông, ảnh hưởng thông tin, ảnh hưởng quy chuẩn, và biến phụ thuộc là quyết định chọn trường đại học.

Giá trị R2 (R square), R2 hiệu chỉnh (Adjusted R Square) phản ánh mức độ giải thích biến phụ thuộc của các biến độc lập trong mô hình hồi quy. Mức dao động của 2 giá trị này là từ 0 đến 1, tuy nhiên việc đạt được mức giá trị bằng 1 là gần như không tưởng dù mô hình đó tốt đến nhường nào. Giá trị này thường nằm trong bảng Model Summary. Cần chú ý, không có sự giới hạn giá trị R2, R2 hiệu chỉnh ở mức bao nhiêu thì mô hình mới đạt yêu cầu, 2 chỉ số này nếu càng tiến về 1 thì mô hình càng có ý nghĩa, càng tiến về 0 thì ý nghĩa mô hình càng yếu. Thường chúng ta chọn mức tương đối là 0.5 để làm giá trị phân ra 2 nhánh ý nghĩa mạnh/ý nghĩa yếu, từ 0.5 đến 1 thì mô hình là tốt, bé hơn 0.5 là mô hình chưa tốt

Giá trị sig của kiểm định F được sử dụng để kiểm định độ phù hợp của mô hình hồi quy. Nếu sig nhỏ hơn 0.05 ta kết luận mô hình hồi quy tuyến tính bội phù hợp với tập dữu liệu và có thể sử dụng được.

Trị số Durbin-Watson (DW) dùng để kiểm tra hiện tượng tự tương quan chuỗi bậc nhất. DW có giá trị biến thiên trong khoảng từ 0 đến 4; nếu các phần sai số không có tương quan chuỗi bậc nhất với nhau thì giá trị sẽ gần bằng 2, nếu giá trị càng nhỏ gần về 0 thì phần sai số có tương quan thuận; nếu càng lớn gần về 4 thì có nghĩa là các phần sai số có tương quan nghịch. Theo Field (2009), nếu DW nhỏ hơn 1 và lớn hơn 3, chúng ta cần thực sự lưu ý bởi khả năng rất cao xảy ra hiện tượng tự tương quan bậc nhất. Theo Yahua, Jizong, Ming, & Shilong (2011) thường giá trị DW nằm trong khoảng 1.5-2.5 sẽ không xảy ra hiện tượng tự tương quan, đây cũng là mức giá trị tiêu chuẩn chúng ta sử dụng phổ biến hiện nay.

Giá trị sig của kiểm định t được sử dụng để kiểm định ý nghĩa của hệ số hồi quy. Nếu sig kiểm định t của hệ số hồi quy của 1 biến độc lập nhỏ hơn 0.05, ta kết luận biến độc lập đó có tác động đến biến phụ thuộc. Mỗi biến độc lập tương ứng với một hệ số hồi quy riêng, do vậy mà ta cũng có từng kiểm định t riêng.

Hệ số phóng đại phương sai VIF dùng để kiểm tra hiện tượng đa cộng tuyến. Nếu VIF của 1 biến độc lập lớn hơn 10 nghĩa là đang có đa cộng tuyến xảy ra với biến độc lập đó. Khi đó, biến này sẽ không có giá trị giải thích biến thiên của biến phụ thuộc trong mô hình hồi quy.

Thứ bảy: Phương pháp chạy sự khác biệt sử dụng T-test và Anova

Kiểm định Independent-Samples T-Test là phép kiểm định giả thuyết về trung bình của tổng thể, được dùng trong trường hợp ta muốn kiểm định giả thuyết về sự bằng nhau của 2 trung bình tổng thể dựa trên 2 mẫu độc lập rút từ 2 tổng thể này. Nếu giá trị Sig. trong kiểm định Levene (kiểm định F) < 0.05 thì phương sai của 2 tổng thể khác nhau, ta sử dụng kết quả kiểm định t ở dòng Equal variances not assumed. Nếu

Sig. ≥ 0.05 thì phương sai của 2 tổng thể không khác nhau, ta sử dụng kết quả kiểm định t ở dòng Equal variances assumed.

Kiểm định ANOVA gồm kiểm định độ đồng nhất giữa phương sai của các nhóm nhân tố có mức ý nghĩa sig. > 0.05. Nếu sig ở bảng ANOVA < 0.05, chúng ta kết luận có sự khác biệt giữa các nhóm biến định tính. Nếu sig ở bảng ANOVA >= 0.05, chúng ta kết luận không có sự khác biệt giữa các nhóm biến định tính.

Một phần của tài liệu NCKH Thái độ đối với tiền ảnh hưởng đến động cơ học đại học (Trang 54 - 60)

Tải bản đầy đủ (DOCX)

(135 trang)
w