CHƯƠNG 2. PHƯƠNG PHÁP NGHIÊN CỨU
2.4. Phân tích dữ liệu
2.4.1. Thống kê mô tả mẫu nghiên cứu
Thống kê trung bình: thường được sử dụng với các biến định lượng, dùng để
thống kê các chỉ số phân tích như giá trị trung bình (Mean), giá trị lớn nhất, nhỏ nhất
21
(Max, Min), độ lệch chuẩn (Standard deviation),...Thống kê tần số: thường được áp dụng cho các biến định tính, dùng để đọc mức độ (tần số) các chỉ số xuất hiện trong tập mẫu. Thông thường, các biến định tính ở đây sẽ là những đặc điểm nhân khẩu học như độ tuổi, giới tính, nghề nghiệp, bộ phận làm việc, thâm niên, học vấn, thu nhập,...Với mục đích để cung cấp các thông tin cơ bản liên quan đến tập mẫu và làm nổi bật các mối quan hệ có thể có giữa các biến.
2.5.2. Kiểm định độ tin cậy Cronbach’s Alpha
Trong phần này các thang đo sẽ được đánh giá độ tin cậy thông qua hệ số tin cậy Cronbach’s Alpha bằng phần mềm thống kê SPSS 20. Mục đích nhằm giúp loại đi những biến quan sát, những thang đo không đạt yêu cầu. Các biến quan sát có hệ số tương quan biến tổng (Corrected Item-Total Correlation) nhỏ hơn 0.3 sẽ bị loại và tiêu chuẩn chọn thang đo khi hệ số Cronbach’s Alpha từ 0.6 trở lên (Nunally &
Bernsteri, 1994; Slater, 1995). “Nhiều nhà nghiên cứu đồng ý rằng khi Cronbach’s Alpha từ 0.8 trở lên gần 1 thì thang đo lường tốt, từ 0.7 đến gần 0.8 là sử dụng được.
Cũng có nhà nghiên 26 cứu đề nghị rằng Cronbach’s Alpha từ 0.6 trở lên là có thể sử dụng được trong trường hợp khái niệm đang đo lường là mới hoặc mới đối với người trả lời trong bối cảnh nghiên cứu (Hoàng Trọng và Chu Nguyễn Mộng Ngọc, 2008).
2.4.3. Phân tích nhân tố khám phá EFA
Phân tích nhân tố khám phá được sử dụng chủ yếu để đánh giá giá trị hội tụ và giá trị phân biệt. Trong phân tích EFA, các nhà nghiên cứu thường quan tâm đến chỉ số KMO (Kaiser-Meyer-Olkin measure of sampling adequacy): là một chỉ số được dùng để xem xét sự thích hợp của phân tích nhân tố. Trị số của KMO lớn (giữa 0.5 và 1) là điều kiện đủ để phân tích nhân tố là thích hợp. Nếu chỉ số KMO nhỏ hơn 0.5 thì phân tích nhân tố có khả năng không thích hợp với các dữ liệu. Kiểm định Bartlett’s xem xét giả thuyết về độ tương quan giữa các biến quan sát bằng không trong tổng thể.
Nếu kiểm định này có ý nghĩa (sig<0.05) thì các biến quan sát có tương quan với nhau trong tổng thể. (Hoàng Trọng và Chu Nguyễn Mông Ngọc, 2008).
22
2.4.4. Phân tích tương quan Pearson
Mối quan hệ tuyến tính giữa các biến độc lập và biến phụ thuộc cần được kiểm tra trước khi tiến hành phân tích hồi quy tuyến tính bội. Trong nghiên cứu này, ma trận hệ số tương quan Pearson được sử dụng để đánh giá mối liên hệ tuyến tính giữa các biến. Nhóm nghiên cứu sử dụng hệ số tương quan Pearson (Pearson correlation coefficient) ký hiệu là r để tiến hành đánh giá. Hệ số này dùng để kiểm tra mối liên hệ tuyến tính giữa các biến độc lập và biến phụ thuộc.
Hệ số tương quan (r) có giá trị từ -1 đến 1.
• r = 0( hay xấp xỉ 0 ) có nghĩa là hai biến không có bất kỳ liên hệ gì.
• r = -1 hay 1 có nghĩa là hai biến có một mối liên hệ tuyệt đối.
• 0 < r < 1 có nghĩa là hai biến có tương quan cùng chiều(cùng tăng hoặc cùng giảm) và ngược lại với -1 < r < 0 có nghĩa hai biến có tương quan ngược chiều.
2.4.5. Phân tích hồi quy tuyến tính đa biến
Hoàn thành việc phân tích nhân tố khám phá EFA và chọn lọc được những tập hợp biến quan sát có giá trị, tác giả thực hiện phân tích hồi quy. Phân tích hồi quy (Regression analysis) là kỹ thuật thống kê dùng để ước lượng phương trình phù hợp nhất, thể hiện mối quan hệ giữa biến phụ thuộc và các biến độc lập.
Mô hình phân tích hồi quy:
Y = β0 + β1X1 + β2X2 + ... + βnXn + ei Trong đó: j: từ 1 đến n
Xj: giá trị của biến độc lập Βj: hệ số hồi quy riêng phần
e: biến độc lập ngẫu nhiên có phân phối chuẩn và phương sai không đổi σ2 Trị số kiểm định F đánh giá mức độ thích hợp của mô hình, F được tính từ R–Square nhằm đảm bảo điều kiện Sig<0.05. Kiểm định t đánh giá riêng từng hệ số hồi quy, hệ số t đủ lớn để chấp nhận được khi Sig<0.05. Hệ số Adjusted R – Square hay còn được gọi là R – Square được điều chỉnh thể hiện mức độ
23
tương quan giữa biến độc lập và biến phụ thuộc, hệ số càng lớn thì mức độ liên quan càng lớn...
Ngoài ra, tác giả cũng sử dụng đồng thời một số phép phân tích khác như Compare Mean, ANOVA, nhằm mục tiêu xác định xem giữa hai hình thức trả lời khảo sát có sự khác biệt hay không. Đồng thời, phân tích Crosstabs để so sánh giữa các nhóm nhân tố phụ thuộc với các đặc tính của biến nhân khẩu học
2.4.6. Phân tích sự khác biệt trung bình Independent Samples T-test của 2 tổng thể độc lập
Independent Samples T-Test dùng để so sá9nh giá trị trung bình của hai nhóm.
Independent Samples T-Test dùng tương tự như phân tích ANOVA, tuy nhiên hạn chế là chỉ so sánh được 2 nhóm với nhau.
Cách phân tích Independent-samples T-test:
• Nếu Sig. của kiểm định t ≤ α (mức ý nghĩa) -> có sự khác biệt có ý nghĩa về trung bình của 2 tổng thể. Mức ý nghĩa thông thường là 0.05 nhé.
• Nếu Sig. > α (mức ý nghĩa) -> không có sự khác biệt có ý nghĩa về trung bình của 2 tổng thể.
2.4.7. Phân tích sự khác biệt trung bình ONE WAY ANOVA giữa biến phụ thuộc với các biến nhân khẩu học
Kiểm định ANOVA (ANOVA test), hay còn được gọi là phân tích phương sai (Analysis of Variance), là một kỹ thuật thống kê tham số được sử dụng để phân tích sự khác nhau giữa giá trị trung bình của các biến phụ thuộc với nhau (Ronald Fisher, 1918).
Hiểu đơn giản, đây là một công cụ giúp xác định ảnh hưởng của các biến độc lập với biến phụ thuộc trong một nghiên cứu hồi quy. Nhưng thay vì chỉ so sánh các đối tượng trong một nhóm nghiên cứu, phân tích ANOVA giúp so sánh trong phạm vi rộng hơn, giữa hai hoặc nhiều nhóm đối tượng.
24
2.4.8. So sánh giá trị trung bình và độ lệch chuẩn
Chia thước đo Likert 5 mức độ đồng ý thành 5 phần đều nhau và phân phối mỗi phần tương ứng với một giá trị của thước đo:
Giá trị khoảng cách = (Maximum – Minimum) / 5 = (5-1)/5 = 0.8 Chúng ta sẽ có các đoạn giá trị:
• 1.00 – 1.80 (làm tròn thành 1): Rất không đồng ý
• 1.81 – 2.60 (làm tròn thành 2): Không đồng ý
• 2.61 – 3.40 (làm tròn thành 3): Trung lập
• 3.41 – 4.20 (làm tròn thành 4): Đồng ý
• 4.21 – 5.00 (làm tròn thành 5): Rất đồng ý
25