- Đánh giá độ tin cậy của thang đo:
Một trong những hình thức đo lường và sử dụng phổ biến nhất trong nghiên cứu kinh tế xã hội là thang đo do Rennis Likert giới thiệu.
Hệ số α của Cronbach là một phép kiểm định thống kê về mức độ chặc chẽ mà các mục câu hỏi trong thang đo tương quan với nhau. Công thức hệ số Cronbach α là:
α = Np/[ 1 + p(N-1) ]
Theo Nunally & Burntein (1994) thì các biến có hệ số tương quan tổng biến (item - total corellation) nhỏ hơn 0,3 sẽ bị loại. Thang đo được chấp nhận khi hệ số Cronbach Alpha của các thành phần nghiên cứu lớn hơn 0,6.
Theo quy ước thì một tập hợp các mục hỏi dùng để đo lường được đánh giá tốt nhất phải có hế số lớn hơn hoặc bằng 0,8. Hệ số α của Cronbach cho ta biết các đo lường có liên kết với nhau không. (Hoàng Trọng - Chu Nguyễn Mộng Ngọc, 2005, Phân tích dữ liệu nghiên cứu với SPSS, trang 252) [6]
-Phân tích nhân tố:
Phân tích nhân tố là các thủ tục được sử dụng chủ yếu là để thu nhỏ và tóm tắt các dữ liệu. Chúng ta có thể thu thập được một số lượng lớn biến khá lớn và hầu hết các biến này có liên hệ với nhau và số lượng của chúng phải giảm bớt xuống đến một số lượng mà chúng ta chúng ta có thể sử dụng được. Liên hệ giữa các nhóm biến có liên hệ qua lại lẫn nhau được xem xét và trình bày dưới dạng một số ít các nhân tố cơ bản.
Một số tham số thống kê được sử dụng trong nghiên cứu này:
- Eigenvalue: đại diện cho phần biến thiên được giải thích bởi mỗi nhân tố. - Correlation Matrix: cho biết hệ số tương quan giữa các cặp biến trong phân tích.
- Factor loadings (hệ số tải nhân tố): là những hệ số tương quan đơn giữa các biến và nhân tố.
- Kaiser - Meyer - Olkin (KMO): là một chỉ số dùng để xem xét sự thích hợp của phân tích nhân tố. Trị số của KMO lớn (0,5 < KMO < 1) có ý nghĩa là phân tích nhân tố là thích hợp, còn nếu như trị số này là nhỏ hơn 0,5 thì phân tích nhân tố có khả năng không thích hợp với các dữ liệu. (Hoàng Trọng - Chu Nguyễn Mộng Ngọc, 2005, Phân tích dữ liệu nghiên cứu với SPSS ) [6]
- Phân tích tương quan: xem xét mối quan hệ giữa hai hay nhiều biến
Phân tích tương quan gồm có:
+Tương quan 2 biến – Bivariate Correlations +Tương quan riêng phần – Partial Correlations
Trong đó sử dụng hệ số tương quan Pearson (ký hiệu r) để lường hóa mức độ chặt chẽ của mối liên hệ tuyến tính giữa hai hay nhiều biến điịnh lượng .
Giá trị tuyệt đối của tiến gần đến 1 khi các biến định lượng có mối tương quan tuyến tính chặt chẽ.
Giá trị r = 0 chỉ ra rằng các biến định tính không có mối liên hệ tuyến tính. Trong phần kiểm định mức ý nghĩa (Test of signification) cóhai loại kiểm định như sau:
Two-tail (Kiểm định hai phía): loại kiểm định này sử dụng trong trường hợp mối liên hệ tuyến tính không thể xác định trước được.
One-tail (Kiểm định một phía): loại kiểm định này sử dụng khi xác định được mối liên hệ giữa các biến đinh lượng cần phân tích.(Hoàng Trọng – Chu Nguyễn Mộng Ngọc, phân tích dữ liệu SPSS, 2005) [6]
- Phân tích hồi quy, chứng minh sự phù hợp của mô hình:
Công việc quan trọng của bất kỳ thủ tục thống kê xây dựng mô hình từ dữ liệu nào cũng đều là chứng minh sự phù hợp của mô hình. Để biết mô hình hồi quy tuyến tính đã xây dựng trên dữ liệu mẫu phù hợp đến mức độ nào dữ liệu thì chúng ta cần một thước đo để sự phù hợp của nó. Thước đo thường dùng là hệ số xác định R2 càng gần 1 thì mô hình đã xây dựng càng thích hợp, R2 càng gần 0 thì mô hình càng kém phù hợp với tập dữ liệu, có nhiều thủ tục chọn biến, một trong những thủ tục chọn biến phổ biến nhất là phương pháp loại trừ dần (backward elimination).
Thủ tục chọn biến theo phương pháp Backward trong phần mềm SPSS: phương pháp loại trừ dần khởi đầu với tất cả các biến đều ở trong phương trình và sau đó tuần tự loại trừ chúng bằng tiêu chuẩn loại trừ (removal criteria). Có hai tiêu chuẩn loại trừ : Tiêu chuẩn thứ nhất: các biến độc lập có giá trị F nhỏ hơn FOUT sẽ bị lọai ra khỏi phương trình.
Tiêu chuẩn thứ hai: là xác suất tối đa tương ứng với F ra (probability of F to remove) mà một biến không được vượt quá để được ở lại trong mô hìn, ký hiệu trong chương trình POUT.
Các thông số trong thống kê hồi quy tuyến tính :
Estimates (các ước lượng): cho thực hiện các hệ số hồi quy và các đo lường có liên quan, mục này được lựa chọn mặc định thể hiện trong bảng kết quả.
Confidence interval (khoảng tin cậy): cho thể hiện khoảng tin cậy 95% của từng hệ số hồi quy không chuẩn hóa.
Model fit (các thống kê đánh giá sự phù hợp của mô hình) như R, R2 , R2 điều chỉnh, và sai số chuẩn.
Descriptives (các thống kê mô tả): các trị trung bình , độ lệch chuẩn, và ma trận tương quan với các xác suất kiểm định một phía.
Durbin-Watson: thể hiện thống kê kiểm định Durbin - Watson; và cả các thống kê tóm tắt của các ơhần dư không chuẩn hóa và chuẩn hóa cũng như các giá trị dự đoán. (Hoàng Trọng – Chu Nguyễn Mộng Ngọc, phân tích dữ liệu SPSS, 2005) [6]
- Phân tích phương sai ANOVA :
Là sự mở rộng của kiểm định t. Kỹ thuật phân tích phương sai dùng để kiểm định giả thuyết các tổng thể nhóm (tổng thể bộ phận) có trị trung bình bằng nhau. Kỹ thuật này dựa trên cơ sở tính toán mức độ biến thiên trong nội bộ các nhóm và biến thiên giữa trung bình nhóm. Dựa trên hai ước lượng này của mức độ biến thiên ta có thể rút ra kết luận về mức độ khác nhau giữa các nhóm trung bình nhóm.
Có hai thủ tục phân tích phương sai: ANOVA một yếu tố và ANOVA nhiều yếu tố. Phân tích phương sai một yếu tố sử dụng khi chỉ sử dụng một biến yếu tố để phân loại các quan sát thành các nhóm khác nhau.
Trong trường hợp căn cứ hai hay nhiều biến yếu tố để phân chia các nhóm thì ta phải dùng đến thủ tục ANOVA nhiều yếu tố.
Trong phân tích phương sai ANOVA một yếu tố:
- Các nhóm so sánh phải độc lập và được chọn một cách ngẫu nhiên.
- Các nhóm phải có so sánh chuẩn hoặc cỡ mẫu phải đủ lớn để được xem như tiệm cận phân phối chuẩn.
-Phương sai các nhóm phải đủ lớn.
Phân tích phương sai một yếu tố One way ANOVA với SPSS các thông số kiểm định: Descriptive: để tính các đại lượng thông kê mô tả chi tiết cho từng nhóm được phân tích .
Homogeneity of variance để kiểm định sự bằng nhau của các phương sai nhóm.