Dữ liệu sau khi thu thập được tiến hành làm sạch, mã hóa và xử lý thông qua phần mềm SPSS 16.0. Các phương pháp phân tích và đánh giá được sử dụng trong báo cáo:
Bảng thống kê mô tả nhằm mô tả mẫu thu thập theo các biến định tính
như: Giới tính, truyền thống kinh doanh của gia đình, hộ khẩu thường trú, trường và chuyên ngành đang theo học.
Kiểm định độ tin cậy thang đo với hệ số Cronbach’s Alpha là phép kiểm
cứu) của tập hợp các biến quan sát (các câu hỏi) trong thang đo. Hair & đồng sự (2010) cho rằng hệ số Cronbach’s Alpha có giá trị từ 0.8 trở lên là thang đo tốt; từ 0.7 đến gần 0.8 là sử dụng được. Song, cũng có nhiều nhà nghiên cứu đề nghị hệ số Cronbach’s Alpha từ 0.6 trở lên là có thể sử dụng được trong trường hợp khái niệm đang nghiên cứu là mới hoặc mới đối với người trả lời trong bối cảnh nghiên cứu. Tuy nhiên, Cronbach’s Alpha quá cao (>0.95) thì có khả năng xuất hiện biến quan sát thừa (Redundant items) ở trong thang đo. Biến quan sát thừa là biến đo lường một khái niệm hầu như trùng với biến đo lường khác, khi đó biến thừa nên được loại bỏ. Mặt khác, Cronbach’s alpha không cho biết biến nào nên loại bỏ và biến nào nên giữ lại. Bởi vậy, bên cạnh hệ số Cronbach’s Alpha, người ta còn sử dụng hệ số tương quan biến tổng (item- total correlation) và những biến nào có tương quan biến tổng < 0.3 sẽ bị loại bỏ.
Phương pháp phân tích nhân tố khám phá (EFA) được ứng dụng để tóm
tắt tập các biến quan sát vào một số nhân tố nhất định đo lường các khía cạnh khác nhau của các khái niệm nghiên cứu. Tiêu chuẩn áp dụng và chọn biến đối với phân tích nhân tố khám phá EFA bao gồm: Tiêu chuẩn Bartlett và hệ số KMO dùng để đánh giá sự thích hợp của EFA. Theo đó, giả thuyết H0 (các biến không có tương quan với nhau trong tổng thể) bị bác bỏ và do đó EFA được gọi là thích hợp khi: 0.5 ≤ KMO ≤ 1 và Sig < 0.05. Trường hợp KMO < 0.5 thì phân tích nhân tố có khả năng không thích hợp với dữ liệu. Tiêu chuẩn rút trích nhân tố gồm chỉ số Eigenvalue (đại diện cho lượng biến thiên được giải thích bởi các nhân tố) và chỉ số Cumulative (tổng phương sai trích cho biết phân tích nhân tố giải thích được bao nhiêu % và bao nhiêu % bị thất thoát).
Theo Anderson & Gerbing (1988), các nhân tố có Eigenvalue < 1 sẽ không có tác dụng tóm tắt thông tin tốt hơn biến gốc (biến tiềm ẩn trong các thang đo trước khi EFA). Vì thế, các nhân tố chỉ được rút trích tại Eigenvalue ≥1 và được chấp nhận
khi tổng phương sai trích ≥ 50%. Tuy nhiên, trị số Eigenvalue và phương sai trích là bao nhiêu còn phụ thuộc vào phương sai trích và phép xoay nhân tố. Theo Kline (2005), nếu sau phân tích EFA là phân tích hồi quy thì có thể sử dụng phương pháp trích Pricipal components với phép xoay Varimax, còn nếu sau EFA là phân tích nhân tố khẳng định (CFA) và phân tích mô hình cấu trúc tuyến tính (SEM) thì nên sử dụng phương pháp trích Pricipal Axis factoring với phép xoay Promax.
Tiêu chuẩn hệ số tải nhân tố biểu thị tương quan đơn giữa các biến với các nhân tố, dùng để đánh giá mức ý nghĩa của EFA. Theo Hair & cộng sự (1998), nếu hệ số tải nhân tố lớn hơn 0.3 được xem là đạt mức tối thiểu, nếu lớn hơn 0.4 được xem là quan trọng, nếu lớn hơn 0.5 được xem là có ý nghĩa thực tiễn. Trường hợp chọn tiêu chuẩn hệ số tải nhân tố lớn hơn 0.3 thì cỡ mẫu ít nhất phải là 350; nếu lớn hơn 0.5 thì cỡ mẫu khoảng 100. Trường hợp các biến có hệ số tải nhân tố không thỏa mãn điều kiện trên hoặc trích vào các nhân tố khác nhau mà chênh lệch trọng số rất nhỏ, tức không tạo nên sự khác biệt để đại diện cho một nhân tố thì biến đó bị loại.
Phương pháp phân tích nhân tố khẳng định (CFA- Confirmatory
Factor Analysis) được sử dụng để kiểm định độ phù hợp của mô hình thang đo với
dữ liệu nghiên cứu. CFA cho phép chúng ta kiểm định cấu trúc lý thuyết của các thang đo cũng như mối quan hệ giữa một khái niệm nghiên cứu với các khái niệm khác mà không bị chệch do sai số đo lường. Hơn nữa, chúng ta có thể kiểm định giá trị hội tụ và giá trị phân biệt của thang đo mà không cần dùng nhiều nghiên cứu như các phương pháp truyền thống. Vì thế, trong nghiên cứu này, tác giả ứng dụng CFA để kiểm định mức độ phù hợp của mô hình thang đo với dữ liệu thu thập được (thông tin thị trường) sau khi đã đánh giá bằng hệ số tin cậy Cronbach’s alpha và phân tích nhân tố khám phá (EFA). Trong nghiên cứu này tác giả sử dụng phần mềm AMOS 18.0 để thực hiện kiểm định các giá trị và giả thuyết của mô hình nghiên cứu.
Tiêu chuẩn để thực hiện CFA bao gồm các tiêu chuẩn đánh giá mức độ phù hợp chung và tiêu chuẩn đánh giá mức độ phù hợp theo các khía cạnh giá trị nội dung. Trong đó, để đánh giá mức độ phù hợp chung của mô hình, tác giả sử dụng các tiêu chuẩn: Chi- square (Chi bình phương CMIN); Chi -square điều chỉnh theo bậc tự do (CMIN/df);
chỉ số GFI (Goodness of Fit Index;) chỉ số TLI (Tucker & Lewis Index); Chỉ số CFI (Comparative Fit Index;) chỉ số RMSEA (Root Mean Square Error Approximation). Mô hình được coi là phù hợp khi kiểm định Chi-square có giá trị p ≥ 0.05. Tuy nhiên, Chi-square có nhược điểm là phụ thuộc vào kích thước mẫu nghiên cứu. Khi kích thước của mẫu càng lớn thì Chi-square càng lớn do đó làm giảm mức độ phù hợp của mô hình. Bởi vậy, bên cạnh p-value, các tiêu chuẩn được sử dụng là CMIN/df ≤ 2 (theo Carmines & Mciver, 1981, trong một số trường hợp có thể chấp nhận CMIN/df ≤3); GFI, TLI, CFI ≥ 0.9 (Bentler & Bonett, 1980). Tuy vậy, theo Hair &ctg (2010) cho rằng chỉ số GFI vẫn có thể chấp nhận được khi nhỏ hơn 0.9; RMSEA≤0.08, trường hợp RMSEA ≤ 0.05 theo Steiger (1990) được coi là rất tốt.
Các tiêu chuẩn đánh giá mức độ phù hợp của mô hình theo các khía cạnh giá trị nội dung bao gồm
Độ tin cậy của thang đo được đánh giá thông qua hệ số tin cậy tổng hợp, tổng phương sai trích được, hệ số tin cậy. Trong đó, phương sai trích phản ánh lượng biến thiên chung của các biến quan sát được giải thích bởi biến tiềm ẩn (Hair & ctg, 2010); độ tin cậy tổng hợp đo lường độ tin cậy của tập hợp các biến quan sát đo lường một khái niệm (nhân tố); hệ số tin cậy Cronbach’s Alpha đo lường tính kiên định nội tại xuyên suốt tập hợp các biến quan sát của các câu hỏi (Schummacker & Lomax, 2006). Tiêu chuẩn đánh giá mức độ phù hợp của mô hình bởi độ tin cậy thang đo là hệ số tin cậy tổng hợp > 0.5 hoặc tổng phương sai trích > 0.5 hoặc hệ số tin cậy ≥ 0.6.
Tính đơn hướng/ đơn nguyên (Unidimensionality) của một thang đo thẻ hiện mỗi một biến quan sát chỉ được sử dụng để đo lường duy nhất một khái niệm tiềm ẩn. Theo Steenkamp & Trijp (1991) mức độ phù hợp của mô hình đo lường với dữ liệu thị trường cho chúng ta điều kiện cần và đủ để kết luạn tập các biến quan sát đạt được tính đơn hướng, trừ khi các sai số của tập các biến quan sát có tương quan với nhau. Giá trị hội tụ (Convergent validity) thể hiện giá trị đo lường một khái niệm tương quan chặt chẽ với nhau sau những đo lường được lặp lại. Theo Anderson & Gerbing (1998) giá trị liên hệ lý thuyết được đánh giá trong mô hình lý thuyết và Churchill (1979) được coi là phù hợp khi “mỗi một đo lường có mối liên hệ với các đo lường khác như đã kỳ vọng về mặt lý thuyết”.
Hair & ctg (2010) cho rằng SEM là một phần mở rộng hoặc một sự kết hợp độc đáo của một số kỹ thuật đa biến như phân tích hồi quy và phân tích đa yếu tố. Vì vậy, SEM cho phép các nhà nghiên cứu khám phá những sai số đo lường và hợp nhất những khái niệm trừu tượng và khó phân biệt. Nó không chỉ liên kết lý thuyết với dữ liệu mà còn đối chiếu lý thuyết với dữ liệu (Bagozzi & Foxall, 1991); Anderson & Gerbing, 1988). Như vậy, các tiêu chuẩn kiểm định được áp dụng tương tự như trong phân tích CFA.
Ngoài ra, khi SEM số lượng các mối quan hệ cấu trúc bằng với số mối tương quan có thể có trong CFA thì mô hình được coi là một mô hình cấu trúc bão hòa. Kết quả là, số liệu thống kê phù hợp của mô hình lý thuyết bão hòa nên được giống như những gì thu được đối với mô hình CFA (Hair & ctg, 2010). Trong nghiên cứu này, phân tích mô hình cấu trúc tuyến tính được sử dụng để kiểm định mô hình nghiên cứu; phương pháp ước lượng tối ưu ML (Maximum likelihood) được sử dụng để ước lượng các tham số của mô hình. Theo Muthen & Kaplan (1985), phép kiểm định này khi kiểm định cho phép phân phối của các biến quan sát lệch một ít so với phân phối chuẩn đa biến, nhưng hầu hết các Kurtoses và Skewnesses đều nằm trong giới hạn (- 1,+1). Tuy nhiên, cũng cần nhận thức rằng ít có mô hình đo lường nào cùng đạt được tất cả các tiêu chuẩn trên. Thực tế trong nhiều nghiên cứu, giá trị p-value và tính đơn hướng thường khó đạt được trên tất cả các thang đo của các khái niệm nghiên cứu (Nguyễn Đình Thọ, 2009).
Phương pháp phân tích cấu trúc tuyến tính (SEM- Structural Equation
Modelling) được sử dụng để kiểm định độ phù hợp mô hình lý thuyết và các giả
thuyết nghiên cứu. Theo Sanchez & cộng sự (2005), mô hình cấu trúc tuyến tính là một mô hình cho phép mô hình hoá dữ liệu đa biến phức tạp. Với cùng quan điểm trên, Hair & cộng sự (2010, tr.710) nhấn mạnh rằng SEM là “phương pháp tiếp cận hiệu quả nhất để kiểm tra đồng thời các mối quan hệ phụ thuộc liên quan giữa các biến đo lường tiềm ẩn”.
Hair & cộng sự (2010) cho rằng SEM là một phần mở rộng hoặc một sự kết hợp độc đáo của một số kỹ thuật đa biến như phân tích hồi quy và phân tích đa yếu
tố. Vì vậy, SEM cho phép các nhà nghiên cứu đánh giá sự đóng góp của từng thang đo, mối quan hệ giữa các thang đo khái niệm như thế nào và ước lượng mối quan hệ giữa các biến độc lập và phụ thuộc (Sanchez & cộng sự, 2005). SEM cho phép các nhà nghiên cứu khám phá những sai số đo lường và hợp nhất những khái niệm trừu tượng và khó phân biệt. Nó không chỉ liên kết lý thuyết với dữ liệu mà còn đối chiếu lý thuyết với dữ liệu (Bagozzi & Foxall, 1996; Anderson & Gerbing, 1988). Như vậy, các tiêu chuẩn kiểm định được áp dụng tương tự như trong phân tích CFA. Ngoài ra, khi SEM số lượng các mối quan hệ cấu trúc bằng với số mối tương quan có thể có trong CFA thì mô hình được coi là một mô hình cấu trúc bão hòa. Kết quả là, số liệu thống kê phù hợp của mô hình lý thuyết bão hòa nên được giống như những gì thu được đối với mô hình CFA (Hair & cộng sự, 2010).
CHƯƠNG 4: KẾT QUẢ NGHIÊN CỨU