6. Cấu trúc luận văn
2.4.3. Phân tích dữ liệu
Việc phân tích dữ liệu trong nghiên cứu này gồm hai phần: (1) kiểm định mô hình đo lƣờng chất lƣợng dịch vụ; (2) xem xét mối quan hệ giữa chất lƣợng dịch vụ, giá dịch vụ chơi golf, sự hài lòng và ý định quay trở lại sân golf của khách chơi golf.
Kỹ thuật phân tích: Xác định hệ số Cronbach Alpha, phƣơng pháp phân tích nhân tố khám phá (EFA), phƣơng pháp phân tích nhân tố khẳng định (CFA), mô hình cấu trúc tuyến tính (SEM).
a. Đánh giá độ tin cậy thang đo với hệ số Cronbach Alpha
Phân tích độ tin cậy bằng Hệ số Cronbach Alpha là phân tích kiểm định mức độ chặt chẽ mà các biến trong thang đo tƣơng quan với nhau. Phƣơng pháp này cho phép ngƣời phân tích loại bỏ các biến không phù hợp và hạn chế các biến rác trong quá trình nghiên cứu và đánh giá độ tin cậy của thang đo. Những biến có hệ số tƣơng quan biến tổng (item-total correlation) nhỏ hơn 0.3 sẽ bị loại.
Thang đo có hệ số Cronbach Alpha từ 0.6 trở lên là có thể sử dụng đƣợc trong trƣờng hợp khái niệm đang nghiên cứu mới (Nunnally, 1978; Peterson, 1994; Slater, 1995). Thông thƣờng, thang đo có Cronbach Alpha từ 0.7 đến 0.8 là sử dụng đƣợc. Nhiều nhà nghiên cứu cho rằng khi thang đo có độ tin cậy từ 0.8 trở lên đến gần 1 là thang đo lƣờng tốt.
b. Phân tích nhân tố khám phá EFA (exploratory factor analysis)
Sau khi phân tích độ tin cậy của thang đo, phân tích nhân tố khám phá đƣợc tiến hành. Phân tích nhân tố khám phá là kỹ thuật đƣợc sử dụng nhằm thu nhỏ và tóm tắt dữ liệu (nhóm tất cả các biến thành một số các nhân tố). Phƣơng pháp này rất có ích cho việc xác định các tập hợp biến cần thiết cho vấn đề nghiên cứu và đƣợc sử dụng để tìm mối quan hệ giữa các biến với nhau.
Trong phân tích nhân tố khám phá, trị số KMO (Kaiser-Meyer-Olkin) là chỉ số dùng để xem xét sự thích hợp của phân tích nhân tố. Trị số KMO phải có giá trị trong khoảng từ 0.5 đến 1 thì phân tích này mới thích hợp, còn nếu nhƣ trị số này nhỏ hơn 0.5 thì phân tích nhân tố có khả năng không thích hợp với các dữ liệu.
Ngoài ra, phân tích nhân tố còn dựa vào Eigenvalue để xác định số lƣợng nhân tố. Đại lƣợng Eigenvalue đại diện cho lƣợng biến thiên đƣợc giải thích bởi nhân tố. Những nhân tố có Eigenvalue nhỏ hơn 1 sẽ không có tác dụng tóm tắt thông tin tốt hơn một biến gốc. Theo tiêu chuẩn Kaiser, chỉ những nhân tố có Eigenvalue lớn hơn 1 thì mới đƣợc giữ lại trong mô hình và tiêu chuẩn phƣơng sai trích (Variance explained criteria) là tổng phƣơng sai trích phải lớn hơn 50%.
Một phần quan trọng trong kết quả phân tích nhân tố là ma trận nhân tố (component matrix) hay ma trận nhân tố sau khi xoay (rotated component matrix). Ma trận nhân tố chứa các hệ số biểu diễn các biến chuẩn hóa bằng các nhân tố (mỗi biến là một đa thức của các nhân tố). Những hệ số này gọi là hệ số tải nhân tố (factor loading) biểu diễn tƣơng quan giữa các biến và các nhân tố. Hệ số này lớn cho biết nhân tố và biến có liên quan chặt chẽ với
nhau. Vì sau EFA, phân tích CFA và SEM sẽ đƣợc thực hiện nên cấu trúc của thang đo cần phải đƣợc quan tâm, các khái niệm sau khi rút ra có thể tƣơng quan với nhau, và cũng rất quan tâm đến sự phân biệt rõ ràng giữa các nhân tố. Nên nghiên cứu này sử dụng phƣơng pháp trích nhân tố là Principal Axis Factoring với phép quay không vuông góc Promax.
Theo Hair và ctg (1998), Factor loading là chỉ tiêu để đảm bảo mức ý nghĩa thiết thực của EFA. Factor loading > 0.3 đƣợc xem là mức tối thiểu, Factor loading > 0.4 đƣợc xem là quan trọng, Factor loading >= 0.5 đƣợc xem là có ý nghĩa thực tiễn. Nên khi tiến hành phân tích EFA, nghiên cứu này sẽ loại bỏ các biến có hệ số tải nhân tố nhỏ hơn 0.5 và quan tâm đến tiêu chuẩn ớn nhất vàFactor loadingbất kỳ phải >= 0.3 (Jabnoun và Al-Tamimi, 2003).
Việc giải thích các nhân tố đƣợc thực hiện trên cơ sở nhận ra các biến có hệ số factor loading lớn ở cùng một nhân tố. Theo đó, nhân tố này có thể đƣợc giải thích bằng các biến có hệ số lớn đối với bản thân nó.
Sau khi giải thích các nhân tố, cần tính toán các nhân số (trị số của các biến tổng hợp, đại diện cho các nhân tố hay thành phần đƣợc rút trích ở trên) để sử dụng trong các phƣơng pháp phân tích đa biến tiếp theo. Nhân số này chƣa chuẩn hóa và đƣợc tính bằng cách lấy trung bình giá trị các biến trong nhân tố tại từng quan sát.
c. Phân tích mô hình cấu trúc tuyến tính SEM (structural equation modelling)
Sau khi kiểm định độ tin cậy của mô hình đo lƣờng, phân tích mô hình cấu trúc tuyến tính SEM đƣợc thực hiện để kiểm định mối quan hệ giữa các nhân tố/ biến độc lập và biến phụ thuộc của mô hình – kiểm định giả thuyết.
SEM là một kỹ thuật mô hình thống kê rất tổng quát, đƣợc sử dụng rộng rãi trong khoa học nghiên cứu hành vi. SEM có thể cho một mô hình phức hợp phù hợp với dữ liệu nhƣ các bộ dữ liệu khảo sát trong dài hạn (longitudinal), các mô hình không chuẩn hóa, cơ sở dữ liệu có cấu trúc sai số tự tƣơng quan, dữ liệu với các biến số không chuẩn (non-normality), hay dữ liệu bị thiếu (missing data). Đặc biệt, SEM đƣợc sử dụng để ƣớc lƣợng các mô hình đo lƣờng (mesurement model) và mô hình cấu trúc (structure model) của bài toán lý thuyết đa biến. Mô hình đo lƣờng chỉ rõ quan hệ giữa các biến tiềm ẩn (Latent variables) và các biến quan sát (observed variables). Nó cung cấp thông tin về thuộc tính đo lƣờng của biến quan sát (độ tin cậy, độ giá trị). Mô hình cấu trúc chỉ rõ mối quan hệ giữa các biến tiềm ẩn với nhau. Các mối quan hệ này có thể mô tả những dự báo mang tính lý thuyết mà các nhà nghiên cứu quan tâm.
Mô hình SEM phối hợp đƣợc tất cả các kỹ thuật nhƣ hồi quy đa biến, phân tích nhân tố và phân tích mối quan hệ hỗ tƣơng (giữa các phần tử trong sơ đồ mạng) để cho phép chúng ta kiểm tra mối quan hệ phức hợp trong mô hình. Khác với những kỹ thuật thống kê khác chỉ cho phép ƣớc lƣợng mối quan hệ riêng phần của từng cặp nhân tố (phần tử) trong mô hình cổ điển (mô hình đo lƣờng), SEM cho phép ƣớc lƣợng đồng thời các phần tử trong tổng thể mô hình, ƣớc lƣợng mối quan hệ nhân quả giữa các khái niệm tiềm ẩn (Latent constructs) qua các chỉ số kết hợp cả đo lƣờng và cấu trúc của mô hình lý thuyết, đo các mối quan hệ ổn định (recursive) và không ổn định (non- recursive), đo các ảnh hƣởng trực tiếp cũng nhƣ gián tiếp, kể cả sai số đo và tƣơng quan phần dƣ.
Bản chất của mô hình SEM là đòi hỏi các nhà nghiên cứu trƣớc hết thực hiện khai báo các giá trị xuất phát ban đầu đƣợc gọi là mô hình giả thiết. Từ mô hình giả thiết, thông qua một chuỗi vòng lặp các chỉ số biến đổi để cuối cùng cung cấp cho nhà nghiên cứu một mô hình xác lập, có khả năng giải thích tối đa sự phù hợp giữa mô hình với bộ dữ liệu thu thập thực tế.
Sự phù hợp của toàn bộ mô hình trên thực tế đƣợc đánh giá thông qua các tiêu chí về mức độ phù hợp nhƣ sau:
- Kiểm định Chi-square (2): biểu thị mức độ phù hợp tổng quát của toàn bộ mô hình tại mức ý nghĩa pv = 0.05 (Joserkog và Sorbom, 1989). Điều này thực tế rất khó xảy ra bởi vì rất nhạy với kích thƣớc mẫu lớn và độ mạnh của kiểm định, nên thực tế ngƣời ta dùng chỉ số (2 / df ) để đánh giá.
- Tỉ số Chi-square/bậc tự do (2 /df): cũng dùng để đo mức độ phù hợp một cách chi tiết hơn của cả mô hình. Một số tác giả đề nghị 1 < 2/df < 3 (Hair và ctg, 1998); một số khác đề nghị 2càng nhỏ càng tốt (Segar, Grover, 1993) và cho rằng 2/df < 3:1 (Chin và Todd, 1995).
- Các chỉ số liên quan khác: GFI, CFI, TLI, ... có giá trị > 0.9 đƣợc xem là mô hình phù hợp tốt. Nếu các giá trị này bằng 1, ta nói mô hình là hoàn hảo (Segar, Grover, 1993; Chin và Todd, 1995).
CHƢƠNG 3
KẾT QUẢ NGHIÊN CỨU