0
Tải bản đầy đủ (.pdf) (157 trang)

Phân tích dữ liệu

Một phần của tài liệu TÁC ĐỘNG CỦA TÍNH CÁCH THƯƠNG HIỆU ĐẾN LÒNG TRUNG THÀNH CỦA KHÁCH HÀNG ĐỐI VỚI NGÀNH THỜI TRANG TẠI TP HCM (Trang 51 -62 )

- Kiểm định mô hình Kiểm tra giả thiết Đánh giá kết quả phân tích

3.4.2 Phân tích dữ liệu

Sau khi thu thập, các bản phỏng vấn được rà soát và loại đi những bản phỏng vấn không đạt yêu cầu; sau đó tiến hành mã hóa, nhập liệu và làm sạch dữ liệu bằng SPSS 22. Phần mềm SPSS 22 được sử dụng để đánh giá sơ bộthang đo thông qua kiểm định hệ số tin cậy Cronbach’s Alpha, phân tích yếu tố khám phá EFA và phân tích thống kê mô tả mẫu. Phần mềm AMOS 22 được sử dụng để phân tích nhân tố khẳng định CFA, kiểm định mô hình và giả thuyết bằng phân tích cấu trúc tuyến tính SEM, ước lượng mô hình bằng bootstrap và phân tích đa nhóm. Trình tự phân tích dữ liệu được thực hiện theo các bước sau:

37

Bước 1 – Chuẩn bị thông tin: thu nhận bảng trả lời, tiến hành lọc thông tin/ dữ liệu, mã hóa các thông tin cần thiết trong bảng trả lời, nhập liệu và phân tích dữ liệu bằng phần mềm SPSS 22.

Bước 2 – Nghiên cứu thống kê mô tả: tiến hành thống kê mô tả dữ liệu thu thập được.

Bước 3 – Kiểm định phân phối chuẩn; Đánh giá độ tin cậy: tiến hành kiểm định xem các thang đo đã đạt phân phối chuẩn hay chưa và đánh giá độ tin cậy thang đo bằng phân tích Cronbach’s Anpha.

Bước 4 – Phân tích nhân tố khám phá: phân tích thang đo bằng phân tích nhân tố khám phá EFA (Exploratory Factor Analysis).

Bước 5 – Kiểm định thang đo bằng phân tích nhân tố khẳng định CFA (Confirmnatory Factor Analysis).

Bước 6 – Phân tích cấu trúc tuyến tính SEM để kiểm định độ thích hợp của mô hình, ước lượng bằng Bootstrap và phân tı́ch đa nhóm.

▪Đánh giá độ tin cậy thang đo

Độ tin cậy của thang đo được đánh giá bằng phương pháp nhất quán nội tại qua hệ số Cronbach’s Alpha. Hệ số Cronbach’s Alpha càng lớn thì độ tin cậy nhất quán nội tại càng cao. Sử dụng phương pháp hệ số tin cậy Cronbach’s Alpha trước khi phân tích nhân tốkhám phá EFA để loại các biến không phù hợp vì các biến này có thể tạo ra các yếu tố giả (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2011). Hệ số tin cậy Cronbach’s Alpha cho biết các biến đo lường có liên kết với nhau hay không nhưng không cho biết biến nào cần loại bỏ và biến nào cần giữ lại. Do đó, kết hợp sử dụng hệ sốtương quan biến – tổng để loại ra những biến có tầm quan trọng thấp cho khái niệm cần đo lường (Hoàng Trọng & Chu Nguyễn Mộng Ngọc, 2008). Các tiêu chí sử dụng khi thực hiện đánh giá độ tin cậy

38

thang đo gồm: Hệ số tin cậy Cronbach’s Alpha: lớn hơn 0.8 là thang đo lường tốt; từ 0.7 đến 0.8 là sử dụng được; từ 0.6 trở lên là có thể sử dụng trong trường hợp khái niệm nghiên cứu là mới hoặc là mới trong hoàn cảnh nghiên cứu (Hoàng Trọng & Chu Nguyễn Mộng Ngọc, 2008). Trong nghiên cứu này, người viết chọn thang đo có độ tin cậy Cronbach’s Alpha lớn hơn 0.6. Hệ sốtương quan biến – tổng: các biến quan sát có tương quan biến – tổng nhỏhơn 0.3 được xem là biến rác thì sẽđược loại bỏvà thang đo được chấp nhận khi hệ sốCronbach’s Alpha đạt yêu cầu (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2011).

Phân tích nhân tố khám phá EFA

Phân tích nhân tố được dùng để tóm tắt dữ liệu và rút gọn tập hợp các yếu tố quan sát thành những yếu tố chính dùng trong các phân tích, kiểm định tiếp theo (gọi là các nhân tố). Các nhân tốđược rút gọn này sẽcó ý nghĩa hơn nhưng vẫn chứa đựng hầu hết nội dung thông tin của tập biến quan sát ban đầu. Phân tích nhân tố khám phá được dùng để kiểm định giá trị khái niệm của thang đo.

Khi phân tích nhân tố khám phá, các nhà nghiên cứu đều quan tâm đến một số tiêu chuẩn:

(1) Tiêu chuẩn thứ nhất, hệ số KMO (Kaiser – Meyer – Olkin) là một chỉ số dùng để xem xét sự thích hợp của phân tích nhân tố. Kiểm định Barlett xem các biến quan sát có tương quan với nhau trong tổng thể. Trị số của KMO lớn (ở mức giữa 0.5 và 1) có ý nghĩa là phân tích nhân tố thích hợp; ngược lại, KMO nhỏ hơn 0.5 thì phân tích nhân tố có khả năng không thích hợp với các dữ liệu. Nếu kiểm định này có ý nghĩa thống kê (sig ≤ 0.05) thì các biến quan sát có tương quan với nhau trong tổng thể (Hoàng Trọng & Chu Nguyễn Mộng Ngọc, 2008).

(2) Hệ số tải nhân tố là chỉ tiêu thứhai đểđảm bảo mức ý nghĩa thiết thực của EFA. Hệ số tải nhân tố phải lớn hơn hoặc bằng 0.5 để đảm bảo mức tối thiểu có thể chấp nhận được; lớn hơn 0.4 là quan trọng; lớn hơn 0.5 là có ý nghĩa thực tiễn. Tiêu chuẩn chọn mức

39

giá trị hệ số tải nhân tố: cỡ mẫu từ 350 thì có thể chọn hệ số tải nhân tố lớn hơn 0.3; nếu cỡ mẫu khoảng 100 thì nên chọn hệ số tải nhân tố lớn hơn 0.55; nếu cỡ mẫu khoảng 50 thì hệ số tải nhân tố phải lớn hơn 0.75 (Hair, 2009).

(3) Tiêu chí thứba là thang đo chấp nhận được khi tổng phương sai trích bằng hoặc lớn hơn 50% (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2011).

(4) Hệ số Eigenvalue là chỉ tiêu thứ tư và phải có giá trị lớn hơn 1 (Gerbing và Anderson, 1988). (Eigenvalue đại diện cho phần biến thiên được giải thích bởi mỗi nhân tố).

(5) Tiêu chuẩn thứnăm là khác biệt hệ số tải nhân tố của một biến quan sát giữa các nhân tố phải ≥ 0.3 để đảm bảo giá trị phân biệt giữa các nhân tố (Jabnoun và Al- Tamimi, 2003).

Sau khi phân tích EFA, các thang đo được chấp nhận sẽ tiếp tục được kiểm định mô hình bằng CFA và SEM nên cần quan tâm đến cấu trúc của thang đo, các khái niệm sau khi rút ra có thểtương quan lẫn nhau, và cũng cần quan tâm đến sự phân biệt rõ ràng giữa các nhân tố. Vì vậy nghiên cứu này sẽ sử dụng phương pháp trích Principal Axis Factoring với phép xoay Promax trong phân tích EFA khi phân tích định lượng chính thức. Theo Gerbing & Anderson (1988), phương pháp trích Principal Axis Factoring với phép xoay Promax (Oblique) sẽ phản ánh cấu trúc dữ liệu chính xác hơn phương pháp trích Principal Components với phép xoay Varimax (Orthogonal). Đối với thang đo đa hướng, sử dụng phương pháp trích yếu tố là Principal Axis Factoring với phép quay Promax và điểm dừng khi trích các yếu tố Eigenvalues lớn hơn hoặc bằng 1. Phương pháp này được cho rằng sẽ phản ánh dữ liệu tốt hơn khi dùng phương pháp trích Principal Components với phép quay Varimax.

40

Từcơ sở lý thuyết nêu trên, mô hình “Tác động của tı́nh cách thương hiê ̣u đến lòng trung thành của khách hàngđối với thương hiê ̣u thời trang tại TP. HCM” với 35 biến quan sát sử dụng phân tích nhân tốEFA theo các bước sau:

- Sử dụng phương pháp trích yếu tố Principal Axis Factoring với phép quay Promax. Điểm dừng khi trích các yếu tố có Eigenvalues > 1.

- Xem xét trị số KMO.

- Để phân tích EFA có giá trị thực tiễn, tiến hành loại các biến quan sát có hệ số tải nhân tố nhỏhơn 0.5.

- Xem lại thông số Eigenvalues (đại diện cho phần biến thiên được giải thích bởi mỗi nhân tố) có giá trị lớn hơn 1.

- Xem xét tổng phương sai trích (yêu cầu lớn hơn hoặc bằng 50%: cho biết các nhân tốđược trích giải thích % sự biến thiên của các biến quan sát.)

▪ Kiểm định thang đo bằng phân tích nhân tố khẳng định CFA

Mô hình cấu trúc tuyến tính (SEM) bao gồm nhiều kỹ thuật thống kê khác nhau như phân tích đường dẫn (Path Analysis), phân tích nhân tố khẳng định (Confirmatory Factor Analysis), mô hình nhân quả với các biến tiềm ẩn (Causal modeling with Latent variable, và cũng thường gọi là SEM), và ngay cảphân tích phương sai (Analysis of Variance), mô hình hồi quy tuyến tính bội ( Multiple Linear Regression). Đề tài sẽ tập trung phân tích CFA và SEM. Trong kiểm định thang đo, phương pháp CFA trong phân tích cấu trúc tuyến tính SEM có nhiều ưu điểm hơn so với phương pháp truyền thống như phương pháp hệ số tương quan, phương pháp phân tích nhân tố khám phá EFA. Lý do là CFA cho phép chúng ta kiểm định cấu trúc lý thuyết của các thang đo lường như mối quan hệ giữa một khái niệm nghiên cứu với các khái niệm khác mà không bị chệch do sai sốđo lường. Hơn nữa, chúng ta có thể kiểm định giá trị hội tụ và giá trị phân biệt của thang đo mà không cần dùng nhiều

41

phương pháp như trong phương pháp truyền thống MTMM (được dẫn bởi Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2011).

Các đánh giá khi phân tích CFA gồm:

(1) Đánh giá độ tin cậy của thang đo thông qua: (a) Hệ số tin cậy tổng hợp (composite reliability) (Joreskog, 1971), (b) tổng phương sai trích (Fornelt & Larcker, 1981) và (c) hệ số tin cậy Cronbach’s Alpha. Theo Hair (1998): “phương sai trích (Variance Extracted) của mỗi khá niệm nên vượt quá giá trị 0.5” và phương sai trích cũng là một chỉ tiêu đo lường độ tin cậy. Nó phản ánh biến thiên chung của các biến quan sát được tính toán bởi biến tiềm ẩn. Schumacker & Lomax (2006) cho rằng trong CFA, một vấn đề quan trọng cần phải quan tâm khác là độ tin cậy của tập hợp các biến quan sát đo lường một khái niệm (nhân tố); và như truyền thống, hệ số tin cậy Cronbach’s Alpha vẫn thường được sử dụng. Nó đo lường tính kiên định nội tại xuyên suốt tập hợp các biến quan sát của các câu trả lời (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2011).

(2) Tính đơn hướng/ đơn nguyên (Unidimensionality): Theo Steenkamp & Van Trijp (1991), mức độ phù hợp của mô hình với dữ liệu thị trường cho chúng ta điều kiện cần và đủđể cho tập biến quan sát đạt được tính đơn hướng, trừtrường hợp các sai số của các biến quan sát có tương quan với nhau (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2011).

(3) Giá trị hội tụ (Convergent validity) Gerbring & Anderson (1988) cho rằng thang đo đạt được giá trị hội tụ khi các trọng số chuẩn hóa của thang đo đều cao (>0.5); và có ý nghĩa thống kê (P < 0.05) (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2011)

(4) Giá trị phân biệt (Discriminant validity): Có thể kiểm định giá trị phân biệt của các khái niệm trong mô hình tới hạn (saturated model), mô hình mà các khái niệm nghiên cứu được tự do quan hệ với nhau). Có thể thực hiện kiểm định hệ sốtương quan xét trên phạm vi tổng thể giữa các khái niệm có thực sự khác biệt so với 1 hay không. Nếu nó thực sự có khác biệt thì các thang đo đạt được giá trị phân biệt.

42

(5) Giá trị liên hệ lý thuyết (Nomological validity): Các vấn đề từ(1) đến (4) được đánh giá thông qua mô hình đo lường. Riêng giá trị liên hệ lý thuyết được đánh giá trong mô hình lý thuyết (Anderson & Gerbing, 1988). Khi các vấn đề trên thỏa mãn thì mô hình đo lường là tốt. Tuy nhiên rất hiếm mô hình đo lường nào đạt được tất cả các vấn đề trên. Ví dụ, mô hình đo lường vẫn có thể được sử dụng khi thang đo không đạt được tính đơn hướng. (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2011).

Đểđo lường mức độ phù hợp của mô hình với thông tin thịtrường, các chỉ số thường được sử dụng là Chi- Square (CMIN); Chi- Square điều chỉnh theo bậc tự do (CMIN/df); chỉ số thích hợp so sánh (CFI _ Comparitive Fit Index). Chỉ số Tucker & Lewis (TLI_ Tucker & Lewis Index); Chỉ số RMSEA (Root Mean Square Error Approximation). Mô hình được xem là thích hợp với dữ liệu thị trường khi kiểm định Chi- Square có P-Value > 0.05. Tuy nhiên Chi-Square có nhược điểm là phụ thuộc vào kích thước mẫu. Nếu một mô hình nhận được các giá trị GFI, TLI, CFI ≥ 0.9 (Bentler & Bonett, 1980); CMIN/df ≤ 2, một số trường hợp CMIN/df có thể ≤ 3 (Carmines & Mc Iver, 1981); RMSEA ≤ 0.08, RMSEA ≤ 0.05 được xem là rất tốt (Steiger, 1990); thì mô hình được xem là phù hợp với dữ liệu thịtrường, hay tương thích với dữ liệu thịtrường. Mô hình nghiên cứu sẽđược đánh giá dựa trên các chỉ tiêu giá trị GFI ≥ 0.9, TLI ≥ 0.9, CFI ≥ 0,9, CMIN/df ≤ 2, RMSEA ≤ 0.08 thì mô hình phù hợp (tương thích) với dữ liệu thịtrường (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2011).

▪ Kiểm định mô hình bằng phân tích cấu trúc tuyến tính SEM

Trong kiểm định giả thuyết và mô hình nghiên cứu, mô hình cấu trúc tuyến tính SEM cho phép chúng ta kết hợp được các khái niệm tiềm ẩn với những đo lường của chúng ta và có thểxem xét đo các trường hợp độc lập hay kết hợp chung với mô hình lý thuyết cùng một lúc. Chính vì vậy, phương pháp phân tích SEM được sử dụng rất phổ biến trong các ngành khoa học xã hội trong những năm gần đây và thường được gọi là phương pháp

43

phân tích dữ liệu thế hệ thứ hai (Hulland et al, 1996; được dẫn bởi Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2011).

Phương pháp phân tích cấu trúc tuyến tính được sử dụng để kiểm định mô hình nghiên cứu. Phương pháp ước lượng ML (Maximum Likelihood) được sử dụng để ước lượng các tham số trong các mô hình. Lý do là khi kiểm định phân phối của các biến quan sát thì phân phối này lệch một ít so với phân phối chuẩn đa biến, tuy nhiên hầu hết các Kurtosis và Skewness đều nằm trong khoảng [-1;+1] nên ML vẫn là phương pháp ước lượng thích hợp (Muthen & Kaplan, 1985). Phương pháp Bootstrap sẽđược sử dụng đểước lượng lại các tham sốmô hình để kiểm tra độ tin cậy của các ước lượng. Kết quảước lượng ML sẽđược sử dụng để kiểm định lại các giả thuyết.

▪ Kiểm tra độ tin cậy các tham số bằng phương pháp Bootstrap

Phương pháp Bootstrap là tập hợp một số kỹ thuật phân tích dựa vào nguyên lý chọn mẫu có hoàn lại (sampling with replacement) đểước tính các thông số mà thống kê thông thường không giải được. Phương pháp Bootstrapping do nhà thống kê học Bradley Efron thuộc đại học Stanford (Mỹ) phát triển từ cuối thập niên 1979s nhưng đến khi máy tính được sử dụng phổ biến thì phương pháp này mới trở thành phương pháp phổ biến trong phân tích thống kê và được ứng dụng rộng rãi trong rất nhiều lĩnh vực khoa học. Phương pháp Bootstrap có thể cung cấp nhiều thông tin chi tiết hơn về phân bố của số trung bình, khoảng tin cậy cũng như xác suất của số trung bình dựa trên một mẫu duy nhất. Để đánh giá độ tin cậy của các ước lượng, trong các phương pháp nghiên cứu định lượng bằng phương pháp lấy mẫu, thông thường chúng ta phải chia mẫu ra làm hai mẫu con. Một nửa dùng để ước lượng các tham số mô hình và một nửa dùng để đánh giá lại. Bootstrap là phương pháp lấy mẫu lại có thay thế trong đó mẫu ban đầu đóng vai trò là đám đông (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2011).

44

Phương pháp phân tích cấu trúc đa nhóm sử dụng trong nghiên cứu này bao gồm khả biến và bất biến từng phần (cục bộ). Trong phương pháp khả biến, các tham số ước lượng trong từng mô hình của các nhóm không bị ràng buộc. Trong phương pháp bất biến từng phần, thành phần đo lường không bị ràng buộc nhưng các mối quan hệ giữa các khái niệm trong mô hình nghiên cứu được ràng buộc có giá trị như nhau cho tất cả các nhóm. Phương pháp ước lượng ML được sử dụng trong phân tích đa nhóm. Kiểm định Chi-square được sử dụng để so sánh giữa 2 mô hình bất biến và khả biến. Nếu kiểm định Chi-square cho thấy giữa mô hình bất biến và mô hình khả biến không có sự khác biệt (P-value > 0,1) thì mô hình bất biến sẽđược chọn (có bậc tựdo cao hơn). Ngược lại, nếu sự khác biệt Chi- square là có ý nghĩa giữa hai mô hình (P- value<0,05) thì chọn mô hình khả biến (có độ tương thích cao hơn). (Nguyễn Đình Thọ và Nguyễn Thị Mai Trang, 2011).

Tóm tắt chương 3

Nghiên cứu được thực hiện bằng việc kết hợp phương pháp nghiên cứu định tính và định lượng. Nghiên cứu định tính được thực hiê ̣n bằng hình thức thảo luận nhóm và phỏng vấn sâu theo một nội dung được chuẩn bị trước dựa theo các thang đo có sẵn. Nội dung thảo luận sẽđược ghi nhận, tổng hợp làm cơ sở cho việc điều chỉnh và bổ sung các biến. Sau đó kết hợp phỏng vấn sâu đểđánh giá lại độ tin cậy của từng biến quan sát để loại bỏ các biến không đạt yêu cầu trước khi đưa ra bảng câu hỏi dùng cho khảo sát đi ̣nh lượng.

Nghiên cứu định lượng được thực hiê ̣n với 2 giai đoa ̣n:sơ bô ̣ và chı́nh thức với kỹ thuật thu thập dữ liệu là phỏng vấn thông qua bảng câu hỏi bằng hình thức trực tiếp và qua internet. Dữ liệu thu thập được xử lý bằng phần mềm SPSS 22. Sau khi mã hóa và làm sạch dữ liệu sẽ trải qua các phân tích chính thức nhưsau: đánh giá độ tin cậy và giá trị các thang

Một phần của tài liệu TÁC ĐỘNG CỦA TÍNH CÁCH THƯƠNG HIỆU ĐẾN LÒNG TRUNG THÀNH CỦA KHÁCH HÀNG ĐỐI VỚI NGÀNH THỜI TRANG TẠI TP HCM (Trang 51 -62 )

×