Phương pháp định lượng

Một phần của tài liệu Sự tác động của cạnh tranh và hợp tác giữa các phòng ban chức năng đến sự đổi mới tại các doanh nghiệp nhỏ và vừa tại tỉnh bà rịa vũng tàu (Trang 44 - 47)

Tác giả đi vào phân tích chi tiết: thang đo và độ tin cậy của các biến quan sát đánh giá bằng hệ số Cronbach’s Alpha và phương pháp phân tích nhân tố khám phá. Các biến có hệ tương quan biến tổng nhỏ hơn 0,3 sẽ bị loại bỏ và là tiêu chuẩn để chọn thang đo là có độ tin cậy Alpha từ 0,6 trở lên (Nunnally và Bernstein, 1994) để bảo đảm độ tin cậy của thang đo.

Tiếp theo, phương pháp EFA được sử dụng với các biến quan sát có trọng số tải (factor loading) nhỏ hơn 0.5 sẽ bị loại bỏ. Phương pháp trích hệ số được sử dụng Principal Axis Factoring với phép xoay Promax và điểm dừng khi trích các yếu tố có Eigenvalue bằng 1. Thang đo được chấp nhận khi phương sai trích bằng hoặc lớn hơn 50%. Sau khi phân tích kết quả nhân tố khám phá (EFA).

Phân tích nhân tố khẳng định (CFA)

+ Đánh giá độ tin cậy của thang đo thông qua: (a) Hệ số tin cậy tổng hợp (Composite reliability) (Joreskog, 1971), (b) Tổng phương sai trích (Fornell & Larcker, 1981) và (c) hệ số tin cậy Cronbach’s Alpha. Theo Hair (1998): “phương sai trích (Average Variance Extracted) của mỗi khái niệm nên vượt quá giá trị 0,5”; và phương sai trích cũng là một chỉ tiêu đo lường độ tin cậy. Nó phản ánh biến thiên chung của các biến quan sát được tính toán bởi biến tiềm ẩn. Schumacker và Lomax (2010) cho rằng trong CFA, một vấn đề quan trọng cần phải quan tâm khác là độ tin cậy của tập hợp các biến quan sát đo lường một khái niệm (nhân tố); và như truyền thống, hệ số tin cậy Cronbach’s Alpha vẫn thường được sử dụng. Nó đo lường tính kiên định nội tại xuyên suốt tập hợp các biến quan sát của các câu trả lời (Nguyễn Đình Thọ, 2011).

+ Tính đơn hướng/đơn nguyên (Unidimensionality): Theo Steenkamp & Van. Trijp (1991), mức độ phù hợp của mô hình với dữ liệu thị trường cho chúng ta điều kiện cần và đủ để cho tập biến quan sát đạt được tính đơn

hướng, trừ trường hợp các sai số của các biến quan sát có tương quan với nhau.

+ Giá trị hội tụ (Convergent validity): Gerbring và Anderson (1988) cho rằng thang đo đạt được giá trị hội tụ khi các trọng số chuẩn hóa của thang đo đều cao (>0,5); và có ý nghĩa thống kê (P < 0,05).

+ Giá trị phân biệt (Discriminant validity): Có thể kiểm định giá trị phân biệt của các khái niệm trong mô hình tới hạn (Saturated model) mô hình mà các khái niệm nghiên cứu được tự do quan hệ với nhau). Có thể thực hiện kiểm định hệ số tương quan xét trên phạm vi tổng thể giữa các khái niệm có thực sự khác biệt so với 1 hay không. Nếu nó thực sự có khác biệt thì các thang đo đạt được giá trị phân biệt.

+ Giá trị liên hệ lý thuyết (Nomological validity): Các vấn đề từ (1) đến (4) được đánh giá thông qua mô hình đo lường. Riêng giá trị liên hệ lý thuyết được đánh giá trong mô hình lý thuyết (Anderson và Gerbing, 1988). Khi các vấn đề trên thỏa mãn thì mô hình đo lường là tốt. Tuy nhiên, rất hiếm mô hình đo lường nào đạt được việc giải quyết tất cả các vấn đề trên. Ví dụ, mô hình đo lường vẫn có thể được sử dụng khi thang đo không đạt được tính đơn hướng (Nguyễn Đình Thọ, 2011).

Để đo lường mức độ phù hợp của mô hình với thông tin thị trường, thường sử dụng Chi-square (CMIN); Chi-square điều chỉnh theo bậc tự do (CMIN/df); chỉ số thích hợp so sánh (CFI_ Comparative Fit Index). Chỉ số Tucker & Lewis (TLI_ Tucker & Lewis Index); Chỉ số RMSEA (Root Mean Square Error Approximation). Mô hình được xem là thích hợp với dữ liệu thị trường khi kiểm định Chi-square có Pvalue < 0,1.

Tuy nhiên, Chi-square có nhược điểm là phụ thuộc vào kích thước mẫu. Nếu một mô hình nhận được các giá trị GFI, TLI, CFI ≥ 0,9 (Bentler & Bonett, 1980); CMIN/df ≤ 3 (Carmines & McIver, 1981); RMSEA ≤ 0,08,

RMSEA ≤ 0,05 được xem là rất tốt (Steiger, 1990); thì mô hình được xem là phù hợp với dữ liệu thị trường, hay tương thích với dữ liệu thị trường.

Kiểm định mô hình bằng phân tích cấu trúc tuyến tính SEM: Trong kiểm định giả thuyết và mô hình nghiên cứu, mô hình cấu trúc tuyến tính SEM cho phép chúng ta kết hợp được các khái niệm tiềm ẩn với những đo lường của chúng ta và có thể xem xét đo các trường hợp độc lập hay kết hợp chung với mô hình lý thuyết cùng một lúc. Chính vì vậy, phương pháp phân tích SEM được sử dụng rất phổ biến trong các ngành khoa học xã hội trong những năm gần đây và thường được gọi là phương pháp phân tích dữ liệu thế hệ thứ hai (Nguyễn Đình Thọ, 2011).

Phương pháp phân tích cấu trúc tuyến tính được sử dụng để kiểm định mô hình nghiên cứu. Phương pháp ước lượng ML (Maximum Likelihood) được sử dụng để ước lượng các tham số trong các mô hình. Lý do là khi kiểm định phân phối của các biến quan sát thì phân phối này lệch một ít so với phân phối chuẩn đa biến, tuy nhiên hầu hết các Skewness và Kurtosis (độ nhọn) đều nằm trong khoảng [-1;+1] nên ML vẫn là phương pháp ước lượng thích hợp (Muthén & Kaplan, 1985). Phương pháp Bootstrap sẽ được sử dụng để ước lượng lại các tham số mô hình để kiểm tra độ tin cậy của các ước lượng. Kết quả ước lượng ML sẽ được sử dụng để kiểm định lại các giả thuyết.

Một phần của tài liệu Sự tác động của cạnh tranh và hợp tác giữa các phòng ban chức năng đến sự đổi mới tại các doanh nghiệp nhỏ và vừa tại tỉnh bà rịa vũng tàu (Trang 44 - 47)

Tải bản đầy đủ (PDF)

(132 trang)