KỸ THUẬT PHÂN TÍCH DỮ LIỆU TRONG NGHIÊN CỨU

Một phần của tài liệu (luận văn thạc sĩ) nghiên cứu các nhân tố ảnh hưởng đến năng lực cạnh tranh của công ty cổ phần đầu tư sản xuất VLXD sao việt nhật miền trung (Trang 73 - 80)

7. Cấu trúc luận văn

2.5. KỸ THUẬT PHÂN TÍCH DỮ LIỆU TRONG NGHIÊN CỨU

Phân tích mô tả:

Trong bƣớc đầu tiên, tác giả sử dụng phân tích mô tả để phân tích các thuộc tính của mẫu nghiên cứu, nhƣ: các thông tin về giới tính, độ tuổi, vị trí nghề nghiệp…

Kiểm định và đánh giá thang đo:

Để đánh giá thang đo các khái niệm trong nghiên cứu, cần phải kiểm tra độ tin cậy, độ giá trị của thang đo. Dựa trên các hệ số tin cậy Cronbach’s

Alpha, hệ số tƣơng quan biến – tổng (Item – to – total correlation) giúp loại ra những biến quan sát không đóng góp vào việc mô tả khái niệm cần đo, hệ số Cronbach’s Alpha if Item Deleted để giúp đánh giá để loại bỏ bớt biến quan sát nhằm nâng cao hệ số tin cậy Cronbach’s Alpha cho khái niệm cần đo, và phƣơng pháp phân tích khám phá (EFA) nhằm kiểm tra độ giá trị của thang đo các khái niệm nghiên cứu.

+ Phân tích Cronbach’s Alpha:

Phân tích Cronbach’s Alpha thực chất là phép kiểm định mức độ tƣơng quan lẫn nhau của các biến quan sát trong thang đo qua việc đánh giá sự tƣơng quan giữa bản thân các biến quan sát và tƣơng quan của điểm số trong từng biến quan sát với điểm số toàn bộ các biến quan sát cho từng trƣờng hợp trả lời. Một tập hợp các biến quan sát đƣợc đánh giá tốt khi hệ số Cronbach’s Alpha lớn hơn hoặc bằng 0.8, Cronbach’s Alpha càng lớn thì độ tin cậy nhất quán nội tại càng cao (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2007), hệ số Cronbach’s Alpha từ 0.6 trở lên là có thể sử dụng đƣợc (Peterson, 1994).

Hệ số tƣơng quan biến – tổng (Item – to – total correlation) là hệ số tƣơng quan của một biến với điểm trung bình của các biến khác trong cùng một thang đo. Do đó, hệ số này càng cao thì sự tƣơng quan giữa biến với các biến khác trong nhóm càng cao. Theo Nunnally & Burnstein (1994), các biến có hệ số tƣơng quan biến – tổng nhỏ hơn 0.3 sẽ bị coi là biến rác và sẽ loại ra khỏi mô hình do có tƣơng quan kém với các biến khác trong mô hình.

Hệ số tin cậy Cronbach’s Alpha chỉ cho biết các biến có liên kết với nhau hay không, nhƣng không cho biết biến quan sát nào cần bỏ đi và biến quan sát nào cần giữ lại. Khi đó, việc tính toán hệ số tƣơng quan biến – tổng sẽ giúp loại ra những biến quan sát không đóng góp nhiều cho sự mô tả các khái niệm cần đo (Hoàng Trọng & Chu Nguyễn Mọng Ngọc, 2008).

Sử dụng phƣơng pháp hệ số tin cậy Cronbach’s Alpha trƣớc khi phân tích nhân tố EFA nhằm loại ra các biến trong phù hợp, vì các biến này có thể tạo ra các nhân tố giả (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2007).

Trong nghiên cứu này, tác giả giữ lại các thang đo có hệ số Cronbach’s Alpha >= 0.6 và loại các biến quan sát có hệ số tương quan biến tổng < 0.3.

+ Phân tích nhân tố khám phá (EFA)

Sau khi kiểm tra độ tin cậy của thang đo bằng hệ số Cronbach’s Alpha và loại đi các biến không đảm bảo độ tin cậy, phƣơng pháp phân tích nhân tố khám phá (EFA) là kỹ thuật đƣợc sử dụng để xác định giá trị hội tụ và giá trị phân biệt của thang đo, đồng thời thu nhỏ và tóm tắt dữ liệu, giúp chúng ta rút trích từ các biến quan sát thành một hay một số biến tổng hợp có ý nghĩa hơn. Cơ sở của việc rút gọn này dựa vào mối quan hệ tuyến tính của các nhân tố với các biến quan sát. Khi phân tích nhân tố khám phá, các nhà nghiên cứu thƣờng quan tâm đến một số tiêu chuẩn sau:

Thứ nhất, trị số KMO>= 0.5 và mức ý nghĩa của kiểm định Bartlett căn cứ trên giá trị Sig=< 0.05.

Kiểm định Bartlett là đại lƣợng thống kê dùng để xem xét giả thuyết các biến không có tƣơng quan trong tổng thể. Điều kiện cần để áp dụng phân tích nhân tố là các biến phải có tƣơng quan với nhau. Do đó, nếu kiểm định cho thấy không có ý nghĩa thống kê thì không nên áp dụng phân tích nhân tố cho các biến đang xem xét.

KMO là một chỉ số dùng để xem xét sự thích hợp của phân tích nhân tố. Trị số KMO lớn (giữa 0.5 và 1) thì phân tích nhân tố là thích hợp, còn nếu trị số này nhỏ hơn 0.5 thì phân tích nhân tố có khả năng không thích hợp với các dữ liệu.

Đại lƣợng Eigenvalue đại diện cho lƣợng biến thiên đƣợc giải thích bởi mỗi nhân tố. Chỉ có những nhân tố nào có Eigenvalue lớn hơn 1 mới đƣợc giữ lại trong mô hình phân tích. Những nhân tố có Eigenvalue nhỏ hơn 1 sẽ không có tác dụng tóm tắt thông tin tốt hơn một biến gốc, vì sau khi chuẩn hóa mỗi biến gốc có phƣơng sai là 1.

Thứ ba, tổng phương sai trích >=50%

Tổng phƣơng sai trích (Variance Explained Criteria) là phần trăm phƣơng sai toàn bộ đƣợc giải thích bởi từng nhân tố. Nếu coi biến thiên là 100% thì giá trị này cho biết phân tích nhân tố cô đọng đƣợc bao nhiêu % và bị thất thoát bao nhiêu %. Tổng phƣơng sai trích tối thiểu phải bằng 50% thì phân tích nhân tố đƣợc xem là phù hợp.

Thứ tư, hệ số tải nhân tố (Factor loading) >= 0.4. Nếu biến quan sát nào có hệ số tải nhân tố nhỏ hơn 0.4 sẽ bị loại.

Hệ số tải nhân tố là chỉ tiêu cho thấy mối quan hệ chặt chẽ giữa biến quan sát và nhân tố. Factor loading phải >=0.3 nếu kích thƣớc mẫu >=300, Factor loading >=0.4 nếu kích thƣớc mẫu 200 và Factor loading >=0.5 nếu kích thƣớc mẫu 100.

Thứ năm, khác biệt hệ số tải nhân tố của một biến quan sát giữa các nhân tố >=0.3 để đảm bảo giá trị phân biệt giữa các nhân tố.

Ngoài ra, do ma trận nhân tố ít khi tạo ra những nhân tố có thể giải thích đƣợc một cách dễ dàng bởi vì các nhân tố thƣờng có tƣơng quan với nhiều biến nên khi phân tích nhân tố khám phá, để biến đổi ma trận nhân tố trở nên đơn giản và dễ giải thích các kết quả hơn, đề tài nghiên cứu sử dụng phƣơng pháp trích Principal Axis Factoring với phép xoay Promax (Oblique). Phƣơng pháp xoay Promax đƣợc chọn sử dụng bởi vì trong nghiên cứu của mình sau khi phân tích EFA tác giả sử dụng phƣơng pháp phân tích khảng định (CFA) và phân tích mô hình cấu trúc tuyến tính (SEM).

Tóm lại, trong nghiên cứu tác giả sử dụng phương pháp trích Principal Axis Factor với phép xoay Promax, loại bỏ các biến các biến quan sát có trị số Factor Loading <= 0.5, mỗi biến quan sát chỉ được trích rút cho 1 nhân tố.

Phân tích nhân tố khẳng định CFA

Theo Nguyễn Đình Thọ và Nguyễn Thị Mai Trang (2007), trong kiểm định thang đo, phƣơng pháp CFA trong phân tích mô hình cấu trúc tuyến tính (SEM) có nhiều ƣu điểm hơn so với các phƣơng pháp truyền thống nhƣ phƣơng pháp hệ số tƣơng quan; phƣơng pháp đa phƣơng pháp - đa khái niệm (Mutitrait – Mutimethod). CFA cho phép cho phép chúng ta kiểm định cấu trúc lý thuyết của các thang đo cũng nhƣ mối quan hệ giữa một khái niệm nghiên cứu với các khái niệm khác mà không bị chệch do sai số đo lƣờng. Tiêu chuẩn để thực hiện CFA bao gồm các tiêu chuẩn đánh giá mức độ phù hợp chung và tiêu chuẩn đánh giá mức độ phù hợp theo các thuộc tính giá trị.

Trong đó để đánh giá mức độ phù hợp chung của mô hình, nghiên cứu dử dụng các tiêu chuẩn: Chi-square (Chi bình phƣơng – CMIN). Chi-square điều chỉnh theo bậc tự do (CMIN/df), Chỉ số GFI (Goodness of fit Index), Chỉ số TLI (Tucker & Lewis Index), Chỉ số CFI (Comparative Fit Index), Chỉ số RMSEA (Root Mean Square Error Approximation). Mô hình đƣợc coi là phù hợp khi kiểm định Chi-square có giá trị P>= 0.05. Tuy nhiên Chi-square có nhƣợc điểm phụ thuộc vào kích thƣớc mẫu nghiên cứu, khi mẫu nghiên cứu càng lớn làm cho Chi-square càng lớn do đó làm giảm mức độ phù hợp của mô hình. Vì vậy, bên cạnh P value, các tiêu chuẩn đƣợc sử dụng là CMIN/df <= 2 (theo Carmines & Mciver, 1981), một số trƣờng hợp có thể chấp nhận CMIN/df <= 3; GFI, TLI, CFI >= 0.9 (Bentler & Steiger,1980); RMSEA <= 0.08, trường hợp RMSEA <= 0.05 theo Steiger được coi là rất tốt.

Các tiêu chuẩn đánh giá mức độ phù hợp của mô hình theo các thuộc tính giá trị bao gồm:

+ Độ tin cậy thang đo đƣợc đánh giá thông qua hệ số tin cậy tổng hợp (pc- Composite Reliability), tổng phƣơng sai trích đƣợc (pvc- Variance extracted), Hệ số tin cậy (Cronbach Alpha-α). Trong đó phƣơng sai trích phản ánh lƣợng biến thiên chung của các biến quan sát đƣợc giải thích bởi biến tiềm ẩn (Hair, 1998, p.612), độ tin cậy tổng hợp đo lƣờng độ tin cậy của tập hợp các biến quan sát đo lƣờng một khái niệm (nhân tố), hệ số tin cậy Cronbach Alpha đo lƣờng tính kiên định nội tại xuyên suốt tập hợp các biến quan sát của các câu trả lời (Schummacker & Lomax, 2006, p.178). Tiêu chuẩn đánh giá mức độ phù hợp của mô hình bởi độ tin cậy thang đo là pc> 0.5 hoặc pvc> 0.5, hoặc α >=0.6. Hệ số tin cậy tổng hợp (pc- Composite Reliability), tổng phƣơng sai trích đƣợc (pvc- Variance extracted) đƣợc tính theo công thức:

+ Tính đơn hƣớng/đơn nguyên (Unidimensionality) của một thang đo thể hiện mỗi biến quan sát chỉ đƣợc sử dụng đo lƣờng duy nhất một biến tiềm ẩn. Theo Steenkamp và Van Trijp (1991), mức độ phù hợp của mô hình đo lƣờng với dữ liệu thị trƣờng cho chúng ta điều kiện cần và đủ để kết luận tập các biến quan sát đạt đƣợc tính đơn hƣớng, trừ khi các sai số của tập các biến quan sát có tƣơng quan với nhau.

+ Giá trị hội tụ (convergent validity) thể hiện giá trị đo lƣờng một khái niệm tƣơng quan chặt chẽ với nhau sau những đo lƣờng đƣợc lặp lại. Theo Gerbing và Anderson (1988), thang đo được cho là đạt giá trị hội tụ khi các trọng số chuẩn hóa của thang đo đều cao (>0.5) và có ý nghĩa thống kê, tức P < 0.05.

+ Giá trị phân biệt (Discriminant validity) thể hiện sự khác biệt trong mô hình nghiên cứu và điều này xảy ra khi hệ số tương quan giữa các khái niệm trên phạm vi tổng thể đều khác biệt với 1 và có ý nghĩa thống kê

(P<0.05)

+ Giá trị liên hệ lý thuyết (Nomological validity) thể hiện sự phù hợp của mô hình nghiên cứu với cơ sở lý thuyết xây dựng nên mô hình. Theo Anderson và Gerbing (1988), giá trị liên hệ lý thuyết đƣợc đánh giá trong mô hình lý thuyết và theo Churnchill (1995) đƣợc coi là phù hợp khi “mỗi một đo lƣờng có mối liên hệ với các đo lƣờng khác nhƣ đã kỳ vọng về mặt lý thuyết”.

CHƢƠNG 3

KẾT QUẢ NGHIÊN CỨU

Một phần của tài liệu (luận văn thạc sĩ) nghiên cứu các nhân tố ảnh hưởng đến năng lực cạnh tranh của công ty cổ phần đầu tư sản xuất VLXD sao việt nhật miền trung (Trang 73 - 80)

Tải bản đầy đủ (PDF)

(157 trang)