3.3. Các biến nghiên cứu
3.4.3. Phương pháp phân tích dữ liệu
Dữ liệu nghiên cứu được phân tích bằng sự hỗ trợ của phần mềm SPSS và AMOS qua các bước như sau:
Bước 1: Kiểm định độ tin cậy Cronbach’s Alpha
Sử dụng phương pháp kiểm định độ tin cậy Cronbach’s Alpha để loại các biến khơng phù hợp trước khi phân tích nhân tố khám phá EFA. Một đo lường vắng mặt các sai số ngẫu nhiên thì đo lường đó có độ tin cậy, một đo lường có giá trị cao thì phải có độ tin cậy cao. Vì vậy, độ tin cậy là điều kiện cần để một đo lường có giá trị (Nguyễn Đình Thọ, 2013).
Kiểm định hệ số Cronbach’s Alpha được sử dụng để đo lường độ tin cậy của thang đo tổng (bao gồm từ ba biến quan sát trở lên) chứ không phải cho từng biến quan sát. Hệ số này có giá trị biến thiên trong khoảng từ 0 đến 1. Về lý thuyết, Cronbach’s Alpha càng cao thì càng tốt bởi chứng tỏ thang đo càng có độ tin cậy. Tuy nhiên, thực tế nếu hệ số Cronbach’s Alpha quá lớn (>0,95) sẽ xảy ra hiện tượng trùng lắp trong thang đo, tức nhiều biến trong thang đo khơng có khác biệt gì, chúng cùng đo lường một nội dung nào đó của khái niệm nghiên cứu và ta chỉ cần một trong hai biến là đủ. Vì vậy, một thang đo có độ tin cậy tốt khi hệ số Cronbach’s Alpha biến thiên trong khoảng từ 0,75 đến 0,95 (Nguyễn Đình Thọ, 2013). Trường hợp khái niệm được đo lường là mới hoặc mới đối với người trả lời trong bối cảnh nghiên cứu thì Cronbach’s Alpha từ 0,6 trở lên là có thể chấp nhận được về mặt độ tin cậy (Hoàng Trọng và Chu Nguyễn Mộng Ngọc, 2008).
Ngoài ra, hệ số tin cậy Cronbach’s Alpha chỉ cho biết các đo lường có liên kết với nhau hay khơng, khơng cho biết biến quan sát nào cần loại bỏ và biến quan sát nào cần giữ lại. Do đó, việc xem xét hệ số tương quan giữa biến – tổng (Corrected Item – Total Correlation) sẽ giúp loại ra những biến quan sát khơng đóng góp nhiều cho sự mơ tả của khái niệm cần đo (Hồng Trọng và Chu Nguyễn Mộng Ngọc, 2008). Hệ số tương quan biến – tổng ≥ 0,3 thì biến quan sát đó đạt yêu cầu (Nunally và Bursetein, 1994).
Bước 2: Phân tích nhân tố khám phá EFA
Khi vắng mặt sai số ngẫu nhiên thì độ tin cậy của thang đo bằng 1 (tin cậy hoàn toàn) nhưng giá trị của nó có thể bằng 0 (khơng có giá trị - nghĩa là tồn bộ biến thiên của biến quan sát do biến thiên của sai số hệ thống); hoặc giá trị bằng 1 (hồn tồn có giá trị - đo lường chính xác cái cần đo). Vì vậy, vấn đề tiếp theo là đánh giá giá trị của thang đo. Phương pháp phân tích nhân tố khám phá EFA (Exploratory Factor Analysis) được sử dụng để xác định hai giá trị quan trọng của thang đo là giá trị hội tụ và giá trị phân biệt (Nguyễn Đình Thọ, 2013).
Sử dụng phép trích nhân tố Principal Axis Factoring (PAF) với phép xoay khơng vng góc Promax để phản ánh cấu trúc dữ liệu chính xác hơn (Gerbing và Anderson, 1988). Do phép trích PAF là một dạng trích của mơ hình nhân tố chung Common Factor Model (CFM) – được sử dụng để đánh giá thang đo lường. Trong khi đó, phép trích Principal Components Analysis (PCA) với phép xoay vng góc Varimax thuộc nhóm mơ hình thành phần chính PCA (Principal Components Analysis Model) – được sử dụng để trích được nhiều phương sai phục vụ cho mục tiêu dự báo. Ngoài ra, với phép xoay Promax, sau khi quay trục của các nhân tố thì các trục nhân tố sẽ ở vị trí phù hợp nhất: trọng số nhân tố của các biến đo lường sẽ tối đa ở trục nhân tố chúng đo lường và tối thiểu ở các trục cịn lại (Nguyễn Đình Thọ, 2013).
Hệ số Kaiser-Meyer-Olkin (KMO) Measure of Sampling Adequacy xem xét sự thích hợp của phân tích nhân tố. Hệ số KMO có giá trị trong khoảng từ 0.5 đến 1 là điều kiện đủ để phân tích nhân tố là thích hợp, nếu trị số này nhỏ hơn 0.5 thì phân tích nhân tố có khả năng khơng thích hợp với dữ liệu (Hồng Trọng và Chu Nguyễn Mộng Ngọc, 2008). Tiếp theo đó, kiểm định Bartlett (Bartlett's Test of Sphericity) được xem xét giả thiết H0 : các biến khơng có tương quan trong tổng thể. Nếu Sig.< 0,05 thì ta bác bỏ giả thiết H0, điều này có nghĩa các biến quan sát có tương quan với nhau trong tổng thể (Nguyễn Đình Thọ, 2013).
Thang đo được chấp nhận khi tổng phương sai trích tối thiểu 50%. Hệ số tải nhân tố (factor loading) được xem xét đánh giá ở những cỡ mẫu quan sát khác nhau thì sẽ khác nhau, với cỡ mẫu gồm 100 quan sát thì factor loading > 0,55 để các biến quan sát đạt giá trị hội tụ, với cỡ mẫu 120 quan sát thì factor loading tiêu chuẩn từ 0,5 trở lên (Hair và cộng sự, 2010). Bên cạnh đó, chênh lệch giữa |factor loading| lớn nhất với |factor loading| bất kỳ ≥ 0,3 để tạo ra giá trị phân biệt giữa các nhân tố, nếu hai trọng số này tương đương nhau thì biến quan sát này vừa đo lường nhân tố này lại vừa đo lường nhân tố khác. Và số lượng nhân tố trích được dừng khi nhân tố có hệ số Eigenvalue ≥ 1 (Hair và cộng sự, 2010).
Bước 3: Phân tích nhân tố khẳng định CFA và kiểm định giả thuyết bằng phân tích mơ hình cấu trúc tuyến tính (SEM)
Phân tích nhân tố khẳng định CFA (Confirmatory Factor Analysis) tương tự EFA ở việc xác định tính phân biệt, sự tồn tại của các nhân tố trong mơ hình. Tuy nhiên, với phân tích nhân tố khám phá EFA, các nhân tố được xác định thơng qua kết quả phân tích thống kê, khơng phải từ mơ hình lý thuyết. Vì vậy, EFA được tiến hành khi chưa biết có bao nhiêu nhân tố thực sự tồn tại hoặc biến nào thuộc về nhân tố nào. Các nhân tố xác định chỉ được đặt tên sau khi phân tích nhân tố được thực hiện. Trong khi đó, với phân tích nhân tố khẳng định CFA, ta phải biết trước có bao nhiêu nhân tố và có bao nhiêu biến trong từng nhân tố. Khi đó CFA được áp dụng để kiểm tra, xem xét sự phù hợp của mơ hình lý thuyết đã có sẵn với số liệu nghiên cứu. Do đó, việc phân tích nhân tố khẳng định CFA là bước tiếp theo cần thực hiện sau khi đã phân tích nhân tố khám phá EFA (Hair và cộng sự, 2010).
Mơ hình nghiên cứu được xem là phù hợp với dữ liệu thị trường khi chỉ số Chi- square hiệu chỉnh theo bậc tự do (Chi-square/df) ≤ 2, kiểm định Chi-square có P- value < 0,05; mơ hình được xem là tốt nếu chỉ số thích hợp so sánh CFI (Comparative fit index), chỉ số Turker – Lewis TLI (Turker – Lewis index) ≥ 0,9; các chỉ số NFI, GFI cũng có thể chấp nhận được nếu dưới 0,9 (Hair và cộng sự, 2010); chỉ số RMSEA (Root Mean Square Error of Approximation) tốt ở mức dưới 0,05.
Tiếp theo, nghiên cứu sử dụng mơ hình cấu trúc tuyến tính SEM (Structural Equation Modeling) để đánh giá mức độ phù hợp mơ hình, kiểm định các giả thuyết ở mức ý nghĩa 10%. SEM là một nhóm các mơ hình thống kê được sử dụng để giải thích các mối quan hệ giữa nhiểu biến. Có thể xem mơ hình SEM như một sự tổng hợp giữa phân tích nhân tố với mơ hình hồi quy đa biến. Các chỉ số phù hợp mơ hình của SEM được xem như trong phân tích CFA do về cơ bản CFA là một dạng của SEM (Hair và cộng sự, 2010).
CHƯƠNG 4 – PHÂN TÍCH CÁC YẾU TỐ TÁC ĐỘNG ĐẾN SỰ HÀI LÒNG VỀ DỊCH VỤ NGÂN HÀNG ĐIỆN TỬ TẠI OCB