Nghiên cứu định lượng sơ bộ

Một phần của tài liệu NĂNG LỰC CẠNH TRANH CỦA NGÂN HÀNG THƯƠNG MẠI TRONG ĐIỀU KIỆN CUỘC CÁCH MẠNG CÔNG NGHIỆP 4.0 (Trang 108 - 111)

5 Ngân hàng đã thực hiện được hệ thống kiểm soát rủi ro thông qua nền tảng công nghệ Nguồn:Kết quả thảo luận chuyên gia

4.3.1. Nghiên cứu định lượng sơ bộ

4.3.1.1. Mầu nghiên cứu và phương pháp thu thập dữ liệu

Mục đích chính của nghiên cứu sơ bộ là để phát hiện và khắc phục các lỗi có thể có trong thiết kế bảng câu hỏi trước khi tiến hành khảo sát chính thức (Cavana, Delahaye và Sekaran 2001; Diamantopoulos và Winklhofer 2001; Litwin 1995; Malhotra 2004; Polit, Beck và Hungler 2005) và thường để tinh chỉnh và sửa đổi các câu hỏi nhằm giúp đảm bảo độ tin cậy và giá trị của các thang đo (Flynn và cộng sự 1990) (trích từ Nguyen, 2010). Ngoài ra, nghiên cứu sơ bộ được sử dụng để ước tính tỷ lệ hồi đáp cho các phiếu khảo sát và xác định cỡ mẫu của nghiên cứu chính. Do đó, nghiên cứu sơ bộ được công nhận rộng rãi như là một phần không thể thiếu trong sự phát triển của các công cụ khảo sát (Green và cộng sự, 1988).

Trong phân tích SEM, Hair và cộng sự (2010) nhấn mạnh rằng nghiên cứu sơ bộ là đặc biệt quan trọng khi các thang đo được lấy từ nhiều nguồn khác nhau và áp dụng trong

bối cảnh cụ thể. Một số thang đo trong nghiên cứu này đã được phát triển trong bối cảnh các nước phát triển hoặc mới công nghiệp hóa tiên tiến nhìn từ góc độ doanh nghiệp. Vì vậy, nghiên cứu sơ bộ cần phải được thực hiện để xem xét lại các thang đo trong bối cảnh của Việt Nam và ngành ngân hàng tại TP. Hồ Chí Minh, một lĩnh vực có nhiều biến động trong hơn một thập niên vừa qua. Đối tượng khảo sát càng gần với đối tượng điều tra chính thức càng tốt. Trong nghiên cứu này, để đảm bảo múc độ tin cậy của thông tin nên đối tượng khảo sát là phó giám đốc chi nhánh của các NHTM trên địa bàn TP.HỒ Chí Minh.

Trong điều kiện của một mẫu nghiên cứu sơ bộ, Green và cộng sự (1988) cho rằng đối tượng nghiên cứu sơ bộ nên càng giống mẫu chính thức càng tốt, đại diện trả lời điển hình, hoặc ngắn gọn hơn, nên phản ánh các thành phần của cuộc điều tra chính. Tuy nhiên, lấy mẫu thuận tiện cũng thường được sử dụng để tạo ra một mẫu cho nghiên cứu sơ bộ (Calder và cộng sự , 1981) với một kích thước mẫu đề nghị từ 12 đến 30 (Hunt và cộng sự, 1982) hoặc từ 25 đến 100 (Bolton, 1993). Như vậy, trong nghiên cứu sơ bộ, để đảm bảo cho mẫu nghiên cứu chính thức và có thể đáp ứng yêu cầu xử lý của phần mềm SPSS. Vấn đề một mẫu nên lớn như thế nào vẫn chưa được hoàn toàn giải quyết (Hair và cộng sự, 2010), nó phụ thuộc vào các phương pháp thống kê được sử dụng. Khi ứng dụng dùng để phân tích độ tin cậy Cronbach Alpha và phân tích nhân tố khám phá thì đòi hỏi của phần mềm SPSS phài từ 100 đến 200 mẫu (Hoàng Trọng và Chu Nguyễn Mộng Ngọc, 2010). Tuy nhiên, Hair và cộng sự đề nghị tỷ lệ kích thước mẫu với số lượng các chỉ số này cần có ít nhất 5:1. Điều này cũng phù hợp với quan điểm của Bollen (1989) cho rằng tỷ lệ cần thiết để thiết kế cỡ mẫu là: tối thiểu phải có năm quan sát trên mỗi thông số ước lượng (tỷ lệ 5:1).

4.3.I.2. Phương pháp phân tích sơ bộ thang đo

Đánh giá độ tin cậy và giá trị của thang đo được thực hiện bằng thông qua phân tích hệ số tin cậy - Cronbach’s alpha và phân tích nhân tố khám phá - EFA thông qua phần mềm SPSS 16.0 để sàng lọc, loại bỏ các biến quan sát không đáp ứng tiêu chuẩn (biến rác). Trong đó, Cronbach’s Alpha là phép kiểm định thống kê về mức độ chặt chẽ (khả năng giải thích cho một khái niệm nghiên cứu) của tập hợp các biến quan sát (các câu hỏi) trong thang đo. Hair và cộng sự (2010) và Kline (2005) cho rằng khi hệ số Cronbach’s

Alpha có giá trị từ 0.8 trở lên là thang đo tốt; từ 0.7 đến gần 0.8 là sử dụng được. Song, cũng có nhiều nhà nghiên cứu (Nunally, 1978; Peterson, 1994; Slater, 1995) đề nghị hệ số Cronbach’s Alpha từ 0.6 trở lên là có thể sử dụng được trong trường hợp khái niệm đang nghiên cứu là mới hoặc mới đối với người trả lời trong bối cảnh nghiên cứu. Tuy nhiên, Cronbach’s Apha quá cao (>0.95) thì có khả năng xuất hiện biến quan sát thừa (Redundant items) ở trong thang đo. Biến quan sát thừa là biến đo lường một khái niệm hầu như trùng với biến đo lường khác, tương tự như trường hợp cộng tuyến (collinearity) trong hồi quy, khi đó biến thừa nên được loại bỏ. Mặt khác, Cronbach’s alpha không cho biết biến nào nên loại bỏ và biến nào nên giữ lại. Bởi vậy, bên cạnh hệ số Cronbach’s Alpha, người ta còn sử dụng hệ số tương quan biến tổng (iterm - total correlation) và những biến nào có tương quan biến tổng < 0.3 sẽ bị loại bỏ.

Phân tích nhân tố khám phá (EFA) được ứng dụng để tóm tắt tập các biến quan sát vào một số nhân tố nhất định đo lường các khía cạnh khác nhau của các khái niệm nghiên cứu. Tiêu chuẩn áp dụng và chọn biến đối với phân tích nhân tố khám phá EFA bao gồm: Tiêu chuẩn Bartlett và hệ số KMO dùng để đánh giá sự thích hợp của EFA. Theo đó, giả thuyết HO (các biến không có tương quan với nhau trong tổng thể) bị bác bỏ và do đó EFA được gọi là thích hợp khi: 0.5 < KMO < 1 và Sig < 0.05. Trường hợp KMO<0.5 thì phân tích nhân tố có khả năng không thích hợp với dữ liệu. Tiêu chuẩn rút trích nhân tố gồm chỉ số Eigenvalue (đại diện cho lượng biến thiên được giải thích bởi các nhân tố) và chỉ số Cumulative (tổng phương sai trích cho biết phân tích nhân tố giải thích được bao nhiêu % và bao nhiêu % bị thất thoát). Theo Anderson và Gerbing (1988), các nhân tố có Eigenvalue <1 sẽ không có tác dụng tóm tắt thông tin tốt hơn biến gốc (biến tiềm ẩn trong các thang đo trước khi EFA). Vì thế, các nhân tố chỉ được rút trích tại Eigenvalue > 1 và được chấp nhận khi tổng phương sai trích > 50%. Tuy nhiên, trị số Engenvalue và phương sai trích là bao nhiêu còn phụ thuộc vào phương pháp trích và phép xoay nhân tố. Theo Anderson và Gerbing (1988), phương pháp trích Pricipal Axis Factoring với phép xoay Promax (Obtique) có phương sai trích bé hơn, song sẽ phản ánh cấu trúc dữ liệu chính xác hơn phương pháp trích Pricipal components với phép xoay Varimax. Theo Kline (2005), nếu sau phân tích EFA là phân tích hồi qui thì có thể sử dụng phương pháp trích Pricipal components với phép xoay Varimax, còn nếu sau EFA là phân tích nhân tố khẳng định (CFA) và phân tích mô hình cấu trúc tuyến tính (SEM) thì nên sử dụng phương pháp trích

Pricipal Axis factoring với phép xoay Promax.

Tiêu chuẩn hệ số tải nhân tố (Factor loadings) biểu thị tương quan đơn giữa các biến với các nhân tố, dùng để đánh giá mức ý nghĩa của EFA. Theo Hair và cộng sự (1998), Factor loading > 0.3 được xem là đạt mức tối thiểu; Factor loading > 0.4 được xem là quan trọng; Factor loading > 0.5 được xem là có ý nghĩa thực tiễn. Trường hợp chọn tiêu chuẩn Factor loading > 0.3 thì cỡ mẫu ít nhất phải là 350; nếu cỡ mẫu khoảng 100 thì nên chọn tiêu chuẩn Factor loading > 0.55; nếu cỡ mẫu khoảng 50 thì Factor loading > 0.75. Ngoại lệ, có thể giữ lại biến có Factor loading < 0.3, nhưng biến đó phải có giá trị nội dung. Trường hợp các biến có Factor loading không thỏa mãn điều kiện trên hoặc trích vào các nhân tố khác nhau mà chênh lệch trọng số rất nhỏ (các nhà nghiên cứu thường không chấp nhận < 0.3), tức không tạo nên sự khác biệt để đại diện cho một nhân tố, thì biến đó bị loại và các biến còn lại sẽ được nhóm vào nhân tố tương ứng đã được rút trích trên ma trận mẫu (Pattern Matrix).

Trong nghiên cứu này, khả năng quản trị, khả năng tài chính và khả năng quản trị rủi ro là những thang đo mới hoặc chưa được kiểm định do đó mẫu nghiên cứu cần có kích thước lớn. Hơn nữa, sau EFA là phân tích nhân tố khẳng định và phân tích mô hình cấu trúc tuyến tính. Vì thế, trong quá trình Cronbach’s Alpha, tác giả quyết định giữ lại các thang đo có trị số Cronbach’s alpha > 0.6 và loại các biến quan sát có tương quan biến - tổng <0.3; trong quá trình EFA, tác giả sử dụng phương pháp trích Pricipal Axis Factoring với phép xoay Promax; loại bỏ các biến quan sát có trị số Factor loading < 0.5 hoặc trích vào các nhân tố khác mà chênh lệch trọng số Factor loading giữa các nhân tố < 0.3.

Một phần của tài liệu NĂNG LỰC CẠNH TRANH CỦA NGÂN HÀNG THƯƠNG MẠI TRONG ĐIỀU KIỆN CUỘC CÁCH MẠNG CÔNG NGHIỆP 4.0 (Trang 108 - 111)