3.4.1 Thiết kế mẫu nghiên cứu
Mẫu nghiên cứu được chọn bằng phương pháp lấy mẫu thuận tiện kết hợp định mức dựa theo tiêu chí số lượng khách hàng ở trên địa bàn tỉnh Quảng Ngãi.
- 43 -
Về kích thước của mẫu nghiên cứu, tổng hợp từ các nhà nghiên cứu và ý kiến chuyên gia thì cỡ mẫu tối ưu là bao nhiêu phụ thuộc vào kỳ vọng về độ tin cậy, phương pháp phân tích dữ liệu, phương pháp ước lượng được sử dụng trong nghiên cứu, các tham số cần ước lượng và qui luật phân phối của tập các lựa chọn của người được khảo sát. Chẳng hạn:
- Để tiến hành phân tích hồi qui một cách tốt nhất, theo Tabachnick và Fidell (1991) thì kích cở mẫu (n) phải thỏa công thức: n≥8k+50 (với k là số biến độc lập của mô hình, trong khi đó, theo Harris RJ. Aprimer (1985): n ≥ 104 + m (với m là số lượng biến độc lập và phụ thuộc), hoặc n ≥ 50 + m , nếu m < 5.
- Trường hợp sử dụng phương pháp phân tích nhân tố khám phá (EFA), Hair và ctg (1998) cho rằng, kích thước mẫu tối thiểu phải là 50, tốt hơn là 100 và tỉ lệ số quan sát/biến đo lường là 5/1, nghĩa là cứ mỗi biến đo lường cần tối thiểu 5 quan sát. Gorsuch (1983) cho rằng nên cần ít nhất 200 quan sát. Tuy nhiên, theo quy tắc kinh nghiệm, mẫu càng lớn càng tốt.
Trong nghiên cứu này thang đo trên gồm 6 biến độc lập thì số mẫu dự kiến theo công thức Tabachnick và Fidell (1991) là n ≥ 98 mẫu, theo Harris RJ. Aprimer (1985) n ≥ 111 mẫu; theo Hair và ctg (1998) n ≥ 145 (29 x 5). Tuy nhiên, về nguyên tắc kích thước mẫu càng lớn càng tốt, vì thế tác giả xác định kích thước mẫu tối thiểu là là 435 (145 x 3). Ngoài ra, để bù đắp một tỉ lệ thông tin bị loại bỏ (các bảng câu hỏi có nhiều ô thiếu thông tin, hoặc nhiều hơn một ô trả lời, hoặc có cơ sở để xác định không đáng tin cậy), tác giả quyết định khảo sát 522 (435 x 120%) khách hàng.
Về phương pháp chọn mẫu nghiên cứu, tác giả sử dụng phương pháp chọn mẫu định mức (phi xác suất) cho từng phòng giao dịch dựa vào tổng số khách hàng được khảo sát (522) và tổng số dự nợ tín dụng bán lẻ tại trụ sở chi nhánh và các phòng giao dịch của BIDV Quảng Ngãi tính đến ngày 31/12/2014. Sau đó thực hiện lấy mẫu hệ thống (xác suất) trong từng phòng giao dịch với bước nhảy bằng tỉ số giữa số lượng khách hàng đang có quan hệ tín dụng với các phòng giao dịch/định mức số lượng khách hàng được khảo sát cho từng phòng giao dịch đó (bảng 3.1).
- 44 -
Bảng 3.1: Khung mẫu nghiên cứu phân bố cho các phòng giao dịch
TT Các phòng giao dịch Tổng số dự nợ tín dụng (triệu VNĐ) Số lƣợng khách hàng (ngƣời) Kích thƣớc mẫu (ngƣời) Số khách hàng đƣợc phỏng vấn (ngƣời) Bƣớc nhảy 1 Trụ sở chi nhánh 423.484 3.776 187 225 17 2 Nguyễn Nghiêm 197.853 523 88 105 5 3 Lê Trung Đình 150.402 297 67 80 4 4 Dung Quất 120.899 419 53 64 6 5 Đức Phổ 43.821 262 20 24 11 6 Bình Sơn 42.693 353 20 24 15 Tổng số 979.152 5.630 435 522
(Nguồn: đề xuất của tác giả)
3.4.2 Thiết kế bảng câu hỏi
Bảng câu hỏi được thiết kế trên cơ sở thang đo nháp 2 được phát triển từ thang đo nháp 1 và kết quả nghiên cứu sơ bộ (mục 3.2.2) và bổ sung thêm phần thông tin các đặc điểm nhân khẩu học của khách hàng được khảo sát. Bảng câu hỏi này được sử dụng sau đó để khảo sát thử 22 khách hàng đến giao dịch tại BIDV (theo phương pháp lấy mẫu thuận tiện) nhằm đánh giá mức độ hoàn chỉnh của các câu hỏi (phát biểu) về mặt hình thức và khả năng cung cấp thông tin của khách hàng, trên cơ sở đó hiệu chỉnh thành bảng câu hỏi được sử dụng để khảo sát chính thức.
Kết quả khảo sát thử 22 khách hàng đến giao dịch tại BIDV cho thấy : - Đáp viên (khách hàng được khảo sát) hiểu được các phát biểu. - Đáp viên có đầy đủ thông tin để trả lời.
- Đáp viên có sẵn sàng cung cấp thông tin.
Tuy nhiên, theo ý kiến khách hàng thì cần thay thế cụm từ “khách hàng” bằng cụm từ “Anh (Chị)” để tạo ra sự thân thiện, gần gũi cho khách hàng khi được khảo sát. Vì thế, bảng câu hỏi này tiếp tục được sử dụng để khảo sát khách hàng trong nghiên cứu chính thức sau khi thay thế cụm từ “Khách hàng” trong các phát biểu bằng cụm từ “Anh (Chị)” (phụ lục 2).
3.4.3 Thu thập thông tin mẫu nghiên cứu
Thông tin mẫu nghiên cứu được thu thập bằng kỹ thuật khảo sát bằng bảng câu hỏi các khách hàng đang có quan hệ tín dụng bán lẻ tại trụ sở chi nhánh và các phòng giao dịch của BIDV Quảng Ngãi theo khung mẫu đã xác định trên đây (mục 3.3.1).
- 45 -
Kết quả khảo sát, sau khi làm sạch (loại bỏ các bảng câu hỏi có nhiều ô thiếu thông tin, hoặc nhiều hơn một ô trả lời, hoặc có cơ sở để xác định không đáng tin cậy) được nhập vào ma trận dữ liệu trên phần mềm SPSS 16.0
Tập dữ liệu sau khi làm sạch, được đưa vào kiểm tra tính phân phối thông qua các chỉ số Skewness và Kurtosis, trước khi áp dụng các kỹ thuật định lượng bằng phương pháp phân tích phương sai để ước lượng các tham số trong quá trình kiểm định thang đo, mô hình nghiên cứu và các giả thuyết nghiên cứu.
3.4.4 Phƣơng pháp phân tích dữ liệu
Quá trình phân tích dữ liệu nghiên cứu được thực hiện qua các giai đoạn: Đánh giá độ tin cậy thang đo
Việc đánh giá độ tin cậy của thang đo được thực hiện bằng phương pháp hệ số tin cậy Cronbach's alpha và phân tích nhân tố khám phá EFA thông qua phần mềm xử lý SPSS 16.0 để sàng lọc, loại bỏ các biến quan sát không đáp ứng tiêu chuẩn độ tin cậy (biến rác). Trong đó:
- Cronbach's alpha là phép kiểm định thống kê về mức độ chặt chẽ (khả năng giải thích cho một khái niệm nghiên cứu) của tập hợp các biến quan sát thông qua hệ số Cronbach's alpha. Theo nhiều nhà nghiên cứu (Nunally, 1978; Peterson, 1994; Slater, 1995) đề nghị hệ số Cronbach's alpha từ 0,6 trở lên là có thể chấp nhận được trong trường hợp khái niệm đang nghiên cứu là mới hoặc mới đối với người trả lời trong bối cảnh nghiên cứu.
Tuy nhiên, theo Nunnally và ctg (1994), hệ số Cronbach's alpha không cho biết biến nào nên loại bỏ và biến nào nên giữ lại. Bởi vậy, bên cạnh hệ số Cronbach's alpha, người ta còn sử dụng hệ số tương quan biến tổng (iterm - total correlation) và những biến nào có tương quan biến tổng < 0,3 sẽ bị loại bỏ.
- Phân tích nhân tố khám phá EFA được sử dụng phổ biến để đánh giá giá trị thang đo (tính đơn hướng, giá trị hội tụ và giá trị phân biệt) hay rút gọn một tập biến. Trong nghiên cứu này, phân tích nhân tố được ứng dụng để tóm tắt tập các biến quan sát vào một số nhân tố nhất định đo lường các thuộc tính của các khái niệm nghiên
- 46 -
cứu. Tiêu chuẩn áp dụng và chọn biến đối với phân tích nhân tố khám phá EFA bao gồm:
- Tiêu chuẩn Bartlett và hệ số KMO dùng để đánh giá sự thích hợp của EFA. Theo đó, giả thuyết H0 (các biến không có tương quan với nhau trong tổng thể) bị bác bỏ và do đó EFA được gọi là thích hợp khi: 0,5 ≤ KMO ≤ 1 và Sig < 0,05. Trường hợp KMO < 0,5 thì phân tích nhân tố có khả năng không thích hợp với dữ liệu (Hoàng Trọng và Chu Nguyễn Mộng Ngọc, 2005, tr.262).
- Tiêu chuẩn rút trích nhân tố gồm chỉ số Eigenvalue (đại diện cho lượng biến thiên được giải thích bởi các nhân tố) và chỉ số Cumulative (tổng phương sai trích cho biết phân tích nhân tố giải thích được bao nhiêu % và bao nhiêu % bị thất thoát). Theo Gerbing và Anderson (1988), các nhân tố có Eigenvalue < 1 sẽ không có tác dụng tóm tắt thông tin tốt hơn biến gốc (biến tiềm ẩn trong các thang đo trước khi EFA). Vì thế, các nhân tố chỉ được rút trích tại Eigenvalue > 1 và được chấp nhận khi tổng phương sai trích ≥ 50%.
- Tiêu chuẩn hệ số tải nhân tố (Factor loadings) biểu thị tương quan đơn giữa các biến với các nhân tố, dùng để đánh giá mức ý nghĩa của EFA. Theo Hair và ctg, Factor loading > 0,3 được xem là đạt mức tối thiểu; Factor loading > 0,4 được xem là quan trọng; Ngoài ra, trường hợp các biến có Factor loading được trích vào các nhân tố khác nhau mà chênh lệch trọng số rất nhỏ (các nhà nghiên cứu thường không chấp nhận < 0,3), tức không tạo nên sự khác biệt để đại diện cho một nhân tố, thì biến đó cũng bị loại và các biến còn lại sẽ được nhóm vào nhân tố tương ứng đã được rút trích trên ma trận mẫu (Pattern Matrix).
Tuy nhiên, cũng như trong phân tích Cronbach's alpha, việc loại bỏ hay không một biến quan sát không chỉ đơn thuần nhìn vào con số thống kê mà còn phải xem xét giá trị nội dung của biến đó. Trường hợp biến có trọng số Factor loading thấp hoặc được trích vào các nhân tố khác nhau mà chênh lệch trọng số rất nhỏ, nhưng có đóng góp quan trọng vào giá trị nội dung của khái niệm mà nó đo lường thì không nhất thiết loại bỏ biến đó (Nguyễn Đình Thọ và Nguyễn Thị Mai Trang, 2011, tr.402, 403).
Trong nghiên cứu này, mẫu nghiên cứu có kích thước tương đối lớn (n = 435) và sau EFA là phân tích hồi qui đa biến. Vì thế, trong quá trình Cronbach's alpha, tác
- 47 -
giả sẽ giữ lại các thang đo có trị số Cronbach's alpha ≥ 0,6 và loại các biến quan sát có tương quan biến-tổng < 0,3. Trong quá trình EFA, tác giả sử dụng phương pháp trích Principal components với phép xoay Varimax; loại bỏ các biến quan sát có trị số Factor loading ≤ 0,4 hoặc trích vào các nhân tố khác mà chênh lệch trọng số Factor loading giữa các nhân tố ≤ 0,3
Phân tích hồi qui tuyến tính bội
Quá trình phân tích hồi qui tuyến tính được thực hiện qua các bước:
Bước 1: Kiểm tra tương quan giữa biến các biến độc lập với nhau và với biến
phụ thuộc thông qua ma trận hệ số tương quan. Theo đó, điều kiện để phân tích hồi qui là phải có tương quan giữa các biến độc lập với nhau và với biến phụ thuộc. Tuy nhiên, theo John và Benet - Martinez (2000), khi hệ số tương quan < 0,85 thì có khả năng đảm bảo giá trị phân biệt giữa các biến. Nghĩa là, nếu hệ số tương quan > 0,85 thì cần xem xét vai trò của các biến độc lập, vì có thể xảy ra hiện tượng đa cộng tuyến (một biến độc lập này có được giải thích bằng một biến khác).
Bước 2: Xây dựng và kiểm định mô hình hồi qui
Y = β1X1+β2X2+ β3X3+ β4X4+...+ βkXk Được thực hiện thông qua các thủ tục:
- Lựa chọn các biến đưa vào mô hình hồi qui (tác giả sử dụng phương pháp Enter - SPSS xử lý tất cả các biến đưa vào cùng một lượt).
- Đánh giá độ phù hợp của mô hình bằng hệ số xác định R2 (R Square). Tuy nhiên, R2
có đặc điểm càng tăng khi đưa thêm các biến độc lập vào mô hình, mặc dù không phải mô hình càng có nhiều biến độc lập thì càng phù hợp với tập dữ liệu. Vì thế, R2 điều chỉnh (Adjusted R Square) có đặc điểm không phụ thuộc vào số lượng biến đưa thêm vào mô hình được sử dụng thay thế R2 để đánh giá mức độ phù hợp của mô hình hồi qui bội.
- Kiểm định độ phù hợp của mô hình để lựa chọn mô hình tối ưu bằng cách sử dụng phương pháp phân tích ANOVA để kiểm định giả thuyết H0: (không có mối liên hệ tuyến tính giữa biến phụ thuộc với tập hợp các biến độc lập β1=β2=β3=βK= 0).
- 48 -
Nếu trị thống kê F có Sig rất nhỏ (< 0,05), thì giả thuyết H0 bị bác bỏ, khi đó chúng ta kết luận tập hợp của các biến độc lập trong mô hình có thể giải thích cho sự biến thiên của biến phụ thuộc. Nghĩa là mô hình được xây dựng phù hợp với tập dữ liệu, vì thế có thể sử dụng được.
- Xác định các hệ số của phương trình hồi qui, đó là các hệ số hồi qui riêng phần βk đo lường sự thay đổi trung bình của biến phụ thuộc khi biến độc lập Xk thay đổi một đơn vị, trong khi các biến độc lập khác được giữ nguyên. Tuy nhiên, độ lớn của βk phụ thuộc vào đơn vị đo lường của các biến độc lập, vì thế việc so sánh trực tiếp chúng với nhau là không có ý nghĩa. Do đó, để có thể so sánh các hệ số hồi qui với nhau, từ đó xác định tầm quan trọng (mức độ giải thích) của các biến độc lập cho biến phụ thuộc, người ta biểu diễn số đo của tất cả các biến độc lập bằng đơn vị đo lường độ lệnh chuẩn beta.
Bước 3: Kiểm tra vi phạm các giả định hồi qui
Mô hình hồi qui được xem là phù hợp với tổng thể nghiên cứu khi không vi phạm các giả định. Vì thế, sau khi xây dựng được phương trình hồi qui, cần phải kiểm tra các vi phạm giả định cần thiết sau đây:
- Có liên hệ tuyến tính gữa các biến độc lập với biến phụ thuộc - Phần dư của biến phụ thuộc có phân phối chuẩn
- Phương sai của sai số không đổi
- Không có tương quan giữa các phần dư (tính độc lập của các sai số)
- Không có tương quan giữa các biến độc lập (không có hiện tượng đa cộng tuyến).
Trong đó:
- Công cụ để kiểm tra giả định liên hệ tuyến tính là đồ thị phân tán phần dư chuẩn hóa (Scatter) biểu thị tương quan giữa giá trị phần dư chuẩn hóa (Standardized Residual) và giá trị dự đoán chuẩn hóa (Standardized Pridicted Value).
- Công cụ để kiểm tra giả định phần dư có phân phối chuẩn là đồ thị tần số Histogram, hoặc đồ thị tần số P-P plot.
- 49 -
- Công cụ để kiểm tra giả định sai số của biến phụ thuộc có phương sai không đổi là đồ thị phân tán của phần dư và giá trị dự đoán hoặc kiểm định Spearman’s rho.
- Công cụ được sử dụng để kiểm tra giả định không có tương quan giữa các phần dư là đại lượng thống kê d (Durbin - Watson), hoặc đồ thị phân tán phần dư chuẩn hóa (Scatter).
- Công cụ được sử dụng để phát hiện tồn tại hiện tượng đa cộng tuyến là độ chấp nhận của biến (Tolerance) hoặc hệ số phóng đại phương sai (Variance inflation factor - VIF). Theo Hoàng Trọng và Chu Nguyễn Mộng Ngọc (2005, tr.217, 218), qui tắc chung là VIF > 10 là dấu hiệu đa cộng tuyến; trong khi đó, theo Nguyễn Đình Thọ và Nguyễn Thị Mai Trang (2011, tr.497), khi VIF > 2 cần phải cẩn trọng hiện tượng đa cộng tuyến.
- 50 -
KẾT LUẬN CHƢƠNG 3
Chương 3 trình bàyphương pháp nghiên cứu được thực hiện qua 2 giai đoạn là nghiên cứu sơ bộ và chính thức. Kết quả nghiên cứu sơ bộ là một nghiên cứu định tính khẳng định mô hình lý thuyết đề xuất trong chương 2 phản ánh các thành phần chính của chất lượng dịch vụ tín dụng bán lẻ - áp dụng cho trường hợp BIDV Quảng Ngãi, đồng thời phát triển thang đo các thành phần này và sự hài lòng gồm 29 biến. Nghiên cứu chính thức là một nghiên cứu định lượng, mẫu nghiên cứu được chọn bằng phương pháp lấy mẫu định mức (phi xác suất) theo số dự nợ tín dụng tại trụ sở chi nhánh và các phòng giao dịch (TP. Quảng Ngãi và các huyện), kết hợp phương pháp lấy mẫu hệ thống (xác suất) theo số lượng khách hàng hiện đang sử dụng dịch vụ tín dụng bán lẻ tại trụ sở chi nhánh và các phòng giao dịch của BIDV Quảng Ngãi. Kích thước mẫu là 435 được thu thập bằng hình thức khảo sát bằng bảng câu hỏi.
Quá trình và phương pháp sử dụng phân tích dữ liệu bao gồm:
- Đánh giá độ tin cậy (giá trị hội tụ và giá trị phân biệt) các thang đo bằng Cronbach's alpha và phân tích nhân tố khám phá EFA.
- Phân tích hồi qui tuyến tính bội được sử dụng để kiểm định mô hình nghiên cứu và các giả thuyết nghiên cứu.
Toàn bộ quá trình phân tích dữ liệu sử dụng phần mềm SPSS 16.0. Kết quả