NGHIÊN CỨU CHÍNH THỨC

Một phần của tài liệu ĐÁNH GIÁ MỨC ĐỘ HÀI LÒNG CỦA SINHVIÊN VỀ CHẤT LƯỢNG DỊCH VỤ THƯ VIỆN TẠI TRƯỜNG ĐẠI HỌC KINH TẾ - ĐẠI HỌC ĐÀ NẴNG (Trang 46 - 54)

Nghiên cứu chính thức được thực hiện bằng phương pháp nghiên cứu định lượng, nhằm kiểm định lại các thang đo trong mô hình nghiên cứu thông qua dữ liệu thu thập được từ bảng câu hỏi khảo sát. Toàn bộ dữ liệu hồi đáp sẽ được mã hóa, nhập liệu và làm sạch với sự hỗ trợ của phần mềm SPSS 16.0.

4.3.1. Phương pháp thu thập thông tin và cỡ mẫu

Dữ liệu trong nghiên cứu này có sử dụng phương pháp phân tích nhân tố khám phá (EFA). Theo Hair & ctg (1998), để có thể phân tích nhân tố khám phá cần thu thập dữ liệu với kích thước mẫu là ít nhất 5 mẫu trên 1 biến quan sát. Mô hình nghiên cứu có số biến quan sát là 31. Nếu theo tiêu chuẩn năm mẫu cho một biến quan sát thì kích thước mẫu cần thiết là n = 155 (31 x 5). Để đạt được kích thước mẫu đề ra và độ chính xác của dữ liệu thu được, 350 bảng câu hỏi được gửi đi phỏng vấn.

Quá trình thu thập thông tin được tiến hành trong khoảng thời gian nửa đầu tháng 10. Tổng thể nghiên cứu là tất cả sinh viên 4 khóa của trường ĐHKT - ĐHĐN. Đuợc sự hỗ trợ của cán bộ thư viện và sự hợp tác của các bạn sinh viên,

tôi đã phát trực tiếp 350 bảng hỏi cho các sinh viên sử dụng dịch vụ thư viện của các khóa. Sử dụng hình thức lấy mẫu phân loại ; dự kiến 200 mẫu sẽ đuợc phát tại thư viện nhằm điều tra những sinh viên đang trực tiếp sử dụng dịch vụ thư viện ; 100 mẫu tại các giảng đuờng và 50 mẫu tại kí túc xá nhằm khảo sát những sinh viên đã từng sử dụng dịch vụ của thư viện.

Trong quá trình điều tra thu thập dữ liệu, để đảm bảo tính đầy đủ, rõ ràng, các bảng câu hỏi thu thập được cần phải trải qua hai lần hiệu chỉnh. Lần hiệu chỉnh thứ nhất, tiến hành ngay sau khi đối tượng phỏng vấn trả lời xong bảng câu hỏi, nhằm phát hiện ra những câu hỏi bị bỏ sót hoặc đánh dấu hai lần để điều tra lại cho hoàn chỉnh. Lần hiệu chỉnh thứ hai, tiến hành khi tổng hợp lại số liệu, kiểm tra và loại bỏ bất kì một bảng hỏi nào không hợp lệ.

4.3.2. Phương pháp xử lí số liệu

Dữ liệu sau khi thu thập và nhập liệu sẽ được làm sạch để có thể đạt chuẩn đưa vào xử lý đánh giá mức độ phù hợp của mô hình lý thuyết bằng phần mềm SPSS 16.0 và AMOS 16.0 .

4.3.2.1. Làm sạch dữ liệu

Dữ liệu sau khi nhập xong thường chưa thể đưa ngày vào xử lý và phân tích vì còn nhiều lỗi do:

• Chất lượng của phỏng vấn và đọc soát: người phỏng vấn hiểu sai câu hỏi và thu thập dữ liệu sai, chọn sai đối tượng phỏng vấn, người được phỏng vấn trả lời sai ý, người đọc soát chưa phát hiện được…

• Nhập dữ liệu: sai, sót, thừa

Sau đây là một số cách để khắc phục các tình trạng trên dùng trên phần mềm SPSS.

 Dúng bảng tần số : lập bảng tần số cho tất cả các biến, đọc soát để tìm các giá lạ so với phần mã hóa.

 Dùng bảng phối hợp hai biến hay ba biến :chúng ta lập bảng kết hợp giữa các biến rồi dựa vào các quan hệ hợp lý logic để phát hiện ra lỗi. Ví dụ như kết hợp giữa biến tuổi và nghề nghiệp thì một trường hợp tuổi chỉ mới có 12 trong khi nghề nghiệp lại ghi là giáo viên, tức là một trong hai biến trên đã bị nhập sai.

 Cách tìm lỗi đơn giản ngay trên cửa sổ dữ liệu (Data View)

Chúng ta có thể sử dụng lệnh Sort Case để tìm những lỗi đơn giản ngay trên cửa sổ dữ liệu. Ví dụ, với tình huống giới tính, chỉ cần chọn lệnh sắp xếp dữ liệu giảm dần, nếu giá trị lớn nhất không phải là 2 mà là một giá trị bất kì lớn hơn 2 nghĩa là chúng ta đã tìm ra lỗi. Lưu ý chúng ta không nên lưu lại tập dữ liệu sau khi đã sắp xếp vì như vậy trật tự sắp xếp các trường hợp theo quá trình nhập liệu của chúng ta sẽ bị phá vỡ.

4.3.2.2. Tổng quan về mẫu điều tra

Tiến hành phân tích, tính toán tần suất để mô tả mẫu thu thập được theo các đặc trưng cá nhân của sinh viên như giới tính, khóa học, khoa và nơi ở.

4.3.2.3. Đánh giá thang đo bằng hệ số tin cậy Cronbach’s alpha

Hệ số tin cậy Cronbach’s alpha là một phép kiểm định thống kê về mức độ chặt chẽ mà các biến quan sát trong thang đo tương quan với nhau, là phép kiểm định về sự phù hợp của thang đo đối với từng biến quan sát, xét trên mối quan hệ với một khía cạnh đánh giá.

Các thang đo đều được đánh giá độ tin cậy (thông qua hệ số tin cậy Cronbach’s alpha thông qua phần mềm thống kê SPSS 16.0). Mục đích là tìm ra những mục cần hỏi cần giữ lại và những mục hỏi cần bỏ đi trong rất nhiều mục bạn đưa vào kiểm tra (Hoàng Trọng và Chu Nguyễn Mộng Ngọc, 2005,249). Sau khi phân tích, kết quả cho thấy hệ số Cronbach alpha của các thang đo đều đạt từ 0.6 trở lên. Nhiều nhà nghiên cứu đồng ý rằng khi Cronbach alpha từ 0.8 đến gần 1 thì thang đo lường tốt, từ 0.7 đến gần bằng 0.8 là sử dụng được.

Cũng có nhà nghiên cứu đề nghị rằng Cronbach alpha từ 0.6 trở lên là có thể sử dụng được trong trường hợp khái niệm đang nghiên cứu là mới hoặc mới đối với người trả lời trong bối cảnh nghiên cứu (Nunnally, 1978; Peterson, 1994; Slater, 1995). Bên cạnh đó, các biến quan sát đều có hệ số tương quan giữa biến và tổng (item-totalcorrelation) trên 0.3. Đề tài nghiên cứu được xem là mới đối với đối tượng nghiên cứu là sinh viên tại trường ĐHKT - ĐHĐN vào thời điểm điều tra do đó thang đo có hệ số cronbach’s alpha từ 0.6 trở lên là có thể sử dụng được.

4.3.2.4. Phân tích nhân tố khám phá (EFA)

Phân tích nhân tố EFA được dùng đến trong trường hợp mối quan hệ giữa các biến quan sát và biến tiềm ẩn là không rõ ràng hay không chắc chắn. Phân tích EFA theo đó được tiến hành theo kiểu khám phá để xác định xem phạm vi, mức độ quan hệ giữa các biến quan sát và các nhân tố cơ sở như thế nào, làm nền tảng cho một tập hợp các phép đo để rút gọn hay giảm bớt số biến quan sát tải lên các nhân tố cơ sở.

Do sau khi phân tích nhân tố EFA, sẽ tiếp tục tiến hành phân tích nhân tố khẳng định CFA và chạy mô hình cấu trúc SEM cho nên, khi thực hiện phân tích nhân tố CFA cần phải quan tâm đến những tiêu chuẩn sau:

• Sử dụng phương pháp trích Principal Axis Factoring với phép xoay Promax, theo Gerbing & Anderson (1988), Phương pháp này phản ánh cấu trúc dữ liệu chính xác hơn phương pháp trích Principal Components với phép xoay Varimax vì kết quả thu được có số lượng nhân tố là ít nhất, giải thích phương sai chung của tập hợp biến quan sát trong sự tác động qua lại giữa chúng.

• Tiêu chuẩn về hệ số tải nhân tố Factor loading, theo Hair & ctg (1998), hệ số tải nhân tố Factor loading là chỉ tiêu để đảm bảo mức ý nghĩa thiết thực của EFA. Factor loading >0.3 được xem là đạt được mức tối thiểu, Factor loading >0.4 được xem là quan trọng và Factor loading >0.5 được xem là có ý nghĩa thực tiễn. Hair cũng cho rằng, nếu chọn tiêu chuẩn Factor loading >0.3 thì

cỡ mẫu ít nhất là 350. Nếu cỡ mẫu là 100 thì Factor loading phải >0.55. Như vậy, trong đề tài này cỡ mẫu là 339 nên hệ số Factor loading >0.3 là đạt yêu cầu, tuy nhiên để đề tài có ý nghĩa thực tiễn chỉ những biến quan sát có hệ số Factor loading lớn nhất ≥0.5 mới đạt yêu cầu.

• Tổng phương sai trích ≥50% (Gerbing & Anderson, 1988)

Trong phân tích nhân tố khám phá, trị số KMO (Kaisor Meyer Olkin) là chỉ số dùng để xem xét sự thích hợp của phân tích nhân tố. Đơn vị KMO là tỷ lệ giữa bình phương tương quan của các biến với bình phương tương quan một phần của các biến. Trị số của KMO lớn (giữa 0.5 và 1) có nghĩa là phân tích nhân tố thích hợp, còn nếu như trị số này nhỏ hơn 0.5 thì phân tích nhân tố có khả năng không thích hợp với các dữ liệu.

• Ngoài ra, phân tích nhân tố còn dựa vào Eigenvalue để xác định số lượng các nhân tố. Chỉ những nhân tố nào có Eigenvalue lớn hơn 1 mới được giữ lại trong mô hình phân tích. Đại lượng Eigenvalue đại diện cho phần biến thiên được giải thích bởi mỗi nhân tố. Những nhân tố có Eigenvalue nhỏ hơn 1 sẽ không có tác dụng tóm tắt thông tin tốt hơn biến gốc.

4.3.2.5. Phân tích nhân tố khẳng định (CFA)

CFA là bước tiếp theo của EFA đây là công cụ để chúng ta khẳng định hay bác bỏ lý thuyết cho trước của mình.

Khi xây dựng CFA, các biến quan sát cũng là các biến chỉ báo trong mô hình đo lường, bởi vì chúng cùng “tải” lên khái niệm lý thuyết cơ sở. Phương pháp phân tích nhân tố khẳng định CFA chấp nhận các giả thuyết của các nhà nghiên cứu, được xác định căn cứ theo quan hệ giữa mỗi biến và một hay nhiều hơn một nhân tố.

• Để đo lường mức độ phù hợp của mô hình với dữ liệu nghiên cứu, người ta thường sử dụng các chỉ tiêu sau:

• Trọng số CFA: theo Tabachnick & Fidell(2007) thì trọng số này càng cao thì mức độ giả thích của biến cho nhân tố càng lớn và ngược lại. Cụ thể theo ông thì trọng số CFA từ 0.71 trở lên thì mức độ giả thích được xem là hoàn hảo, từ 0.63 đến 0.71 là tốt, từ 0.45 đến 0.55 là phù hợp, dưới 0.3 tức là không có ý nghĩa giải thích.

• Chi-square (χ2): biểu thị mức độ phù hợp tổng quát của toàn bộ mô hình tại mức ý nghĩa P-value = 0.05 (Joserkog & Sorbom, 1989).

• Chi-square điều chỉnh bậc tự do (χ2/df): cũng dùng để đo mức độ phù hợp một cách chi tiết hơn của cả mô hình.

• Chỉ số thích hợp so sánh (CFI-Comparative Fit Index). • Chỉ số Turkey & Lewis (TLI- Turkey & Lewis Index).

• Chỉ số RMSEA (Root Mean Square Error Approximation): xác định mức độ phù hợp của mô hình so với tổng thể.

• Chỉ số tương quan MI: dùng để điều chỉnh mức độ phù hợp của mô hình đề xuất theo Joreskog thì MI ≥ 5 thì điều chỉnh. Tuy nhiên, chúng ta ưu tiên móc nối các biến có mức độ tương quan cao trước.

Mô hình được xem là phù hợp cao với dữ liệu nghiên cứu khi:  1 < Chi-square/df < 3 theo Carmines & McIver, 1981  Các chi số GFI, TLI, CFI ≥ 0.9 Bentler & Bonett, 1980  RMSEA ≤ 0.08 theo Thọ & Trang

Một số đánh giá khác thường sử dụng khi thực hiện CFA:

• Đánh giá độ tin cậy của thang đo: thông qua hệ số tin cậy tổng hợp, tổng phương sai trích được và hệ số Cronbach’s Alpha

• Tính đơn hướng / đơn nguyên : Theo Steenkamp & Van Trijp, mức độ phù hợp của mô hình với dữ liệu thị trường cho chúng ta điều kiện cần và đủ để cho tập biến quan sát đạt được tính đơn hướng, trừ trường hợp các sai số của biến quan sát có tương quan với nhau.

• Giá trị hội tụ: Theo Gerbring & Anderson (1988), thang đo đạt được giá trị hội tụ khi các trọng số đã chuẩn hóa của thang đo đều cao (>0.5) và có ý nghĩa thống kê (P-value <0.05).

• Giá trị phân biệt: Có thể kiểm định giá trị phân biệt của các khái niệm trong mô hình tới hạn bằng cách thực hiện kiểm định hệ số tương quan xét trên phạm vi tổng thể giữa các khái niệm có thực sự khác biệt so với 1 hay không. Nếu nó thực sự khác một thì thang đo đạt giá trị phân biệt

• Giá trị liên hệ lý thuyết: Các vấn đề nêu trên được đánh giá trong mô hình đo lường, riêng giá trị liên hệ lý thuyết được liên hệ trong mô hình lý thuyết (Gerbring & Anderson, 1988), nếu như các vấn đề trên đều thỏa mãn, thì mô hình đo lường là tốt. Tuy nhiên, hiếm có mô hình đo lường nào đạt được tất cả các vấn đề trên.

4.3.2.6. Kiểm định sự phù hợp của mô hình lí thuyết bằng mô hình SEM

Một lý do chính mà SEM đang làm việc rộng rãi trong nhiều lĩnh vực khoa học là chúng cung cấp một cơ chế rõ ràng có tính đến sai số đo lường tại các biến quan sát (cả phụ thuộc và độc lập) trong một mô hình.

SEM có thể cho một mô hình phức hợp phù hợp với dữ liệu như các bộ dữ liệu khảo sát trong dài hạn (longitudinal), phân tích nhân tố khẳng định (CFA), các mô hình không chuẩn hoá,cơ sở dữ liệu có cấu trúc sai số tự tương quan, dữ liệu với các biến số không chuẩn (Non-Normality), hay dữ liệu bị thiếu (missing data).

Đặc biệt, SEM sử dụng để ước lượng các mô hình đo lường (Mesurement Model) và mô hình cấu trúc (Structure Model) của bài toán lý thuyết đa biến.

Mô hình SEM cũng phối hợp được tất cả các kỹ thuật như hồi quy đa biến, phân tích nhân tố và phân tích mối quan hệ tương hỗ (giữa các phần tử trong sơ đồ mạng) để cho phép chúng ta kiểm tra mối quan hệ phức hợp trong mô hình. Khác với những kỹ thuật thống kê khác chỉ cho phép ước lượng mối quan hệ riêng phần của từng cặp nhân tố (phần tử) trong mô hình cổ điển (mô hình đo lường), SEM cho phép ước lượng đồng thời các phần tử trong tổng thể mô hình, ước lượng mối quan hệ nhân quả giữa các khái niệm tiềm ẩn (Latent Constructs) qua các chỉ số kết hợp cả đo lường và cấu trúc của mô hình lý thuyết, đo các mối quan hệ ổn định (recursive) và không ổn định (non-recursive), đo các ảnh hưởng trực tiếp cũng như gián tiếp, kể cả sai số đo và tương quan phần dư. Với kỹ thuật phân tích nhân tố khẳng định (CFA) mô hình SEM cho phép linh động tìm kiếm mô hình phù hợp nhất trong các mô hình đề nghị.

Công dụng và lợi thế của SEM là:

 Khẳng định các giả thuyết về các quan hệ nhân quả có phù hợp với dữ liệu thực nghiệm hay không.

 Kiểm định khẳng định các quan hệ giữa các biến.

 Kiểm định mối quan hệ giữa các biến quan sát và không quan sát.

 Là phương pháp tổ hợp phương pháp hồi quy, phân tích nhân tố, phân tích phương sai.

 Cung cấp các chỉ số về mức độ phù hợp của mô hình kiểm định

 Cho phép cải thiện các mô hình kém phù hợp bằng cách sử dụng linh hoạt các chỉ số hiệu chỉnh MI.

CHƯƠNG 5

KẾT QUẢ NGHIÊN CỨU

Một phần của tài liệu ĐÁNH GIÁ MỨC ĐỘ HÀI LÒNG CỦA SINHVIÊN VỀ CHẤT LƯỢNG DỊCH VỤ THƯ VIỆN TẠI TRƯỜNG ĐẠI HỌC KINH TẾ - ĐẠI HỌC ĐÀ NẴNG (Trang 46 - 54)

Tải bản đầy đủ (DOC)

(104 trang)
w