2.4.1 Phương pháp thu thập số liệu
Số liệu được sử dụng trong nghiên cứu bao gồm số liệu sơ cấp và số liệu thứ cấp.
2.4.1.1 Số liệu sơ cấp
Phương pháp chọn mẫu: đề tài chọn phương pháp chọn mẫu ngẫu nhiên thuận tiện, lấy mẫu dựa trên sự thuận lợi hay dựa trên tính dễ tiếp cận của đối tượng, ở những nơi mà nhân viên điều tra có nhiều khả năng gặp được đối tượng. Lấy mẫu thuận tiện thường được dùng trong nghiên cứu khám phá, để xác định ý nghĩa thực tiễn của vấn đề nghiên cứu; hoặc để kiểm tra trước bảng câu hỏi nhằm hoàn chỉnh bảng; hoặc khi muốn ước lượng sơ bộ về vấn đề đang quan tâm mà không muốn mất nhiều thời gian và chi phí.
Vùng chọn mẫu: công nhân đang làm việc phân xưởng và các bộ phận hỗ trợ xưởng của công ty cổ phần may Tây Đô.
Cách chọn cỡ mẫu:
Phương pháp phân tích dữ liệu được sử dụng trong bài nghiên cứu này là phân tích nhân tố khám phá (EFA), phân tích nhân tố khẳng định (CFA) và phân tích mô hình cấu trúc tuyến tính SEM. Các nhà nghiên cứu trong lĩnh vực này đều đồng ý rằng phương pháp này đòi hỏi số mẫu phải lớn dựa vào lý thuyết phân phối lớn (Raykov và Widaman 1995). Nhưng số mẫu bao nhiêu là được cho là lớn thì chưa có nhà nghiên cứu nào nói lên vấn đề này. Thêm vào đó, kích thước mẫu còn tùy thuộc vào phương pháp ước lượng sử dụng. Trong EFA kích thước mẫu được xác định dựa vào số biến đo lường đưa vào phân tích. Theo Hair (2006) thì kích thước mẫu tối thiểu phải là 50, và tốt hơn là 100 và tỷ lệ quan sát /biến đo lường là 5:1, nghĩa là 1 biến đo lường cần tối thiểu là 5 quan sát. Cụ thể trong bài có 28 biến quan sát, như vậy cỡ mẫu ít nhất của đề tài là 28x5 = 140. Nếu sử dụng phương pháp ước lượng ML
27
(Maximum Likeihood) thì kích thước mẫu tối thiểu phải từ 100 đến 150 (Hair, 1998). Cũng có nhà nghiên cứu cho rằng kích thước mẫu tối thiểu là 200 (Hoelter, 1983). Do hạn chế về thời gian cũng như điều kiện thực hiện nghiên cứu nên đề tài sử dụng kích cỡ mẫu n=140.
Bảng câu hỏi: nội dung chính của bảng câu hỏi gồm 2 phần: - Phần 1: Thông tin chung của đáp viên
- Phần 2: Phần nội dung:
Thông tin về hình thức trả lương của các đáp viên. Câu hỏi được trả lời dưới dạng chọn 1 đáp án a, b, c, d.
Đánh giá của công nhân về mức độ ảnh hưởng của các yếu tố đến động lực làm việc được đo bằng thang đo Likert 5 mức độ (1: Rất không đồng ý, 2: Không đồng ý, 3: Trung lập, 4: Đồng ý, 5: Rất đồng ý).
Yếu tố động lực làm việc được thể hiện qua 3 ý kiến. Đáp viên sẽ đánh giá 3 ý kiến qua thang đo Likert 5 mức độ (1: Rất không đồng ý, 2: Không đồng ý, 3: Trung lập, 4: Đồng ý, 5: Rất đồng ý)
Câu hỏi mở để thống kê ý kiến của các đáp viên về yếu tố quan trọng nhất khi chọn một công viêc. Câu hỏi sẽ được trả lời theo từng suy nghĩ của mỗi đáp viên.
2.4.1.2 Số liệu thứ cấp
Thu thập trong quá trình đi sâu thực tế khi thực tập ở công ty, ngoài ra còn được thu thập thông qua các bài viết của tổng cục thống kê, tạp chí kinh tế, tin kinh tế, việt báo,...Và một số tin tức từ các trang website bách khoa toàn thư Wikipedia, vnexpress,…
2.4.2 Phương pháp xử lý số liệu
Mục tiêu 1:
Từ những số liệu mà công ty đã cung cấp và tìm hiểu trên internet để phân tích thực trạng ngành dệt may Việt Nam nói chung và công ty cổ phần may Tây Đô nói riêng. Bằng phương pháp thông kê mô tả, tính toán bằng những kiến thức đã được học, đưa ra nhận xét tương đối để làm nổi bật tình hình hoạt động kinh doanh cũng như các chính sách nhân sự của công ty.
Mục tiêu 2: Sử dụng phần mềm SPSS 16.0 và AMOS 18.0 để làm rõ mục tiêu.
Sử dụng phương pháp thống kê mô tả: là phương pháp liên quan đến việc thu thập số liệu sơ cấp, tóm tắt trình bày các đặc trưng khác nhau về mặt
28
thông tin cá nhân của các đáp viên trả lời để phản ánh một cách tổng quát đối tượng nghiên cứu, làm cơ sở để phân tích và kết luân. Trong phương pháp này bao gồm: phân tích tần số, tính các đại lượng thống kê mô tả.
Phân tích tần số: Đếm các tần số để biết với tập dữ liệu đang có thì số đối tượng có các biến nào đó ở thuộc tính cụ thể là bao nhiêu, nhiều hay ít… Trong phân tích tần số thường bao gồm các giá trị sau:
- Frequency: Tần số của từng biểu hiện, được tính bằng cách đếm và cộng dồn.
- Percent: Tần suất tính theo tỉ lệ phần trăm (tần số của mỗi biểu hiện/ tổng số quan sát)
Các đại lượng thống kê mô tả: Các đại lượng thường dùng trong phương pháp này là:
- Mean: Trung bình cộng
- Sum: Tổng cộng (tổng các giá trị trong tập dữ liệu quan sát) - Std.Deviation: Độ lệch chuẩn
- Minimum: Giá trị nhỏ nhất - Maximum: Giá trị lớn nhất
- SE Mean: Sai số chuẩn khi ước lượng trị trung bình
Trong đề tài, các biến quan sát của các nhóm nhân tố độc lập được đo lường theo thang đo Liker 5 mức độ, ý nghĩa của từng thang đo khoảng là:
Giá trị khoảng cách = (Maximum- Minimum)/ n (2.1) = (5-1)/ 5
= 0,8
Giá trị trung bình - ý nghĩa:
- 1,00- 1,80: Rất không đồng ý/ Rất không hài lòng/ Rất không quan trọng - 1,81- 2,60: Không đồng ý/ Không hài lòng/ Không quan trọng
- 2,61- 3,40: Trung lập/ Không có ý kiến/ Trung bình - 3,41- 4,20: Đồng ý/ Hài lòng/ Quan trọng
- 4,21- 5,00: Rất đồng ý/ Rất hài lòng/ Rất quan trọng
Phương pháp kiểm định độ tin cậy của thang đo Cronbach’ Alpha: để xác định các biến độc lập ảnh hưởng đến biến phụ thuộc (động lực làm việc)
29 nếu:
- Mối quan hệ giữa biến và α tổng trong bảng kết quả < 0,3 thì ta loại biến đó ra khỏi mô hình vì không phù hợp
- Cronbach’ Alpha tổng của mô hình > 0,8 thì dữ liệu thu thập được là dữ liệu tốt. Nhiều nhà nghiên cứu cho rằng Cronbach’ Alpha từ 0,8 trở lên gần 1 thì thang đo lường là tốt, từ 0,7 đến gần 0,8 là sử dụng được, cũng có ý kiến đề nghị rằng hệ số Cronbach’ Alpha từ 0,6 trở lên là sử dụng được trong trường hợp khái niệm đo lường mới (Nunnally 1978 và Slater 1995).
Phương pháp phân tích nhân tố: chia các biến độc lập thành những nhóm có tính chất đặc điểm giống nhau, mỗi nhóm đại diện cho một yếu tố có tác động đến biến phụ thuộc là động lực làm việc, giúp xác định rõ ràng các yếu tố ảnh hưởng. Nói cách khác là gom nhóm các biến quan sát có đặc điểm chung lại với nhau thành một nhóm nhân tố.
Các tham số thống kê trong phân tích nhân tố:
- Barlett’s test of sphericity: là một đại lượng thống kê dùng để xem xét giả thuyết các biến không có tương quan trong tổng thể.
- Correlation matrix: cho biết hệ số tương quan giữa tất cả các cặp biến trong phân tích.
- Communality: là lượng biến thiên của một biến được giải thích chung với biến khác được xem xét trong phân tích. Đây cũng là phần biến thiên được giải thích bởi các nhân tố chung.
- Eigenvalue: đại diện cho phần biến thiên được giải thích bởi mỗi nhân tố.
- Factor loading: hệ số tải nhân tố là những hệ số tương quan đơn giữa các biến và các nhân tố.
- Factor matrix: ma trận nhân tố, chứa các hệ số tải nhân tố của tất cả các biến đối với các nhân tố được rút ra.
- Factor scores: điểm nhân tố tổng hợp được ước lượng cho từng quan sát trên các nhân tố được rút ra.
Kaiser Meyer Olkin (KMO): là chỉ số dùng để xem xét sự thích hợp của phân tích nhân tố. Từ 0,5 < trị số KMO < 1 là điều kiện đủ để phân tích nhân tố là thích hợp, trị số KMO < 0,5 thì dữ liệu không phù hợp. Đồng thời, trong phân tích này hệ số tải nhân tố (Factor loading) là chỉ tiêu để đảm bảo mức ý nghĩa thiết thực của EFA. Theo Hair và cộng sự (1998), hệ số tải nhân tố > 0,3
30
được xem là đạt được mức tối thiểu, hệ số tải nhân tố >0,4 được xem là quan trọng, hệ số tải nhân tố > 0,5 được xem là có ý nghĩa thực tiễn. Nếu chọn tiêu chuẩn hệ số tải nhân tố > 0,3 thì cỡ mẫu ít nhất là 350, nếu cỡ mẫu khoảng 100 thì nên chọn hệ số tải nhân tố > 0,55, nếu cỡ mẫu khoảng 50 thì là > 0,75. Bài nghiên cứu này sử dụng cỡ mẫu 140 nên các biến có trọng số nhỏ hơn 0,5 sẽ bị loại. Thang đo được chấp nhận khi tổng phương sai trích bằng hoặc lớn hơn 50% (Gerbing & Anderson, 1988).
Phương pháp kiểm định trị trung bình của hai tổng thể độc lập (Independent samples T- test): trong bài này đề cập đến kiểm định trị trung bình hai tổng thể độc lập có sự khác nhau hay không? Phương pháp này kiểm định cho một câu hỏi định tính với một câu hỏi định lượng.
Phương pháp phân tích phương sai Anova: là phương pháp so sánh trị trung bình của 3 nhóm tổng thể trở lên.
Phương pháp kiểm định nhân tố khẳng định CFA: dùng để đưa ra một kiểm định mang tính khẳng định lý thuyết đo lường của nghiên cứu. Lý thuyết đo lường nêu rõ các mối quan hệ cho thấy các biến quan sát đại diện như thế nào cho các nhân tố không đo được trực tiếp. Lý thuyết đo lường có thể kết hợp một lý thuyết cấu trúc để nêu đầy đủ một mô hình SEM.
Để đo lường độ phù hợp của mô hình với thông tin thị trường, nghiên cứu sử dụng các chỉ tiêu chi bình phương (CMIN_Chi- square), chi bình phương điều chỉnh theo bậc tự do (CMIN/df), chỉ số tích hợp so sánh (CFI_Comparative Fit Index), chỉ số Tucker & Lewis (TLI_Tucker & Lewis Index) và chỉ số RMSEA (Root Mean Square Error Approximation). Mô hình được xem là thích hợp khi kiểm định Chi- square có giá trị p > 0,05. Nếu một mô hình nhận được giá trị TLI và CFI từ 0,9 đến 1, CMIN/ df có giá trị < 2, RMSEA có giá trị < 0,08 thì mô hình phù hợp với dữ liệu thị trường (Nguyễn Đình Thọ và Nguyễn Thị Mai Trang, 2007).
Trong CFA nên thực hiện các đánh giá sau đây:
- Hệ số tin cậy tổng hợp (ρc) và tổng phương sai trích (ρvc), hai chỉ tiêu này đạt yêu cầu từ 0,5 trở lên.
(2.2) + + ρс =
31
(2.3)
Trong đó λi là trọng số chuẩn hóa của biến quan sát thứ i, 1- λi2 là phương sai của sai số đo lường biến quan sát thứ i, p là số biến quan sát của thang đo.
Tính đơn hướng của một thang đo nói lên tập các biến đo lường chỉ đo lường một biến tiềm ẩn mà thôi (Hattie, 1985). Điều này có nghĩa là một biến quan sát chỉ dùng để đo lường một biến tiềm ẩn duy nhất (Nguyễn Đình Thọ, 2011). Theo Steenkamp và Van Trijp (1991), mức độ phù hợp của mô hình với dữ liệu thị trường cho chúng ta điều kiện cần và đủ để cho tập hợp biến quan sát đạt được tính đơn hướng, trừ trường hợp các sai số của các biến quan sát có tương quan với nhau.
Giá trị hội tụ nói lên mức độ hội tụ của một thang đo sử dụng để đo lường một khái niệm sau nhiều lần, nghĩa là sau mỗi lần lặp lại các số đo có mối quan hệ chặt chẽ với nhau (Nguyễn Đình Thọ, 2011). Gerbring & Anderson (1988) cho rằng thang đo đạt được giá trị hội tụ khi các trọng số chuẩn hóa của thang đo đều cao (> 0,5) và có ý nghĩa thống kê (p< 0,05).
Giá trị phân biệt nói lên hai thang đo lường khái niệm khác nhau phải khác biệt nhau (Bagozzi, 1994). Điều này có nghĩa là hai khái niệm đó là hai khái niệm phân biệt, nghĩa là hệ số tương quan của hai khái niệm này phải khác với đơn vị. Có thể thực hiện kiểm định hệ số tương quan xét trên phạm vi tổng thể giữa các khái niệm có thực sự khác biệt so với 1 hay không. Nếu nó thực sự khác biệt thì các thang đo đạt được giá trị phân biệt (Nguyễn Đình Thọ, 2011).
Giá trị liên hệ lý thuyết nói lên mối quan hệ của khái niệm với các khái niệm khác trong hệ lý thuyết đang nghiên cứu (Nomological, Campbell 1960; Cronbach & Meehl, 1955). Chúng ta kiểm định giá trị liên hệ lý thuyết cùng với kiểm định mô hình lý thuyết, nghĩa là xem xét mối quan hệ của nó với các khái niệm khác trong mô hình (Anderson & Gerbing, 1988, Steenkamp & Van Trijp, 1991), (Nguyễn Đình Thọ, 2011).
Mô hình cấu trúc tuyến tính SEM: kiểm định chặt chẽ hơn về sự tương quan nhân quả và độ phù hợp của tổng thể.
+ ρνс =
32
SEM là dạng mô hình thống kê nhằm giải thích mối quan hệ giữa nhiều biến. SEM khảo sát cấu trúc của mối tương tác giữa một loạt các phương trình, tương tự như các phương trình hồi quy bội. Các phương trình này mô tả các mối quan hệ giữa các nhân tố, các biến phụ thuộc và độc lập liên quan đến việc nghiên cứu. Nhân tố là nhân tố không quan sát được hay ẩn được đại diện bằng những biến quan sát.
Một mô hình SEM bình thường gồm hai mô hình, mô hình đo lường (chỉ các biến cùng nhau đại diện cho nhân tố như thế nào) và mô hình cấu trúc (chỉ mối quan hệ giữa các biến nhân tố)
Nghiên cứu này sử dụng mô hình cấu trúc tuyến tính bởi vì: - Ước lượng của nhiều mối quan hệ phụ thuộc lẫn nhau
- Khả năng phát hiện các biến tiềm ẩn trong các mối quan hệ và giải thích lỗi đo lường trong tiến trình ước lượng
Mặt khác, nhiều mô hình hồi quy tách biệt nhau được ước lượng đồng thời bởi mô hình cấu trúc (SEM). Vì vậy, những ảnh hưởng trực tiếp hoặc gián tiếp sẽ được nhận ra (Tate, 1998). Tuy nhiên, những mô hình hồi quy tách biệt phải được thiết lập dựa trên lý thuyết, kinh nghiệm trước đó, mục tiêu nghiên cứu để phân biệt sự ảnh hưởng của các biến độc lập dự báo đến biến phụ thuộc. Ngoài ra, bởi vì SEM xem xét lỗi đo lường vì vậy mức độ tin cậy của các biến dữ báo được cải tiến.
Sự phù hợp của mô hình trên thực tế được đo lường thông qua các tiêu chí về mức độ phù hợp như sau:
- Kiểm định Chi- square (χ2): biểu thị mức độ phù hợp tổng quát của toàn bộ mô hình tại mức ý nghĩa p= 0,05 (Joserkog & Sorbom, 1989). Trong phép kiểm định này, mô hình được gọi là phù hợp khi kiểm định Chi- square có giá trị p > 5%. Tuy nhiên, kiểm định này có nhược điểm phụ thuộc vào kích cỡ mẫu.
- Giá trị CMIN/df: có giá trị < 2 thì mô hình được xem là phù hợp tốt (Kettinger & Lee, 1995).
- Các chỉ số liên quan khác như:
GFI: đo độ phù hợp tuyệt đối (không điều chỉnh bậc tự do) của mô hình cấu trúc tuyến tính và mô hình đo lường với bộ dữ liệu khảo sát.
AGFI: điều chỉnh giá trị GFI theo bậc tự do mô hình.
33
đánh giá tương quan phần dư của một biến quan sát này với tương quan phần dư của một biến quan sát khác. Giá trị RMR càng lớn nghĩa là phương sai phần dư càng cao, nó phản ánh một mô hình có độ phù hợp không tốt.
GFI, AGFI, CFI, NFI, TLI… có giá trị > 0,9 được xem là mô hình phù hợp tốt. Nếu các giá trị này bằng 1, thì mô hình hoàn hảo (Segar &Grover, 1993; Chin & Todd, 1995).
RMSEA: là một chỉ tiêu quan trọng, nó xác định mức độ phù hợp của mô hình so với tổng thể. RMSEA có giá trị ≤ 0,08 mô hình được chấp nhận