2.2.3.1 Thống kê mô tả
Thống kê mô tả là các phương pháp có liên quan đến việc thu thập số liệu, tóm tắt, trình bày, tính toán các đặc trưng khác nhau để phản ánh một cách tổng quát đối tượng nghiên cứu.
Trong đó:
Phương pháp tần số: sử dụng bảng phân phối tần số là bảng tóm tắt dữ liệu được xếp thành từng yếu tố khác nhau, dựa trên những tấn số xuất hiện của các đối tượng trong cơ sở dữ liệu để so sánh tỷ lệ, phản ánh số liệu.
Một số đại lượng thống kê mô tả được sử dụng trong nghiên cứu gồm:
Số trung bình cộng (Mean): bằng tổng tất cả các giá trị lượng biến quan sát chia cho số quan sát.
Mode (Mo): là giá trị có tần số xuất hiện cao nhất trong tổng số hay trong một dãy số phân phối.
Phương sai: là trung bình giữa bình phương các độ lệch giữa các biến và trung bình của các biến đó.
Độ lệch chuẩn: là căn bậc hai của phương sai.
2.2.3.2 Phương pháp so sánh
So sánh số tuyệt đối
Số tuyệt đối là chỉ tiêu biểu hiện quy mô, khối lượng của hiện tượng hoặc quá trình kinh tế – xã hội trong điều kiện thời gian, không gian cụ thể. (Mai Văn Nam, 2008 [9])
Công thức: ∆Y = Y1 – Y0 (2.1) Trong đó:
Y0: chỉ tiêu năm trước (kỳ gốc) Y1: chỉ tiêu năm sau (kỳ nghiên cứu)
∆Y: là phần chênh lệch tăng, giảm của các chỉ tiêu kinh tế
So sánh số tương đối
Số tương đối là chỉ tiêu biểu hiện quan hệ so sánh giữa hai chỉ tiêu thóng kê cũng loại những khác nhau về thời gian hoặc không gian hoặc giữa hai chỉ
- 32 -
tiêu khác loại nhưng có quan hệ với nhau. Trong hai chỉ tiêu để so sánh các số tương đối, sẽ có một số được chọn làm gốc (chuẩn) để so sánh. (Mai Văn Nam, 2008 [9])
Công thức: %Y = (∆Y/Y0)*100 (2.2)
Trong đó:
Y0: chỉ tiêu năm trước. Y1: chỉ tiêu năm sau.
ΔY: là phần chệnh lệch tăng, giảm của các chỉ tiêu kinh tế. %Y: là biểu hiện tốc độ tăng trưởng của các chỉ tiêu kinh tế.
2.2.3.3 Thang đo Likert
Trong nghiên cứu định lượng, tùy theo cái khái niệm nghiên cứu khác nhau mà nhà nghiên cứu cần lựa chọn và xây dựng các thang đo phù hợp để ứng dụng trong đo lường và phân tích dữ liệu trong mô hình nghiên cứu của mình. Đối với các khái niệm mang tính trừu tượng, một thang đo được sử dụng rộng rãi trong các nghiên cứu thuộc lĩnh vực kinh tế xã hội đã được Rennis Likert đề suất (1932) (Hoàng Trọng và Chu Nguyễn Mộng Ngọc, 2008) [6], có thể gồm các mức độ khác nhau (3, 5, hay 7 mức độ) được sử dụng tùy thuộc vào yêu cầu và mục đích của người nghiên cứu. Hầu hết các thang đo của Likert có số lượng lẻ các câu trả lời như 3, 5, hoặc 7. Mục đích là đưa ra cho người một loạt câu trả lời có điểm giữa. Điểm giữa thường mang tính trung lập, ví dụ như không đồng ý cũng không phản đối. Số lượng chẵn buộc người trả lời phải xác định một quan điểm rõ ràng trong khi số lựa chọn lẻ cho phép họ lựa chọn an toàn hơn. Không thể nói việc lựa chọn mức độ nào là tốt hơn vì cách nào cũng có hệ quả riêng của nó. Trong đó thang đo lường 5 mức độ được sử dụng tương đối phổ biến. Việc tăng mức độ thang đo có thể giúp tăng được độ chính xác cho mô hình tuy nhiên cũng dễ gây bối rối cho đáp viên trong trả lời câu hỏi, vì thế thang đo 5 mức độ được cho tác giả cho rằng là tương đối phù hợp với các nghiên cứu. Ý nghĩa giá trị trung bình của các biến được đánh giá thông qua việc phân chia các khoảng khác nhau từ 1 đến 5 với giá trị khoảng cách được tính như sau:
Giá trị khoảng cách = (Maximum-Minimum)/số mức độ = (5-1)/5 = 0,8 Phương pháp của Likert là lên một danh sách các biến quan sát có thể đo lường cho một khái niệm và tìm ra những tập hợp các mục hỏi để đo lường tốt các khía cạnh khác nhau của khái niệm. Trong nghiên cứu này, các khái niệm về truyền miệng điện tử và hình ảnh điểm đến là các khái niệm trừu tượng nên
- 33 -
cũng sẽ được đo lường dựa trên thang đo Likert 5 mức độ. Tập hợp các phát biểu và câu hỏi được đưa ra dựa trên các lý thuyết và nghiên cứu đã được đề ra ở trên. Trong đó, các đáp viên được yêu cầu đánh giá mức độ đồng ý đối với các phát biểu liên quan đến việc sử dụng thông tin truyền miệng điện tử và đánh giá thái độ tích cực hay tiêu cực đối với các yếu tố thuộc về hình ảnh điểm đến Việt Nam. Cụ thể:
Đối với khái niệm truyền miệng điện tử:
1: Rất không đồng ý; 2: Không đồng ý; 3: Bình thường; 4: Đồng ý; 5: Rất đồng ý.
Ý nghĩa của giá trị trung bình: 1,00 - 1,80: Rất không đồng ý 1,81 - 2,60: Không đồng ý 2,61 - 3,40: Bình thường 3,41 - 4,20: Đồng ý 4,21 - 5,00: Rất đồng ý
Đối với khái niệm hình ảnh điểm đến:
1: Rất tiêu cực 2: Tiêu cực 3: Bình thường 4: Tích cực 5: Rất tích cực
Ý nghĩa của giá trị trung bình: 1,00 - 1,80: Rất tiêu cực
1,81 - 2,60: Tiêu cực 2,61 - 3,40: Bình thường 3,41 - 4,20: Tích cực 4,21 - 5,00: Rất tích cực
- 34 -
Cách thức chia khoảng này cũng được giải thích tương tự đối với các thang Likert 5 mức độ khác.
Sau khi đã thu thập các số liệu dựa trên thang đo đã đưa ra, các số liệu này cần được kiểm tra lại thông qua các kiểm định về độ tin cậy của thang đo trước khi đưa vào các phân tích tiếp theo. Theo Nguyễn Đình Thọ và Nguyễn Thị Mai Trang (2008) [11] khi đánh giá thang đo, chúng ta cần sử dụng Cronbach’s Alpha để loại các biến rác trước khi sử dụng EFA. Nếu không theo trình tự này, các biến rác có thể tạo ra các yếu tố giả (artificial factors).
2.2.3.4 Kiểm định độ tin cậy của thang đo – Hệ số Cronbach’s Alpha
Việc kiểm tra xem các biến nào đã có đóng góp vào việc đo lường các khái niệm lý thuyết đã được nêu ra và những mục hỏi nào không, liên quan đến hai phép tính toán là (1) tương quan giữa bản thân các biến và (2) tương quan của các điểm số của từng biến với điểm số toàn bộ các biến cho mỗi người trả lời. Tương ứng với hai phép tính toán này thang đo cần thỏa mãn hai điều kiện quan trọng về hệ số Cronbach’s Alpha và hệ số tương quan biến- tổng (item-total correlation).
Tương quan giữa các biến:
Những biến đo lường cùng một khái niệm tiềm ẩn thì phải có mối liên hệ đến các biến còn lại trong cùng một tập hợp đó. Hệ số Alpha (α) của Cronbach là một phép kiểm định thống kê về mức độ chặt chẽ mà các biến trong thang đo tương quan với nhau. Công thức của hệ số α là:
α = Nρ/[1+ρ(N-1)] (2.3) Trong đó:
ρ là hệ số tương quan trung bình giữa các biến N là số biến.
Để tính Cronbach’s Alpha cho một thang đo lường thì thang đo phải có tối thiểu là ba biến đo lường. Hệ số Cronbach’s Alpha có giá trị biến thiên trong khoảng [0,1]. Về lý thuyết Cronbach’s Alpha càng cao càng cho thấy thang đo có độ tin cậy càng cao. Nunnally và Bernstein (1994) [68] đề suất rằng với α >= 0,6 là thang đo có thể được chấp nhận về độ tin cậy. Một thang đo có độ tin cậy tốt khi nó biến thiên trong khoảng từ 0,7 đến 0,8. Cũng cần lưu ý rằng, nếu hệ số Cronbach’s Alpha quá cao (>0,95) thì có khả năng xuất hiện các biến thừa (redundant items), là các biến đo lường một khái niệm gần như trùng với các biến đo lường khác, tương tự như trường hợp cộng tuyến
- 35 -
trong hồi quy (collinearity), khi đó biến thừa nên được loại bỏ. (Nguyễn Khánh Duy, 2008) [13].
Tương quan giữa điểm số của từng biến với điểm số toàn bộ các biến của mỗi người trả lời
Các phân tích về hệ số α của Cronbach đã cho chúng ta biết được các
đo lường có liên kết với nhau hay không, tuy nhiên sẽ khó để xác định được các biến nào cần được giữ lại trong mô hình và các biến nào là biến rác cần phải loại bỏ. Để thực hiện công việc này, một chỉ tiêu khác được đưa ra để xem xét là hệ số tương quan biến – tổng. Các biến quan sát có hệ số tương quan biến – tổng nhỏ hơn 0.3 sẽ bị loại khỏi mô hình (Nunnally và Bernstein, 1994) [68]. Mục đích là loại bỏ các biến mà sự tồn tại của nó trong mô hình làm giảm sự tương quan giữa các biến khác, để giữ cho hệ số α đạt được yêu cầu đã đưa ra.
Các biến đạt yêu cầu của các khái niệm truyền miệng điện tử và hình ảnh điểm đến trong kiểm định độ tin cậy của thang đo sẽ được thu nhỏ và tóm tắt lại bằng phân tích nhân tố khám phá EFA.
2.2.3.5 Phân tích nhân tố khám phá
Phân tích nhân tố khám phá ( Exploratory Factor Analysis – EFA) là một phương pháp phân tích thống kê dùng để rút gọn một tập gồm nhiều biến quan sát phụ thuộc lẫn nhau thành một tập biến (gọi là các nhân tố) ít hơn để chúng có ý nghĩa hơn nhưng vẫn chứa đựng hầu hết nội dung thông tin của tập biến ban đầu (Hair và cộng sự, 1998) [51]. Cơ sở của việc rút gọn này được dựa vào mối quan hệ tuyến tính của các nhân tố với các biến quan sát. Phân tích nhân tố là một kĩ thuật phụ thuộc lẫn nhau (interdependence technique) trong đó toàn bộ các mối liên hệ phụ thuộc lẫn nhau sẽ được nghiên cứu. Trong nghiên cứu này EFA được sử dụng để nhận diện một số lượng ít hơn các nhân tố đo lường sự truyền miệng điện tử và hình ảnh điểm đến từ các biến quan sát đã được lựa chọn trước đó. Tập hợp các biến gốc như đã biết là biến có tương quan chặt chẽ với nhau, do đó sẽ được thay thế bằng các biến mới này đã được điều chỉnh để không có sự tương quan với nhau để thực hiện phân tích trong mô hình cấu trúc tuyến tính (SEM) tiếp theo. Về mặt tính toán, phân tích nhân tố hơi giống với phân tích hồi quy bội ở chỗ mỗi biến được biểu diễn như là một kết hợp tuyến tính của các nhân tố cơ bản.
Mô hình nhân tố được thể hiện bằng phương trình:
Xi= Ai1F1+ Ai2F2+ Ai3F3+…+ AimFm+ ViUi (2.4) Trong đó:
- 36 - Xi : biến thứ i chuẩn hóa
Aij: hệ số hồi qui bội chuẩn hóa của nhân tố j đối với biến i F: các nhân tố chung
Vi: hệ số hồi qui chuẩn hóa của nhân tố đặc trưng i đối với biến i Ui: nhân tố đặc trưng của biến i
m : số nhân tố chung
Bản thân các nhân tố chung cũng có thể được diễn tả như những kết hợp tuyến tính của các biến quan sát:
Fi= Wi1X1+ Wi2X2+ Wi3X3+…+ WikXk (2.5) Trong đó:
Fi: ước lượng trị số của nhân tố thứ i Wi: quyền số hay trọng số nhân tố k: số biến
KMO và kiểm định Barlett
Kaiser-Meyer-Olkin (KMO) measure of sampling adequancy: là một chỉ số để xem xét sự thích hợp của phân tích nhân tố. Trị số của KMO lớn (giữa 0,5 và 1) là điều kiện đủ để phân tích nhân tố là thích hợp, còn nếu như trị số này nhỏ hơn 0,5 thì phân tích nhân tố có khả năng không thích hợp với các dữ liệu. (Hoàng Trọng và Chu Nguyễn Mộng Ngọc (2008)) [6]
Barlet’s test of sphericity: Đại lượng Barlet là một đại lượng thống kê dùng để xem xét giả thuyết các biến không có tương quan trong tổng thể. Nói cách khác, ma trận tương quan tổng thể là một ma trận đồng nhất, mỗi biến tương quan hoàn toàn với chính nó (r=1) nhưng không có tương quan với các biến khác (r=0). Điều kiện cần để áp dụng phân tích nhân tố là các biến phải có tương quan với nhau (các biến đo lường phản ảnh những khía cạnh khác nhau của cùng một yếu tố chung). Do đó nếu kiểm định cho thấy không có ý nghĩa thống kê thì không nên áp dụng phân tích nhân tố cho các biến đang xem xét. Lúc đó biến đo lường có thể được xem là các nhân tố thực sự. (Hoàng Trọng và Chu Nguyễn Mộng Ngọc, 2008) [6]
Xác định số nhân tố
Theo Hoàng Trọng và Chu Nguyễn Mộng Ngọc (2008, trang 33) [6], có 5 phương pháp xác định số nhân tố là: xác định từ trước, dựa vào eigenvalue, biểu đồ dốc (scree plot), phần trăm biến thiên giải thích được (percentage of
- 37 -
variance), chia đôi mẫu, kiểm định mức ý nghĩa. Số lượng nhân tố của các khái niệm cần đo lường trong nghiên cứu này được xác định dựa vào eigenvalue, đại diện cho lượng biến thiên được giải thích bởi nhân tố. Chỉ những nhân tố nào có eigenvalue lớn hơn 1 mới được giữ lại trong mô hình phân tích. Những nhân tố có eigenvalue nhỏ hơn 1 sẽ không có tác dụng tóm tắt thông tin tốt hơn một biến gốc, vì sau khi chuẩn hóa mỗi biến gốc có phương sai là 1.
Phương pháp trích và xoay nhân tố
Phương pháp trích nhân tố Principal Components cùng với phép xoay Varimax (Orthogonal; xoay các nhân tố trong đó vẫn giữ nguyên góc ban đầu của các nhân tố) thường được các nhà nghiên cứu sử dụng phổ biến trong các phân tích nhân tố khám phá, sự kết hợp này cho phép trích được nhiều phương sai từ các biến đo lường với số lượng thành phần nhỏ nhất để phục vụ cho mục tiêu dự báo tiếp theo (Nguyễn Đình Thọ, 2011) [12]. Tuy nhiên đối với các nghiên cứu sử dụng tiếp tục kết quả từ phân tích nhân tố khám phá cho phân tích nhân tố khẳng định (CFA) và phân tích mô hình cấu trúc tuyến tính (SEM) thì các nhà nghiên cứu khuyên nên sử dụng phương pháp trích Principal Axis Factoring và phép xoay Promax (Obique; xoay các nhân tố mà không giữ nguyên góc ban đầu giữa các nhân tố) để phản ánh được cấu trúc dữ liệu chính xác hơn, thường được sử dụng để đánh giá thang đo lường (Nguyễn Đình Thọ, 2011; Nguyễn Khánh Duy, 2011) [12][13].
Hệ số tải nhân tố
Hệ số tải nhân tố (Factor loadings) là những hệ số tương quan đơn giữa các biến và các nhân tố, đảm bảo mức ý nghĩa thiết thực của của EFA. Factor loading >0,3 được xem là đạt mức tối thiểu, factor loading >0,4 được xem là quan trọng và factor loading >0,5 được xem là có ý nghĩa thực tiễn. Trong nghiên cứu này, các biến có hệ số tải nhân tố trên 0,3 sẽ được chấp nhận.
Tổng phương sai trích
Là phần trăm biến thiên được giải thích bởi các nhân tố. Tổng phương sai trích phải đạt từ 50% trở lên (Hair và cộng sự, 1998) [51].
Tóm lại, để đưa ra những nhân tố mới từ các biến ban đầu, quá trình phân
tích EFA sẽ được diễn ra với các điều kiện sau đây:
0,5 ≤ KMO ≤ 1; Kiểm định Barlett bác bỏ giả thuyết H0, có ý nghĩa thống kê.
- 38 -
Phương pháp trích: Principle Axis Component
Phép xoay: Promax
Hệ số tải nhân tố (Factor loading) ≥0,3
Tổng phương sai trích (Total variance extracted) ≥50%
Cronbach’s Alpha ≥ 0,6
Sau khi các biến quan sát ban đầu được thu gọn lại thành các nhân tố mới qua phân tích nhân tố khám phá, thang đo là thang đo chính thức, và khái niệm nghiên cứu sẽ được đưa vào kiểm định các giả thuyết trong SEM.
2.2.3.6 Kiểm định thang đo bằng phương pháp phân tích nhân tố
khẳng định CFA
Phân tích nhân tố khẳng định (Confirmatory factor analysis) cho phép kiểm định cấu trúc của thang đo trong mối quan hệ giữa các khái niệm mà không bị chệch do sai số đo lường (Nguyễn Đình Thọ và Nguyễn Thị Mai Trang) [11]. Trong khi ở EFA, trước khi phân tích dữ liệu các nhà nghiên cứu không biết chắc chắn số nhân tố đại diện cho các biến sẽ tồn tại trong mô hình, thì trong phân tích nhân tố khẳng định, họ đã có các mong đợi lý thuyết cho các cấu trúc nhân tố đó trước khi thực hiện phân tích và đánh giá thang đo. Phân tích nhân tố khẳng định là một công cụ tốt để đánh giá lại giá trị mô hình đã được xây dựng trong phân tích nhân tố khám phá, xem xét sự phù hợp của