Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống
1
/ 21 trang
THÔNG TIN TÀI LIỆU
Thông tin cơ bản
Định dạng
Số trang
21
Dung lượng
479,24 KB
Nội dung
Sử dụngScreamingFroghoặc
Deep Crawlkiểmtracáclinkbị
loại bỏbởiPenguin
Kỹ sư Matt Cutts của Google đã thông báo rằng Penguin 2.0
đã đã chính thức được đưa vào sửdụng vào ngày 22 tháng 5
và các webmaster hãy chuẩn bị tinh thần cho những điều thay
đổi sắp tới. Với việc phát hành bản update thuật toán khiến
nhiều SEO-er đang tự hỏi rằng Google còn muốn gây ra
những cản trở gì cho SEO.
Tôi đã làm rất nhiều phân tích với Google Penguin kể từ
ngày 24 tháng 4 năm 2012 khi Penguin 1.0 lần đầu được tiên
tung ra, vì vậy tôi luôn chuẩn bị sẵn sàng để bắt đầu phân tích
những update mới nhất của Penguin. Tương tự như các
phương pháp tôi sửdụng để phân tích Penguin 1.0, tôi bắt
đầu phân tích rất nhiều những site mà bịPenguin 2.0 tấn
công để tìm hiểu sâu hơn về bản cập nhật thuật toán mới này.
Khi Penguin 2.0 được chính thức đưa vào sử dụng, Cutts giải
thích rằng Penguin 1.0 chỉ phân tích homepage của một
website. Và dựa trên phân tích của với 15 site bị tấn công bới
Penguin 1.0, tôi đã hiểu rõ về điều này.
Khi phân tích cấu hình của các liên kết trong các trang web bị
ảnh hưởng bởiPenguin 2.0, bạn có thể thấy rất nhiều liên kết
không tự nhiên trỏ đến một trang trong web, không chỉ trang
chủ. Hầu hết những trang tôi phân tích thì đều như thế
Nhiều liên kết không tự nhiên = nhiều liên kết bịloạibỏ
Nếu site của bạn từng bị tấn công bởiPenguin 2.0 (hoặc 1.0),
bạn phải phân tích tất cả các cấu hình liên kết, xác định
những liên kết không tự nhiên đã loại bỏ. Đối với một số
trang web, đây là một điều hết sức khó khăn. Có một số trang
web tôi đã phân tích, thì có hàng trăm hàng ngàn liên kết để
loại bỏ (thậm chí còn nhiều hơn). Và càng nhiều liên kết bạn
cần phải loại bỏ, thì bạn càng gặp khó khăn để tạo nên một
site chất lượng.
Nhưng ngay cả khi bạn phân tích, download, và sắp xếp các
liên kết này, thì làm thế nào để bạn biết những link mà đã bị
loại bỏ? Chắc chắn, bạn có thể kiểmtra chúng một cách thủ
công, nhưng bạn có thể không thực hiện được điều này cho
đến năm 2023.
Sẽ không còn gì tuyệt với hơn nếu có một số cách tự động để
kiểm tracáclink inbound spam mà bạn đang cố gắng loại
bỏ? Và ngay bây giờ, tôi sẽ tiết lộ cho cách bạn các cách đấy.
Trên thực tế, có hai công cụ SEO rất hữu ích và tiết kiệm thời
gian khi thực hiện điều này.
Công cụ ScreamingFrog
Một trong những công cụ SEO ưa dùng của tôi là Screaming
Frog. Tôi thường sửdụng nó cho một số nhiệm vụ quan
trọng liên quan đến web về các vẫn đề thu thập dữ liệu, kiểm
tra sitemap XML, đánh dấu lỗi thu nhập dữ liệu, kiểmtrasự
tối ưu hóa on-page với số lượng lớn, vv. Hầu như không
ngày nào là tôi không sửdụngScreaming Forg cho các công
việc liên quan đến SEO của mình. .
Và kể từ khi Penguin 1.0 ra mắt, tôi đã sửdụngFrog
Screaming cho một nhiệm vụ quan trọng - kiểmtra xem liệu
các liên kết spam inbound có còn hoạt động hay không. Sử
dụng Screaming Frog, bạn có thể sửdụng một bộ lọc tùy
chỉnh để kiểmtra mã html cụ thể trên website mà bạn đang
thu thập dư liệu. Và sau khi thu thập dữ liệu, bạn có thể xem
các trang nào vẫn dùng code đó (hoặc không dùng code đó).
Điều này có thể giúp bạn tiết kiệm rất nhiều thời gian.
Ngoài ra, phân tích các trang web ảnh bị hưởng bởiPenguin
1.0 và 2.0 cho tôi thấy rằng có nhiều trang web ảnh hưởng
bởi phần mềm độc hại, bị đánh dấu là các trang web tấn
công, vv. Khi kiểmtracác liên kết inbound spam, bạn chắc
chắn sẽ giảm thiểu được nguy cơ bị ảnh hưởng bớicác phần
mềm độc hại đó.
Sử dụngScreamingFrog có thể giúp bạn tránh truy cập vào
các trang spam. Nó là một lợi ích của việc sửdụng công cụ
này.
Lưu ý: Tuần trước, Cyrus Shepard đã có một bài viết rất hay
về các công cụ từ chối backlink và khẳng định rằng bạn có
thể sửdụngFrogScreaming để kiểmtra việc loạibỏcác
trang (nếu trang web chứa các liên kết spam dẫn đến lỗi 404).
Bạn chắc chắn có thể làm điều đó, nhưng có những lúc các
trang vẫn tồn tại và chỉ có cáclink được loại bỏ.
Các phương pháp tôi đang cung cấp ở đây là về việc những
link đã được gỡ bỏ từ các trang mà vẫn tồn tại trên web. Nói
cách khác, webmaster đang loạibỏcác liên kết nhưng vẫn
muốn giữ các trang đó hoạt động.
Sử dụngFrogScreaming để kiểmtracác liên kết
inbound.
Bây giờ tôi sẽ giải thích những gì bạn nên làm. Tôi chắc rằng
có rất nhiều bạn đọc bài viết này có thể sửdụng một số cách
để tiết kiệm thời gian mà vẫn xác định được những liên kết bị
loại bỏ. Nhưng bây giờ chúng ta hãy cùng nhau tìm hiểu một
cách chi tiết về các bước trong Screaming Frog.
1. Phân tích, xuất, và sắp xếp liên kết của bạn
Bước đầu tiên là bước khó khăn nhất, và không có một
hưỡng dẫn cụ thể nào cho bước này. Bạn sẽ cần phải phân
tích cấu trúc liên kết, xác định các liên kết spam, và sau đó
chuyển định dạng sang Excel.
Bạn có thể, và nên sửdụng một số công cụ để phân tích cấu
trúc liên kết như: Majestic SEO, Open Site Explorer, Google
Webmaster Tools, Bing Webmaster Tools, vv
Bạn nên download liên kết, đánh dấu các liên kết không tự
nhiên, và sắp xếp chúng chúng bằng bảng Excel
2. Sao chép URL vào file text
Bạn có thể sửdụngScreamingFrog ở chế độ "List”, có nghĩa
là nó sẽ thu thập các url mà bạn cung cấp trong một file text.
Đó là những gì bạn phải làm, việc copy các liên kết không tự
nhiên của bạn từ Excel vào một trình soạn thảo văn bản là rất
quan trọng. Tôi sửdụng Textpad, nhưng bạn có thể sao chép
các url của bạn vào bất kỳ trình soạn thảo văn bản nào. Mỗi
url trên 1 dòng riêng biệt
[...]... site của bạn Các công cụ SEO có thể tự động hóa một số nhiệm vụ khó khắn, giúp bạn làm việc với website hiệu quả hơn ScreamingFrog và DeepCrawl đều có thể giúp bạn rất nhiều trong các tình huống mà Penguin gây ra Hy vọng rằng bài viết này đã giúp bạn nắm rõ cách sửdụngScreamingFrog và Deep Crwal để thu thập thông tin, kiểmtracác liên kết bịloạibỏ mà không cần phải xem xét lại từng trang ... cả các việc làm của bạn để chắc chắn rằng bạn đang theo dõi được sựloạibỏlink Điều quan trọng là có một file Excel có cấu trúc tốt liên kết tới những link mà bạn đánh dấu, và những link bạn muốn từ chối (nếu bạn cần phải sử dụngcác công cụ từ chối backlink cho bất kỳ các liên kết còn lại) Và đúng như thế, có thể bạn sẽ cần phải sử dụngcác công cụ từ chối backlink Hãy cố gắng và loạibỏcác link. .. đó là khi tôi sử dụng một công cụ mới mà tôi cũng rất ưu dùng Đó là công cụ DeepCrawlDeepCrawl là một giải pháp dựa trên mô hình đám mây để thực hiện thu thập thông tin ở quy mô lớn Đối với SEO-er, đó là một giải pháp nhiệm vụ nặng nề Bạn cũng có thể sử dụng regEx (biểu thức hính quy) để kiểmtrasự hiện diện của nội dung trên một trang web trong DeepCrawl để xem xét kỹ lưỡng một trang web hơn... cùng, và sau đó chọn "List" Một lần nữa, bạn phải cung cấp danh sách các url cho ScreamingFrogkiểmtra 4 Chọn File Khi bạn chọn chế độ "List" trong Screaming Frog, bạn có thể nhấp vào "Select File" để chọn File văn bản của bạn Sau đó dẫn đến những file văn bản đầu tiên bạn muốn sử dụng Screaming Frog sẽ đọc các file và preview các URL nó sẽ phân tích Nhấn OK 5 Bộ lọc tùy chỉnh Bạn có thể nghĩ ngay... vẫn còn link đến trang web của bạn, và theo dõi với chúng Bạn cần phải làm đi làm lại quá trình này nhiều lần Xin chúc mừng, bạn đã hoàn thành việc kiểmtracác liên kết Cập nhập worksheet và tiếp tục loạibỏ Bây giờ bạn đã nhận được thông tin phản hồi ngay lập tức từ ScreamingFrog về những liên kết này được thực sựloại bỏ, và đến lúc bạn phải cập nhật bảng tính Hãy tổ chức worksheet một cách rõ... ở DeepCrawl là thu thập thông tin rất hiệu quả Ngoài ra, vì DeepCrawl dựa trên mô hình đám mây, tôi có thể tùy chỉnh các thiết lập để thu thập dữ liệu, lập bảng biểu Sau đó, DeepCrawl sẽ gửi email cho tôi khi việc thu thập dữ liệu đã được hoàn thành Dưới đây là một ảnh chụp màn hình của bộ lọc "Extraction", bạn có thể áp dụng cho DeepCrawl Bạn có thể nhập một biểu thức chính quy (RegEx) để áp dụng. .. cố gắng và loạibỏcáclink đó bằng cách thủ công Kiểmtra page kĩ hơn với DeepCrawl Như tôi đã đề cập ở trên, có một số trang web với những liên kết vô cùng tinh vi và phức tạp Ví dụ, có một số trang web tôi đã phân tích với hàng trăm hàng ngàn các liên kết spam (hoặc hơn) Đối với tình huống như thế này, danh sách các liên kết không tự nhiên có thể làm ScreamingFrog hoạt động chậm lại và phải phân... dụng cho mỗi trang được thu thập thông tin Và tương tự như Screaming Frog, bạn có thể tải lên file tin văn bản của URL để thu thập thông tin Nhưng vì DeepCrawl là dựa trên mô hình đám mây, nên một số lượng lớn các url vẫn được DeepCrawl thu thập và phân tích một cách nhanh chóng hiệu quả Tóm tắt: Đối phó với Penguin là một việc khó khăn, đặc biệt là trường hợp khi bạn có hàng chục ngàn các liên kết... giao diện ScreamingFrog Đó là nơi các url phù hợp với bộ lọc tùy chỉnh sẽ hiển thị 7 Xuất kết quả Sau khi bạn đã thu thập thông tin của từng trang để biết link trang đó còn tồn tại không, bạn có thể dễ dàng nhìn thấy được những link nào vẫn còn hoạt đông được cho ra bởiScreamingFrog Sau đó, bạn có thể dễ dàng xuất kết quả vào một tập tin csv, và có thể được mở file đó trong Excel Xem xét các url... dàng hơn nếu bạn tổ chức chúng theo loại Ví dụ, bạn có thể có một worksheet cho các danh bạ, một cho các comment spam, một cho các bài viết trên web… Điều đó sẽ giữ cho việc thu thập thông tin chặt chẽ hơn so với việc cố gắng để thu thập thông tin tất cả cáclink cùng một lúc 3 Khởi động ScreamingFrog Bây giờ bạn đã có file văn bản, hãy khởi đông Khởi động ScreamingFrog và chọn "Mode" từ tab menu trên .
Sử dụng Screaming Frog hoặc
Deep Crawl kiểm tra các link bị
loại bỏ bởi Penguin
Kỹ sư Matt Cutts của Google đã thông báo rằng Penguin 2.0. công cụ từ chối backlink và khẳng định rằng bạn có
thể sử dụng Frog Screaming để kiểm tra việc loại bỏ các
trang (nếu trang web chứa các liên kết spam