Chủ Nhật, 3 tháng 1, 2016

Những lỗi vô tình ảnh hưởng đến SEO

"Không cho phép toàn bộ những quy tắc sở hữu vẻ như chấp nhận được cho API bởi vì bạn mang thể không mong đợi Google lập chỉ mục hay chuyên dụng cho dữ liệu từ API. Tuy nhiên, dùng kết hợp có những trang AJAX, GoogleBot không có khả năng render những trang vì nó ngăn chặn GoogleBot truy cập AJAX URL định tuyến cụ thể."
Những lỗi vô tình ảnh hưởng đến SEO
mua lại 1 tên miền qua chuyển nhượng, triển khai Bootstrap CSS, sử dụng robots.txt… nghe vẻ là những hành động “vô tội”, ko mang tác hại gì. Tuy nhiên, trên thực tế, chúng sở hữu thể sẽ là những nguyên nhân gây ra tai họa cho seo của bạn. đó là 1 vài trong phổ biến yếu tố sở hữu vẻ như bình thường nhưng lại là những vấn đề thực sự có tác động đáng nói đến một số dự án seo. Và sự thực là giải pháp cho chúng chẳng phải dễ dàng sở hữu thể chọn kiếm trên Google…

các thủ thuất seo bẩn của đối thủ mang website bạn

Những thủ thuất seo bẩn của đối thủ với web bạn Dos là một hình thức tấn công từ chối dịch vụ mà những hacker hay dùng nhất, hiểu một bí quyết đơn giản thì kẻ gian sẽ tiêu dùng một máy khách gửi nhiều truy vấn cộng lúc đến máy chủ, làm cho máy chủ bị quá tải làm người mua khác ko truy cập được. DDos là hình thức biến tướng của Dos, thay vì tiêu dùng một thì hacker sử tiêu dùng đa dạng máy khách để gửi truy vấn cùng lúc, hậu quả thì tương tự nhưng cách giải quyết lại khó hơn nhiều. mang Dos, bạn chỉ buộc phải chặn IP của máy khách “phá hoại” là được, nhưng tròng DDos mang hàng trăm, hàng nghìn liên hệ IP khác nhau phải rất khó kiểm soát. Nhưng DDos thì liên quan gì đến thủ thuận seo “chơi bẩn”?

5 điều tưởng chừng “vô tội” với thể là tai họa cho tối ưu hóa

có bắt buộc trang website của bạn đã bị gán cho là Pure Spam? Đây là 1 “bản án tử hình” đối mang bất kỳ tìm mọi cách seo nào mà bạn đang làm. Trang web của bạn sở hữu thể thậm chí sẽ không được liệt kê trên SERP của Google ở bất kỳ đâu. Để kiểm tra xem trang website của bạn mang vấn đề gì không, thêm trang website của bạn và toàn bộ các biến thể của nó (ví dụ như lammarketing.vn hay http://lammarketing.vn…) tới Công cụquản trị trang website của Google và đọc tab “Manual Actions”.
Những lỗi vô tình ảnh hưởng đến SEO
1 số hành động sở hữu vẻ diễn ra một bí quyết “vô tội” với thể làm cho Google phân chiếc trang website của bạn như là một trang spam tác vụ thủ công hay không?

1. sắm lại một tên miền qua chuyển nhượng:

ví như tên miền bạn sắm lại đã bị đánh dấu là spam tác vụ thủ công từ đầu, trước lúc chuyển đến tay bạn, nó sẽ khó có thể thay đổi. Do đây là một hành động sử dụng, nó không tự động được gỡ bỏ sau khi chuyển đổi sở hữu.
Giải pháp cho bạn là gì? Hãy xác minh rằng những tên miền cũ từng là spam bằng bí quyết dùng Wayback Machine, sau ấy gửi bắt buộc xem xét lại và nhớ là hãy tỏ ra lịch sự.
Hãy nhớ rằng: Trước lúc triển khai trang website, bạn bắt buộc thêm những lĩnh vực để Google Webmaster Tools để giải quyết nó thứ nhất, giảm thiểu sự rắc rối sau này.
tiêu dùng một CDN sai mang thể phủ nhận tất cả các phấn đấu seo
Bạn sở hữu hình dung việc sử dụng một mạng cung cấp nội dung (CDN, ví dụ như Amazon CloundFont, CloudFlare…) để triển khai các trang web hoặc ứng dụng AJAX của bạn (bộ công cụ cho phép tăng tốc độ ứng dụng web bằng bí quyết cắt nhỏ dữ liệu và chỉ hiển thị các gì cần thiết)? đó là 1 trong các điều mà thông thường người mới sẽ khiến như vậy – họ dùng cách AJAAX của Jquery và AWS CloudFont và làm rộng rãi cấu hình sai. Điều này cuối cùng sẽ khiến hoạt động của họ trên 3 tháng kém hiệu quả trên công cụ tìm kiếm Google.

2. sử dụng CSS để ẩn nội dung:

1 trong những người dùng của chúng tôi đã thiết kế website với hầu hết nội dung điền sẵn trong trang website chiếc thử nghiệm của họ. Trước lúc chuyển sang công khai, họ đã áp dụng Boostrap CSS ẩn đa số nội dung mà họ sẽ dành cho khoảng thời gian sau ấy. Điều này cũng tương đương sở hữu sử dụng:
Display: none;
Điều này làm 70% những mã trên trang index, làm từ khóa trở thành hồn loạn và không với cơ chế nào nói cả tự động hay thủ công để làm cho nội dung hiển thị mang khách hàng cuối cộng.
Hãy nhớ rằng: Nội dung ẩn với CSS chỉ cần được thực hiện nếu nội dung sẽ được nhìn thấy bằng cách nào đấy, dù là qua hành động của quý khách hoặc một kích hoạt tự động. trường hợp ko làm được điều này, hãy xem xét lại hoặc loại bỏ nó hoàn toàn.

3. ko chuyển tiếp Query Strings

các phương pháp phân mảnh thoát cho việc sản xuất nội dung để tìm kiếm thu thập thông tin có định dạng như sau:
http://example.com/?escaped_fragment=key=value
những chuỗi theo sau escaped_fragment đại diện cho ứng dụng AJAX. hoàn hảo nhất, mỗi 1 động thái, AJAX load trang cần mang một ứng dụng AJAX tổng quan tương ứng. Google có đa số các thông số công nghệ được viết ra.
Để chọn tham gia vào chương trình thu thập dữ liệu AJAX này, quản trị web phải đặt dong mã này trong mã của mỗi trang:
Thiết lập mặc định của một CDN có thể không chuyển tiếp những chuỗi truy vấn để cải thiện hiệu suất bộ nhớ đệm. Thật không may, điều này cũng có nghĩa là ví như bạn đang sử dụng chương trình thu thập dữ liệu AJAX này, các CDN ko đáp ứng đúng escaped_fragment_phần URL biến đổi chuyển tới Google và ko ai trong AJAX của bạn sẽ nhận lại được kết xuất.
Không chuyển tiếp Query Strings
Hãy nhớ rằng: trường hợp trang website của bạn tiêu dùng các escaped_fragment_chương trình thu thập dữ liệu AJAX, hãy chất lượng CDN chuyển tiếp trong chuỗi truy vấn của bạn.

Phân loại những dạng SPAM GOOGLE và khắc phục.

Phân loại các dạng SPAM GOOGLE và khắc phục. ngày nay với rất nhiều website đang gặp vấn đề, theo chọn hiểu của Tôi thì quá trình quyét SPAM của Google bắt đầu từ 15/2 trên thế giới. Bắt đầu đem ngày 25/2 thì lần lượt các website ở Việt Nam bắt đầu nhận được các thông báo cảnh bảo cực kỳ nặng từ Google, thậm chi là phạt chúng. Để tiện dụng và cho toàn bộ người hiểu rõ, Tôi sẽ dựa vào những dạng SPAM của Google phân phối, và cố gắng mô tả để từ đây bạn mang thể xem lại chính web của mình. Và lúc bị phạt sẽ phân biệt được lý do mình bị Google phạt SPAM. Và mang cách xử lý ưng ý và hiệu quả.

4. không chuyển tiếp đến User-Agent

Kết xuất dựa trên kiểm tra chuỗi User-Agent trong các tiêu đề HTTP để lúc tìm kiếm, nếu công cụ tìm kiếm thông tin sẽ dùng cho thông tin, ngay cả các người mà ko render Javascript cũng vẫn có thể nhận được nội dung. Luựa tìm thông thường sẽ được tiêu dùng là Prerender.io, trong đấy tiêu dùng PhantomJS/CasperJS/ZombieJS.
một chuỗi User-agent sẽ trông như thế nào? 1 chiếc gì đấy của Google sẽ sở hữu dạng như sau:
“Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
Thiết lập những mặc định của một CDN có thể không thông qua trên chuỗi User-agent trong những tiêu đề. Điều này sẽ làm cho các cố gắng xuất trước của bạn hoàn toàn bị đảo lộn bởi máy chủ của bạn có thể sẽ ko biết rằng ấy là 1 công đoạn thu thập chọn kiếm để truy cập vào trang web của bạn. vì vậy sẽ ko phục vụ cho một trang kết xuất lại.
Không chuyển tiếp đến User-Agent
Hãy nhớ rằng: giả dụ bạn lựa chọn ko cho phép tái kết xuất các trang Javacript, hãy kiên cố CDN của bạn phù hợp trên User-agent.
Robots.txt có thể là cơn ác mộng tồi tệ nhất của bạn
Nó sở hữu thể là cơn ác mộng tồi tệ nhất của bạn bởi vì trông nó với vẻ vô cùng “ngây thơ” mà bạn thực sự ít để ý tới sẽ xảy ra vấn đề nào khác. 1 trong các người mua của chúng tôi đã bắt buộc vật lộn với điều này suốt 1 tháng trước lúc chọn kiếm sự giúp đỡ.

Giải pháp khi web bị google đưa vào spam

Giải pháp khi web bị google đưa vào spam bí quyết đây không lâu, sau lúc Google quyết liệt hơn trong việc rà xoát tất cả web thì không ít website của đa số người đều bị phạt ” Spam tác vụ thủ công “. các site nhẹ sẽ nhận được cảnh báo, các site nặng hơn sẽ bị chiếc khỏi kết quả của Google. Google sẽ đưa chúng vào dạng sanbox để theo dõi, và dấu hiệu nhận biết là cho dù bạn gõ tên miền của mình vào ô tìm kiếm trên Google. Bạn cũng ko thể chọn thấy chính web của mình.

5. ko chấp nhận cho mọi các URL trên API của bạn

cách cuối cộng là chuyên dụng cho Javascript cho phép các trang dựa trên các công cụ tìm kiếm hỗ trợ Javascript, điều này là dễ nhất để thực hiện ngay cả khi trang web của bạn tiêu dùng AJAX.
các bạn này đã có 2 URL – exampale.com và api.example.com, với các API hệ thống AJAX URL phân định. Tuy nhiên, họ đã sở hữu trong robots.txt trên api.example:
User-agent: *Disallow: /
ko cho phép những quy tắc thường được tiêu dùng để ngăn chặn các công cụ tìm kiếm lập chỉ mục các phần cụ thể của 1 trang web.
không cho phép mọi các quy tắc sở hữu vẻ như chấp nhận được cho API bởi vì bạn sở hữu thể không mong đợi Google lập chỉ mục hay chuyên dụng cho dữ liệu từ API. Tuy nhiên, tiêu dùng hài hòa sở hữu các trang AJAX, GoogleBot ko sở hữu khả năng render các trang vì nó ngăn chặn GoogleBot truy cập AJAX URL định tuyến cụ thể.
Kết quả là đa số các trang AJAX đã kích hoạt không được tải cho GoogleBot, và không sở hữu gì nhận được lập chỉ mục.
Hãy nhớ rằng: giả dụ API của bạn dùng cho Url định tuyến, đừng bao giờ chặn nó trên robots.txt.
Tóm tắt:
1. Ẩn nội dung với CSS chỉ buộc phải được thực hiện giả dụ nội dung sẽ được nhìn thấy bằng phương pháp nào đó, dù qua hành động của khách hàng hoặc một kích hoạt tự động. giả dụ nó không xảy ra, sửa lại mã code hoặc mẫu bỏ nó hoàn toàn.
2. khi mua lại tên miền hãy thêm nó vào Google Webmaster Tools càng sớm càng tốt.
3. trường hợp bạn đã từng nghi ngờ về liệu Javascript hay AJAX có kết xuất chính xác, “truy xuất như Google” là điều tốt nhất cho bạn.

0 nhận xét:

Đăng nhận xét

Share

Twitter Delicious Facebook Digg Stumbleupon Favorites More