建網站后影響網頁收錄的一些因素
作者:佚名 時間:2012-02-14 分享到:
網頁收錄問題是SEO中普遍存在的問題,而網站中網頁收錄量可以為除自身外的其他網頁提供相關性很好的內部鏈接,網站收錄方面的文章博客中也寫過一些。
- 如何提高網站收錄量
- 百度收錄與敏感詞匯
- 新站網站收錄問題
- 網頁性能優化
搜索引擎爬蟲程序進入網頁的方式是通過鏈接,抓取網頁鏈接的方式是廣度和深度,但從自身服務器的資源消耗來看,一般會考慮廣度優先策略。
對于搜索引擎來講,自身服務器中不會存在很多對于用戶意義不大的網頁內容,首先這樣可以降低自身服務器資源的占用,另外對于搜索結果的用戶體驗,也有很大的幫助,所以,一些被大量轉載的文章就算抓取成功(網頁日志中的200代碼),也會在預處理階段被過濾。
有了以上的了解,那么,我們找到一些影響網頁收錄的因素:
鏈接邏輯結構對網頁收錄的影響
經常會談到網頁結構,利于SEO的網頁結構是扁平的樹形網狀結構,其中的邏輯結構在很大程度上會給網頁收錄造成影響,在物理結構上,無論我們的URL層數有多少,有多深,如果在較淺的URL(網頁)上面能夠能夠獲取較深的URL網頁,同樣是可以被收錄的,很多大型門戶的URL相對都比較深,但其收錄都不會收到影響,有所了解的是騰訊,非常典型的作法就是網站地圖。很多網站谷歌收錄的非常好(包括該博客),除了谷歌對網頁質量的判斷相對寬泛外,它還支持直接提交地圖文章,一般是在谷歌網站站長工具中提交或者將地圖文件放在robots.txt文件中用Sitemap命令來調用,當谷歌搜索引擎在抓取 robots.txt 文件的時候,會檢測到其中的地圖引用。以前對百度不清楚,就目前來看,百度同樣可以檢測到Sitemap命令中的地圖引用。
除了robots.txt文件,我們可以在網頁上放置地圖文件,一般是將整個網站的重要目錄和更新文件放入其中,這樣便于對新網頁的收錄。
上面主要是從搜索引擎廣度策略來建立良好的網頁收錄方式,同樣深度策略我們同樣不能忽視。
對于網頁中的鏈接,除了良好的內部鏈接可以促進爬蟲去抓取這些網頁外,構造不同緯度的鏈接同等重要。
內容對網頁收錄的影響
每個搜索引擎在處理網頁的過程中都會消耗自身的服務器資源,對于大量轉載的網頁,過濾掉這些網頁可以很大程度上節約資源用于其他,所以網頁質量對于網頁收錄來講,非常重要而且是基礎,搜索引擎在內容質量的判斷上,谷歌明顯由于百度,而百度所提到的內容增益的確是有利與用戶體驗,但最基本的版權維護應該高于所謂的內容增益。
我們為了應對這樣的過濾機制,偽原創變得非常好使,這樣可以讓網頁正常收錄。在沒有原創文章思路的基礎上,這樣的操作方式還是值得去嘗試,但有時候要好好偽一篇文章,往往比寫原創還浪費時間,如果沒有原創寫作思路,那就偽原創吧,不過要多了解搜索處理網頁的原理,不然辛辛苦苦偽原創結果還是被過濾掉了。
對于網頁大小方面,還是適當考慮下,搜索引擎方面認為,內容太少的網頁可能帶給用戶的信息非常少,如果內容夠多,那么,可能會給用戶帶來非常豐富的信息。如果不能寫太多的內容,我們可以適當利用相關鏈接或用戶行為來構造網頁內容,最常見的做法是文章底部出現相關鏈接,每篇文章下面有評論或回復功能,這些方式也能為網頁增加不少內容,對收錄也是很有幫助的。