報道公司事件 · 傳播行業動態
做新網站的優化絕對是對站長的考驗,因為與正常網站不同,新網站會出現各種問題,特別是沒有外鏈、沒有權重、沒有排名、沒有內鏈,而且新網站收錄非常慢,如果前期長時間新網站不被搜索引擎收錄,非常打擊站長的自尊心。其實很有可能是有幾個方面沒有做好。
1、對新網站心理預期太高
一個新網站如同一張白紙,沒有內外鏈、沒有排名、沒有權重,更沒有人愿意換友鏈。如果站長對新網站期望太高的話,要求網站提升權重,短時間內會有排名、pv量的標準,但是新網站見效慢,這樣會打擊站長的積極性。站長要知道,排名低只是暫時的,只要一直保持增長的良好狀態,好排名不是問題。
2、對robots.txt文件設置有問題
robots.txt文件全稱是“網絡爬蟲排除標準”,也稱為爬蟲協議、機器人協議等,robots.txt是搜索引擎中訪問網站的時候要查看的第一個文件??梢哉frobots.txt文件是非常關鍵的,搜索蜘蛛最先訪問來判斷下一步訪問內容,如果有,蜘蛛就會按照該文件中的內容來確定訪問的范圍,如果沒有的話,搜索蜘蛛將能訪問網站上所有沒有被口令保護的頁面。
有一個詞不知道站長有沒有聽過“沙盒效應”, 通常我們網站建設完成之后,百度開始對網站進行更新收錄的時候,網站便開始進入了百度的考察階段,而這個考察階段就稱為“沙盒期”。 當然還有其他的情況也會讓網站陷入沙盒期,比如頻繁改動關鍵詞或者源碼,網站突增大量外鏈,內容均是采集,或者依靠作弊手段等,都會讓網站進入百度沙盒。一般最開始網站上線時就會遇到沙盒效應。這是需要在robots.txt文件中設置限制搜索引擎抓取,我們要對網站進行內部優化,更新高質量的原創文章。當度過了網站沙盒期,站長開放robots.txt文件,允許所有搜索引擎的爬蟲爬行抓取網站文章和頁面,會收錄越來越多的內容。另外需要注意一點的是,每天定時定量的給網站更新高質量的原創內容。一定要是原創,在前期將基礎打好,網站容易升級。
還有一個最有技術含量的做法是,新網站要主動去搜索引擎提交網站接口,把主域名提交各個搜索引擎,有目標的進行抓取。另外還要留意網站服務器是否穩定,網站訪問速度和網站架構代碼怎么樣。有任何變化及時作出調整。