close

搜尋引擎最佳化(Search Engine Optimization,簡稱SEO

又稱為搜尋引擎優化,是一種透過了解搜尋引擎的運作規則來調整網站,以期提高目的網站在有關搜尋引擎內排名的方式。由於不少研究發現,搜尋引擎的用戶往往只會留意搜尋結果最前面的幾個條目,所以不少網站都希望透過各種形式來影響搜尋引擎的排序,讓自己的網站可以有優秀的搜尋排名。當中尤以各種依靠廣告維生的網站為甚。

所謂「針對搜尋引擎作最佳化的處理」,是指為了要讓網站更容易被搜尋引擎接受。搜尋引擎會將網站彼此間的內容做一些相關性的資料比對,然後再由瀏覽器將這些內容以最快速且接近最完整的方式,呈現給搜尋者。搜尋引擎優化就是通過搜尋引擎的規則進行優化,為用戶打造更好的用戶體驗,最終的目的就是做好用戶體驗 。

對於任何一個網站來說,要想在網站推廣中取得成功,搜尋引擎優化都是至為關鍵的一項任務。同時,隨著搜尋引擎不斷變換它們的搜尋排名演算法規則,每次演算法上的改變都會讓一些排名很好的網站在一夜之間名落孫山,而失去排名的直接後果就是失去了網站原生的可觀存取流量。所以每次搜尋引擎算演法的改變都會在網站之中引起不小的騷動和焦慮。可以說,搜尋引擎優化是一個愈來愈複雜的任務。

早期搜尋引擎

網站管理員以及網路內容提供者在90年代中期開始使用搜尋引擎來優化網站。此時第一代搜尋引擎開始對網際網路分門別類。一開始,所有網站管理員得做的事只有提交所屬網站到各家搜尋引擎。這些引擎跑一些蜘蛛機器人(spider)──擷取於網頁程式中找到連至其他網頁的超連結──並且儲存所找到的資料。過程中同時包含了將網頁下載並儲存至搜尋引擎擁有者的伺服器中,這時有另外一個軟體稱為Indexer來擷取頁面中不同的資訊——頁面中的文字、文字的位置、文字的重要性以及頁面所包含的任何連結,之後將頁面置入清單中等待過些時日後,再來擷取一次。隨著線上檔案數目日積月累,越來越多網站員意識到自然搜尋 organic search 條目的重要性,所以較普及的搜尋引擎公司開始整理他們的清單,以顯示最恰當適合的網頁為優先。搜尋引擎與網站管理員的戰爭就此開始,並延續至今。

一開始搜尋引擎是被網站管理員本身牽著走的。早期版本的搜尋演算法有賴於網站員提供資訊,如關鍵字的基本定義標籤(meta tag)。當某些網站員開始濫用標籤,造成該網頁排名與連結無關時,搜尋引擎開始捨棄標籤並發展更複雜的排名演算法。由於數繁不及備載,僅列舉數個分析目標如下:

在標題簽裡的文字,如 <h1>引擎</h1>

網域名稱,如 wikipedia.org

統一資源定位符下屬的目錄與檔名,如 http://zh.wikipedia.org/wiki/Seo

關鍵字密度

關鍵字接近度,如 '軟盤、軟碟' '硬盤、硬碟'

圖形連結的 Alt 屬性,如 <img src=".../powerby_mediawiki_88x31.png" alt="MediaWiki" />

但是經過多年的搜尋引擎演算法的調整,現在較重要的影響標籤為:

<title>

<meta>

<h1>

<img>中的 alt屬性

由於這些都還在網站人員的眼皮下打滾,搜尋引擎陸陸續續碰到諸多濫用與操縱排名等難題。為了要提供較好的結果給使用者,搜尋引擎必須調適到讓他們的搜尋結果表現出最適當的結果,而非某些不道德的網路員產生的、只有塞滿關鍵字的無用網頁。由此,新種類的搜尋引擎應運而生。

 

當代搜尋引擎

Google由兩名在史丹佛大學深造的博士生拉里·佩奇(Larry Page 和謝爾蓋·布林(Sergey Brin)開始。他們帶來了一個給網頁評估的新概念,稱為「網頁級別」 PageRank),是Google搜尋引擎演算法[1]重要的開端。網頁級別十分倚賴導入連結(incoming link),並利用這種每個導入某網頁的連結相當於給該網頁價值投一票的理論建立起邏輯系統。越多導入連結意味著該網頁越有「價值」。而每個導入連結本身價值直接根據該連結從何而來的網頁級別,以及相反的該頁導出連結 outgoing link

在網頁級別幫助下,Google 在服務相關的結果上證明它相當優異。Google 成為了最普遍和最成功的搜尋引擎。由於網頁級別度量了站點外因子, Google 感到它會比頁內因子難以動手腳。

然而網站員們已經開發出對付Inktomi搜尋引擎的鏈結操作工具和計劃。這些方法證明對Google 演算法一樣管用。許多站集中於交換、買賣大量連結。隨著網站員尋求獲取連結只單單要影響Google送更多流量給該站,而不管是否對站點訪客有用否這種行為增加,網頁級別對原始演算法的信賴度漸漸被破壞了。

此時,是Google 和其它查尋引擎對廣大範圍的站外因子仔細檢視的時候。開發更加聰明的演算法有其他原因。網際網路已經膨脹到擁有非技術的廣大族群。他們經常無法使用先進的提問技術來取得資訊;而且他們得面對比起發展早期更龐大資料、更複雜的索引。搜尋引擎必須開發具備預測性、語義性、語言性和啟發性演算法。

目前,網頁級別的縮小版仍然被顯示在Google 工具條上,不過網頁級別只不過是Google考慮在網頁分級時超過100個因素裡中的一個。 

今天,大多數搜尋引擎對它們的如何評等的演算法保持秘密。搜尋引擎也許使用上百因素在排列目錄;每個因素本身和因素所佔比重可能不斷的在改變。

 

大部分當代搜尋引擎優化的思路──哪些有效、哪些沒效──這些很大部分在於觀察與根據內線訊息來的猜測。某些優化員得執行控制下的實驗以取得不同優化方法的結果。

 ----------------------------------------------------------------

儘管如此,以下是搜尋引擎發展它們演算法時的一些考慮,這份Google專利清單[2]也許可讓讀者可猜出他們會走哪條路線:

站點的年齡

自該網域註冊後過多久

內容的年齡

新內容增加的規律性

連結的年齡,連接站點的名譽和其相關程度

一般站內因素

負面站內因素 (例如,太多關鍵字匯標(meta tag),很顯然被優化過,會對站點造成傷害)

內容的獨特性

使用於內容的相關術語 (搜尋引擎關聯到的術語的方式視同如何關聯到網頁的主要內容)

Google網頁級別 (只被使用在Google 的演算法)

外在連結、外部連結的連結文字、在那些和在站點/網頁包含的那些連結

引證和研究來源(表明內容是研究性質)

在搜尋引擎資料庫裡列舉的詞根與其相關的術語(如 finance/financing

導入的逆向連結,以及該連結的文字

一些導入連結的負面計分 (或許那些來自低價值頁、被交換的逆向連結等)

逆向連結取得速率:太多太快意味著「不自然」的連結購買活動

圍繞在導出連結、導入的逆向連結周圍的文字。例如一個連結如果被 "Sponsored Links" (贊助商連結)包圍,該連結可能會被忽略。

"rel=nofollow" 建議搜尋引擎忽略該連結

在站點該檔案的結構深度

從其他資源收集的網格表,譬如監視當搜尋結果導參照戶到某頁後,用戶有多頻繁按瀏覽器的返回鈕

從來源像:Google AdWords/AdSenseGoogle 工具條等程式收集的網格表

從第三方資料分享協議收集的網格資料 (譬如監測站點流量的統計程式提供商)

刪除導入連結的速率

使用子網域、在子網使用關鍵字和內容品質等等,以及從這些活動來的負面計分

和主檔案語意上的連結

檔案增加或改動的速率

主機服務商 IP 和該 IP 旗下其它站點的數量/品質

其他連結站會員 link farm / link affiliation 與被連結的站 (他們分享IP? 有一個共同的郵遞位址在"聯絡我們 Contact Us" 頁嗎?

技術細節像利用301重新導向被移除的網頁、對不存在網頁顯示404伺服器標頭而非200伺服器標頭、適當的利用 robots.txt

主機服務商正常運行時間

是否站點對不同類的用戶顯示不同的內容(稱為「掩飾」(cloaking))

未及時矯正、無效的導出的連結

不安全或非法內容

HTML代碼品質,以及錯誤出現數

由搜尋引擎自他們搜尋結果觀察到的實際點擊通過率評等

由最常存取搜尋結果的人手動評等

-------------------------------------------------------------------------------------------------------------------

搜尋引擎優化和搜尋引擎之間關係

1997年,搜尋引擎體認到,網站管理員會努力的讓自己的網站擁有較好的搜尋排名,甚至於會將不相關的關鍵字塞在網頁中,用來欺騙搜尋引擎以得到較好的搜尋排名。早期搜尋引擎, 譬如AltavistaINFOSEEK,就開始調整搜尋演算法以避免受到人為的操弄。於2005 年召開的AirWeb年會,就希望打實務與研究者聚集起來,共同討論關於搜尋引擎優化等相關議題。

如果過度的操作搜尋引擎優化,可能會導致操作的網站被搜尋引擎封鎖。在2005年,華爾街日報就曾經報導Traffic Power公司[3],據說使用高風險的方式,並且沒有讓客戶了解這些操作的風險。Wired網站則報導了這家公司對部落客提起告訴,只因為提及該公司被取締的事件[4]Google 的克特斯 Matt Cutts 稍後確認Google 確實取締了Traffic Power以其他們的客戶群[5]

某些搜尋引擎對搜尋引擎優化產業提供了援助,而且是常常是優化會議和研討會的贊助商和來訪貴賓。所有主要搜尋引擎都提供資訊/指南以協助站點優化: Google[6] Yahoo [7] MSN[8]Google提供了Sitemaps 程式[9]幫助網站員學習如果Google 有任何問題檢索他們的網站時該如何做,並且提供Google流量與您網站關係間無價的豐富資料。雅虎的Ambassador Program[10] GoogleAdvertising Professionals[11] 提供專家級的認證。

搜尋引擎入手[編輯]新站點不需要"提交"到搜尋引擎才能登記上市。一個來自於以建立好的、其他站點的簡單鏈結就會讓搜尋引擎拜訪新站點,並且開始『爬』過該站內容。它可能得花幾天甚或幾週從這樣一個已建立站點取得連結,並使所有主要搜尋引擎開始拜訪並索引新站點。

一旦搜尋引擎發現了新站點,它一般將拜訪和開始索引該站,直到所有標準的 <a href> 超連結被鏈結的頁索引到為止。只能透過FlashJavaScript才能拜訪的鏈結可能不會被蜘蛛機器人找到。

當搜尋引擎的蜘蛛機器人爬過一個站點時會取決相當數量的不同因子,並且該站的許多頁可能不會被索引到除非它們網頁級別、連結、或流量增加到一個程度。從站點的根目錄到該頁的距離,以及其它比重考量,也許也是決定是否該頁得到檢索的因素。Cho et al.Cho et al. 1998 [12] 描述了哪些頁會被拜訪、哪些會收入搜尋引擎索引的決定標準。

網站員可透過在網域根目錄裡標準robots.txt檔案指示蜘蛛機器人不索引某些檔案或目錄。標準的實現要求是搜尋引擎在拜訪這個網域時參考這個檔案,雖然搜尋引擎的蜘蛛機器人當它拜訪某站點網頁時將保留這個檔案的快取拷貝,並且更新速度沒像網站員那麼快。網站發展人員可能使用這個特性防止某些頁,譬如購物車或其它動態、特定使用者的內容出現在搜尋引擎結果中,並且防止機器人進入死循環和其它機器人陷阱。

對於某些有償提交的查尋引擎(像雅虎),支付象徵性費用提交也許會節省一些時間,雖然雅虎有償提交方案不保證提交人/公司包括在他們的查尋結果中。中文的搜狐和新浪ask等需要支付一定費用,但免費的非商業網站可以提供,當然搜尋引擎方並不保證一定收錄相應的網站。

--------------------------------------------------------------

白帽方法

搜尋引擎優化的白帽法包括遵循搜尋引擎哪些可接受哪些不能接受的指導方針。他們的建議一般是為用戶創造內容,而非搜尋引擎、是讓這些內容易於被蜘蛛機器人索引、並且不嘗試對搜尋引擎系統耍花招。網站員經常於設計或構建他們的網站時,犯下致命錯誤、疏忽「毒害」該站以致排名不會很好。白帽法優化員企圖發現並糾正錯誤,譬如機器無法讀取的選單、無效鏈接、臨時改變導向、或粗劣的導引結構。

 

因為搜尋引擎是以文字為中心,許多有助於網頁親和力的同樣手段同樣便利於搜尋引擎優化。這些方法包括最佳化圖形內容、包括ALT 屬性、和增加文字說明。甚至Flash動畫可於設計該頁時包括替代性內容──這本來用來給訪客無法閱讀Flash的環境用的──來幫助優化。

 -----------------------------------------------------------------------

這裡是一些搜尋引擎認為適當的方法:

在每頁使用一個短、獨特和相關的標題。

編輯網頁,用與該頁的主題。有關的具體術語替換隱晦的字眼。這有助於該站訴求的觀眾群,在搜尋引擎上搜尋而被正確導引至該站。

在該站點增加相當數量的原創內容。

使用合理大小、準確描述的匯標,而不過度使用關鍵字、驚嘆號、或不相關標題術語。

確認所有頁可透過正常的鏈結來存取,而非只能透過Java JavaScriptAdobe Flash應用程式存取。這可透過使用一個專屬列出該站所有內容的網頁達成(網站地圖)

透過自然方式開發鏈結:Google不花功夫在這有點混淆不清的指南上。寫封電子信件給網站員,告訴他:您剛剛貼了一篇挺好的文章,並且請求鏈接,這種做法很可能為搜尋引擎所認可。

參與其他網站的網路集團(譯按:web ring 指的是有相同主題的結盟站群)──只要其它網站是獨立的、分享同樣題目和可比較的品質。

-------------------------------------------------------------------------------------------

黑帽方法

主條目:垃圾索引、斗蓬法和付費連結

垃圾索引(Spamdexing)意指透過欺騙技術和濫用搜尋演算法來推銷毫不相關、主要以商業為著眼的網頁。許多搜尋引擎管理員認為任何搜尋引擎優化的形式,其目的用來改進網站的頁排名者,都是垃圾索引。然而,隨時間流逝,業界內公眾輿論發展出哪些是哪些不是可接受的、促進某站的搜尋引擎排名與流量結果的手段。

因為搜尋引擎以高度自動化的方式運作,網站員通常可以利用某些未被搜尋引擎認可的手段、方法來促進排名。這些方法經常未被注意,除非搜尋引擎雇員親臨該站點並注意到不尋常活動、或在排名演算法上的某個小變化導致站點丟失以過去方式取得的高排名。有時某些公司雇用優化顧問評估競爭者的站點、和"不道德的" 優化方法向搜尋引擎報告。

當這些不好的垃圾索引被發現時, 搜尋引擎也許會對那些被發現使用不道德的優化手段者採取行動。在2006 2月,Google拿掉了BMW 德國站和Ricoh 德國站,因為他們用了這些方法[13][13]

斗蓬法(cloaking)簡單來講就是網站站長用了兩版不同的網頁來達到最佳化的效果。一個版本只給搜尋引擎看,一個版本給人看。搜尋引擎說這種做法是不正規,如發現,該網站會永遠從搜尋引擎名單中被剔除[14]。但是對於如AJAX所撰寫的動態網頁,Google也有提出名為HTML Sanpshot的作法,以方便搜尋引擎進行收錄[15]

關鍵字隱密字 hidden text with keyword stuffing)是另外一欺騙搜尋引擎的做法。通常是指設定關鍵字的顏色和網頁背景顏色一樣,或透過 css hidden attribute (隱密特性) 來達到優化效果。這種做法一旦被Google發現,遭遇也會是該網站從Google的資料庫中除名[16]

橋頁(doorway pages)也叫門頁,是通常是用軟體自動生成大量包含關鍵詞的網頁,然後從這些網頁做自動轉向到首頁。目的是希望這些以不同關鍵詞為目標的橋頁在搜尋引擎中得到好的排名。當用戶點擊搜尋結果的時候,會自動轉到首頁。有的時候是在橋頁上放上一個通往首頁的鏈接,而不自動轉向首頁。

付費連結(paid link) 是利用支付費用方式要求其他網站提供連結至自身網站,藉此偽裝高信任網站來欺騙搜尋引擎,付費連結類型多為錨點文字(Anchor Text)類型,Google的品質方針也明確指出以金錢交換的連結將可能對網站造成負面影響[17]

--------------------------------------------------------------------------------------------

法律案例

2002 年, 搜尋引擎操作者SearchKing在俄克拉何馬法院提出了訴訟,反對搜尋引擎GoogleSearchKing的要求是, Google防止垃圾索引的手段形成了一條不公正的商業慣例。這也許可想像為垃圾電子信件營銷者控告反垃圾電子信件者,如同許多反對地圖以及其他DNS黑洞表(DNSBL)的案例。20031月,法院發布了一個Google勝訴的判決摘要[18]

------------------------------------------------------------------------------------------------------

高品質網站通常可以獲得優秀的搜尋排名

對許多有心於最大化網站附加價值的網站管理員們,可閱讀由搜尋引擎出版的、以及W3C發行的編碼指南。如果遵循該指南,站點經常地更新,有用、原創的內容,和建立幾個實用、有意義的導入鏈接,獲得相當可觀數目的基本搜尋流量不是甚麼難事。

當站點擁有有用的內容,其它站點員自然而然會連結至該站,進而增加訪客它的網頁級別和訪客流。當訪客發現一個有用的網站,他們傾向於利用電子信件或者及時訊息連結介紹給其它訪客。

總括來說,增進網站品質的搜尋引擎優化實現很可能比直接尋找操控搜尋排名手段的短期實現要活得長久。頂尖的搜尋引擎優化員們找尋的目標與搜尋引擎追求發揚光大的東西二者不約而同。他們是:相關性、對他們用戶有用的內容。

 http://zh.wikipedia.org/wiki/%E6%90%9C%E5%B0%8B%E5%BC%95%E6%93%8E%E6%9C%80%E4%BD%B3%E5%8C%96

 

arrow
arrow
    全站熱搜

    cdrc 發表在 痞客邦 留言(0) 人氣()