谷歌SEO – 2019年需要注意些什麼?

Photo of author
Written By CMO

Google SEO 2019重要更新
Google SEO 2019重要更新

2019年快過去四分之三。谷歌在今年進行了多次重要更新,對於SEO來說有哪些注意點?HubSpot One本文將略作總結。

抓取和索引

谷歌抓取渲染和索引的能力隨著其WRS版本與Chomium同步有了質的飛躍。其方式也從兩波索引(Two-wave Index)變為了更高效的近乎同步的方式。

兩波索引被更高效的方式(幾乎同步)取代
兩波索引被更高效的方式(幾乎同步)取代

在這個Processing的過程中,HTML與渲染後的頁面進行比較。請注意這雖然極大地增強了谷歌爬蟲獲取由JavaScript生成的內容的能力,爬蟲依舊無法進行人類的一些行為,比如點擊、翻頁、滾動。因此依賴這些行為載入的內容依舊對搜索引擎不可見。

GSC(Google Search Console)更新

9月9日,谷歌正式告別舊的Google Search Console。大部分的新功能都被整合到了新版本中。對於那些還未完全整合的部分功能,你可以在左側的“舊版工具和報告”菜單中找到。

這裡值得注意的是現在驗證新的站點可以更加方便。

DNS賦能新驗證方式
DNS賦能新驗證方式

不管是HTTP還是HTTPS,不管是哪個子域名你都可以通過驗證DNS來一攬子驗證。這為一些使用子域名部署多網站的網站管理員提供了許多便利。這一功能經過一段時間的測試已經向所有站長開放。

robots.txt更新

谷歌在7月,與robots.txt之父Martijn Koster一道重寫編寫了robots.txt規範,把許多之前模棱兩可的規則確定了下來。新標準見:(https://www.ietf.org/standards/)。其中包括了一些重要更新:

  1. 作用不僅限於http,也作用於ftp協議等其他協議。
  2. robots.txt單一文件大小上限為500KB。
  3. 爬蟲要最多給服務器24小時的緩存時間避免過多請求robots.txt。
  4. 如果robots.txt由於一些原因訪問不到,之前版本規定的不可爬行的地址將在很長一段時間依舊禁止爬取。
有哪些谷歌未告訴你的robots.txt陷阱?
有哪些谷歌未告訴你的robots.txt陷阱?

筆者在TechnicalSEO.com的一篇新文章中也指出了robots.txt中一些陷阱,連谷歌也沒有說清楚。比如:disallow: /folder/ 和disallow: /folder/* 有什麼區別,為什麼不一樣?再如對/page.html來說,allow: /page*和disallow: /*html會不會把它禁封?如果你是高級SEO,感興趣的話推薦閱讀。

rel = “ugc”和rel = “sponsored”

上周谷歌又官方宣布了引入兩個新的鏈接屬性來補充誕生15年之久的rel = “nofollow”。

UGC和SPONSORED屬性總結
UGC和SPONSORED屬性總結(MOZ)

此舉是為了谷歌更好地理解哪些鏈接被nofollow是因為是用戶產生的鏈接(有操縱外鏈嫌疑),哪些是讚助或廣告產生的鏈接。

谷歌並不建議站長更新自己的nofollow鏈接。說不定就像分頁指引那樣,一旦谷歌機器學習到一定程度就不再使用。

最後要注意的是,nofollow指引並不能阻止頁面被發現或者被索引,甚至它還有可能被用作排名的“提示”。

Lazy Load,EAT,總結

HubSpot One在之前的文章介紹了圖片原生懶加載在Chrome 76中實裝,現在Chrome已經到了77。谷歌也為WordPress做了一個Native Lazyload的插件,可惜該插件用了一個佔位圖片。對像Google那樣的其他搜索引擎沒用,不推薦安裝。

谷歌官方對網頁內容質量的評分維度是EAT,即Expertise,Authoritativeness和Trustworthiness。在文章的最後,請關注谷歌9月5日更新的《搜索質量評分指南》,SERoundtable可以下載完整的pdf版本。