Chrome 的開發者工具中,你可以模擬 Googlebot 或其他搜尋引擎爬蟲的網頁抓取情況。以下是具體步驟:
F12
或右鍵點擊網頁選擇「檢查」。3.檢查頁面顯示和回應:
robots.txt
限制,可能會看到特定爬蟲無法訪問某些頁面。yourdomain.com/robots.txt
,查看網站的 robots.txt 設定,檢查是否有任何爬蟲被阻擋的設定。假設如果 robots.txt
文件內只有這行:
User-agent: *
robots.txt
的基本結構是指定哪些爬蟲可以或不能訪問特定的頁面或資料夾。例如:User-agent: *
即可(如您現在的情況)。Disallow
規則,例如:User-agent: *上述設定表示所有爬蟲都禁止訪問
Disallow: /private/
/private/
路徑。