<來自chatGPT的教學&實際處理紀錄>
這周一開始就發現網頁在google搜尋清單出現了不屬於自己網頁的內容,直接加重星期一症候群的症狀。
因為有可能是有SEO中毒,加上清查程式也需要時間,因此先從google爬蟲的部分止血,先讓google搜尋顯示不再出現不屬於自己網頁的可疑內容。
步驟1>>在google搜尋[site:網址]確認入侵狀況
SEO中毒的話,google搜尋結果會很可怕,但不管再可怕也先不要關掉頁面。
步驟2>>在網站根目錄建立robots.txt文件,阻止google繼續爬出不正確的網頁內容
可以的話用程式(比如PHP)動態產生會比較好,但應急的話就先從那些可疑的網址開始建立黑名單,這個部分可以請chatGPT協助建立,可以節省很多時間
另外也可以用這個網站檢查robots.txt內的指令是否正確:https://technicalseo.com/tools/robots-txt/
步驟3>>登入Google Search Console移除在[步驟一]看到的所有不正確網址
就算之前沒有建立網站的GSC也沒關係,只要建立完成且驗證成功後就可以馬上使用移除網址的功能。
移除需要時間,但只要順利成功的話就可以擋下SEO出現奇怪的內容,不過這只是緩兵之計,後續還是要請工程師清理程式中的病毒,並且提升防護避免再次發生類似情形。
網站修復後的改善措施
>>用程式動態產生robots.txt,降低之後被駭客竄改的可能
>>在GSC提交乾淨的網站地圖
ꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛꔛ
只是想筆記下來讓自己記得有發生過這樣的事情,但再也不想要遇到任何中毒了😣
11.28更新:經過一天觀察,確定用robots.txt是可以擋下google抓取不正確的網址的,如果時間急迫但工程師分身乏術時,可以先用這個方法增加修復時間。