網站robots.txt文件的安全設置

大家都知道robots.txt文件,能限制搜索引擎可以抓取哪些內容,不準抓取哪些內容。比如我們網站的后臺就不希望被搜索抓取,那么robots文件需要這樣寫:

User-agent: *
Disallow: /dede/

但是,如果有人要破解網站的話,通過robots文件很容易就知道了后臺地址,清楚了網站的結構。這對網站安全造成了威脅,我們并不希望這樣!下面有兩種方法解決這個問題

一、使用通符(*)

User-agent: *
Disallow: /d*/

這種的寫法是禁止所有的搜索引擎抓取根目錄下d開頭的目錄。那么,當你的后臺是dede5的時候,還有誰會猜得到呢?

二、只寫前幾個字母

User-agent: *
Disallow: /de/

這樣寫是禁止所有的搜索引擎抓取根目錄下de開頭的目錄。如果你的其他欄目有de開頭的,你就要在robots.txt文件里面多寫一個字母。

THE END
亚洲中文色欧另类欧美,久久久久久久激情,亚洲 日韩 欧美 另类 国产,中文字幕高清无码男人的天堂 www.sucaiwu.net