激情五月天在线一区,中文字幕欧美中日韩精品,国产午夜免费视频秋霞久久,亚洲欧美国产欧美色欲,国产全肉乱妇杂乱视频,免费大片一级a一级久久,国产一区二区18禁观看,日本人妻专区一区二区三区 http://www.vanhostingweb.com 分享技術(shù),共同進(jìn)步 Tue, 15 Dec 2020 06:53:24 +0000 zh-Hans hourly 1 網(wǎng)站robots.txt文件的安全設(shè)置 http://www.vanhostingweb.com/2603.html http://www.vanhostingweb.com/2603.html#respond Wed, 03 Apr 2019 03:34:06 +0000 http://www.vanhostingweb.com/?p=2603 大家都知道robots.txt文件,能限制搜索引擎可以抓取哪些內(nèi)容,不準(zhǔn)抓取哪些內(nèi)容。比如我們網(wǎng)站的后臺就不希望被搜索抓取,那么robots文件需要這樣寫:

User-agent: *
Disallow: /dede/

但是,如果有人要破解網(wǎng)站的話,通過robots文件很容易就知道了后臺地址,清楚了網(wǎng)站的結(jié)構(gòu)。這對網(wǎng)站安全造成了威脅,我們并不希望這樣!下面有兩種方法解決這個問題

一、使用通符(*)

User-agent: *
Disallow: /d*/

這種的寫法是禁止所有的搜索引擎抓取根目錄下d開頭的目錄。那么,當(dāng)你的后臺是dede5的時候,還有誰會猜得到呢?

二、只寫前幾個字母

User-agent: *
Disallow: /de/

這樣寫是禁止所有的搜索引擎抓取根目錄下de開頭的目錄。如果你的其他欄目有de開頭的,你就要在robots.txt文件里面多寫一個字母。

]]>
http://www.vanhostingweb.com/2603.html/feed 0
亚洲中文色欧另类欧美,久久久久久久激情,亚洲 日韩 欧美 另类 国产,中文字幕高清无码男人的天堂 www.sucaiwu.net