㈠ 如何防止我的網站不被黑客篡改
為了避免由於網頁被篡改而帶來嚴重的危害,應該優先考慮做好技術防範工作,阻止網頁被篡改或將危害降到最低,主要可採取以下技術手段:
1)為伺服器升級最新的安全補丁程序:補丁包含操作系統、應用程序、資料庫等,都需要打上最新的安全補丁,這個步驟是非常必要的,因為是程序內部的問題,是安全產品難以替代的,主要是為了防止緩沖溢出和設計缺陷等攻擊。
2)封閉未用但開放的網路服務埠以及未使用的服務:
對於Windows server 2003操作系統,推薦使用TCP/IP篩選器,可以配合Windows server 2003系統防火牆,當然也可以通過操作比較復雜的IP安全策略來實現;
對於Linux操作系統,可以用自帶的IPTable防火牆。
一般用戶伺服器上架前,會為用戶伺服器做好伺服器埠封閉以及關閉不使用的服務,但不排除部分維護人員為了簡便日常維護工作而開啟,本工作是一個非常簡單的任務,但會大大降低伺服器被入侵的可能性,請務必實施。
3)設置復雜的管理員密碼:無論是系統管理員、資料庫管理員,還是FTP及網站管理員的密碼,都務必要設置為復雜密碼,原則如下:
不少於8位;至少包含有字母大寫、字母小寫和數字及特殊字元(@#!$%^&()等);不要明顯的規律。
4)合理設計網站程序並編寫安全代碼:網站目錄設計上盡可能將只需要讀許可權的腳本和需要有寫許可權的目錄單獨放置,盡量不要採用第三方不明開發插件,將網站的程序名字按照一定的規律進行命名以便識別;編寫代碼過程重要注意對輸入串進行約束,過濾可能產生攻擊的字元串,需要許可權的頁面要加上身份驗證代碼。
5)設置合適的網站許可權:
網站許可權設置包括為每個網站創建一個專屬的訪問用戶和網站目錄文件的許可權;網站目錄文件許可權設置原則是:只給需要寫入的目錄以寫的許可權,其它全為只讀許可權;
6)防止ARP欺騙的發生:
安裝arp防火牆,並手動綁定網關mac地址。
手動綁定網關mac地址,網關mac地址,可以通過arp命令來查詢。
(二)、必要的管理制度和應急處理措施
上文重點從技術的角度分析了最有效解決網頁被篡改的安全方案,即我們首先應該把精力投入到做好防護工作上去,盡可能做到不讓黑客劫持我們的網路、不讓黑客入侵到我們的伺服器中去,自然也就解決了網頁被篡改的問題,但是作為不備之策,我們仍然強調必須做好以下幾個方面的工作:
1)網站數據備份:我們必須做好數據備份工作,因為無論是黑客入侵、硬體故障等問題都可導致數據丟失,但我們可以用備份盡快的恢復業務,所以一定製訂好持續的數據備份方案。
2)安全管理制度:任何技術手段的實施,如:打安全補丁、網站許可權設置、復雜的密碼、防火牆規則等,都需要人來進行完成,若沒有良好的制度來指導和管理,那麼一切都將是空話,因此,制訂好一套行之有效的制度,並配備相關的實施人員,把技術手段貫徹下去是非常必要的。
3)應急處理措施:即便是再好的技術和管理,也不能保證攻擊事件不會發生,因此我們要時刻做好網頁被篡改的准備,准備好相應的檢查、記錄和恢復工具,准備好規范的應急步驟,一旦發生,以便有條不紊的盡快予以恢復,並進行記錄和總結,必要的可保護現場並進行報案等處理。
㈡ 如何讓兩個網頁不串聯
你可以嘗試一下對瀏覽器進行重置,看看會不會有效果。可以到→工具」-→Internet選項」-→高級」選項卡,找到→重置」選項,把瀏覽器重置一遍,不行就重新安裝一次瀏覽器。如果以上辦法均無法解決你的問題,那可以嘗試通過Windows還原功能,還原到以前沒有出問題的時間點。如果再不行,那隻能建議你重新安裝操作系統了。
㈢ 多帳號開網頁不串頁的方法
一、網路設置的問題
這種原因比較多出現在需要手動指定IP、網關、DNS伺服器聯網方式下,及使用代理伺服器上網的。仔細檢查計算機的網路設置。
二、DNS伺服器的問題
當IE無法瀏覽網頁時,可先嘗試用IP地址來訪問,如果可以訪問,那麼應該是DNS的問題,造成DNS的問題可能是連網時獲取DNS出錯或DNS伺服器本身問題,這時你可以手動指定DNS服務(地址可以是你當地ISP提供的DNS伺服器地址,也可以用其它地方可正常使用DNS伺服器地址。)在網路的屬性里進行,(控制面板—網路和拔號連接—本地連接—右鍵屬性—TCP/IP協議—屬性—使用下面的DNS伺服器地址)。不同的ISP有不同的DNS地址。有時候則是路由器或網卡的問題,無法與ISP的DNS服務連接,這種情況的話,可把路由器關一會再開,或者重新設置路由器。
還有一種可能,是本地DNS緩存出現了問題。為了提高網站訪問速度,系統會自動將已經訪問過並獲取IP地址的網站存入本地的DNS緩存里,一旦再對這個網站進行訪問,則不再通過DNS伺服器而直接從本地DNS緩存取出該網站的IP地址進行訪問。所以,如果本地DNS緩存出現了問題,會導致網站無法訪問。可以在「運行」中執行ipconfig /flushdns來重建本地DNS緩存。
三、IE瀏覽器本身的問題
當IE瀏覽器本身出現故障時,自然會影響到瀏覽了;或者IE被惡意修改破壞也會導致無法瀏覽網頁。這時可以嘗試用「IE修復」來修復(建議到安全模式下修復),或者重新IE(如重裝IE遇到無法重新的問題,可參考:附一解決無法重裝IE)
四、網路防火牆的問題
如果網路防火牆設置不當,如安全等級過高、不小心把IE放進了阻止訪問列表、錯誤的防火牆策略等,可嘗試檢查策略、降低防火牆安全等級或直接關掉試試是否恢復正常。
五、網路協議和網卡驅動的問題
IE無法瀏覽,有可能是網路協議(特別是TCP/IP協議)或網卡驅動損壞導致,可嘗試重新網卡驅動和網路協議。
六、HOSTS文件的問題
HOSTS文件被修改,也會導致瀏覽的不正常,解決方法當然是清空HOSTS文件里的內容。
七、系統文件的問題
當與IE有關的系統文件被更換或損壞時,會影響到IE正常的使用,這時可使用SFC命令修復一下,WIN98系統可在「運行」中執行SFC,然後執行掃描;WIN2000/XP/2003則在「運行」中執行sfc /scannow嘗試修復。
其中當只有IE無法瀏覽網頁,而QQ可以上時,則往往由於winsock.dll、wsock32.dll或wsock.vxd(VXD只在WIN9X系統下存在)等文件損壞或丟失造成,Winsock是構成TCP/IP協議的重要組成部分,一般要重裝TCP/IP協議。但xp開始集成TCP/IP協議,所以不能像98那樣簡單卸載後重裝,可以使用 netsh 命令重置 TCP/IP協議,使其恢復到初次安裝操作系統時的狀態。具體操作如下:
點擊「開始 運行」,在運行對話框中輸入「CMD」命令,彈出命令提示符窗口,接著輸入「netsh int ip reset c:\resetlog.txt」命令後會回車即可,其中「resetlog.txt」文件是用來記錄命令執行結果的日誌文件,該參數選項必須指定,這里指定的日誌文件的完整路徑是「c:\resetlog.txt。執行此命令後的結果與刪除並重新安裝 TCP/IP 協議的效果相同。
小提示:netsh命令是一個基於命令行的腳本編寫工具,你可以使用此命令配置和監視Windows 系統,此外它還提供了互動式網路外殼程序介面,netsh命令的使用格式請參看幫助文件(在令提示符窗口中輸入「netsh/?」即可)。
第二個解決方法是修復以上文件,WIN9X使用SFC重新提取以上文件,WIN2000/XP/2003使用sfc /scannow命令修復文件,當用sfc /scannow無法修復時,可試試網上發布的專門針對這個問題的修復工具WinSockFix,可以在網上搜索下載。
八、Application Management服務的問題
出現只能上QQ不能開網頁的情況,重新啟動後就好了。不過就算重新啟動,開7到8個網頁後又不能開網頁了,只能上QQ。有時電信往往會讓你禁用Application Management服務,就能解決了。具體原因不明。
九、感染了病毒所致
這種情況往往表現在打開IE時,在IE界面的左下框里提示:正在打開網頁,但老半天沒響應。在任務管理器里查看進程,(進入方法,把滑鼠放在任務欄上,按右鍵—任務管理器—進程)看看CPU的佔用率如何,如果是100%,可以肯定,是感染了病毒,這時你想運行其他程序簡直就是受罪。這就要查查是哪個進程貪婪地佔用了CPU資源.找到後,最好把名稱記錄下來,然後點擊結束,如果不能結束,則要啟動到安全模式下把該東東刪除,還要進入注冊表裡,(方法:開始—運行,輸入regedit)在注冊表對話框里,點編輯—查找,輸入那個程序名,找到後,點滑鼠右鍵刪除,然後再進行幾次的搜索,往往能徹底刪除干凈。
有很多的病毒,殺毒軟體無能為力時,唯一的方法就是手動刪除。
十、無法打開二級鏈接
還有一種現象也需特別留意:就是能打開網站的首頁,但不能打開二級鏈接,如果是這樣,處理的方法是重新注冊如下的DLL文件:
在開始—運行里
---------------------------------------------------------------
原因是由於某種不明病毒感染XP系統的應用層網關服務(Application Layer Gateway Service)導致,在病毒感染之後,該服務會在每次系統啟動時自動啟動,並在後台產生一個alg.exe的進程,只要手動關閉該應用層網關服務,然後重啟系統,即可解決該問題,具體操作步驟如下:
1、單擊「控制面板」
2、單擊「性能和維護」
3、單擊「管理工具」
4、雙擊「服務」圖標
5、雙擊第二項「Application Layer Gateway Service」服務項
6、在啟動類型中選擇已禁用
7、單擊「應用」
8、單擊「停止」
9、單擊「確定」
10、重啟操作系統即可。
㈣ 如何防止/檢測自己的網站內容被篡改
為了避免由於網頁被篡改而帶來嚴重的危害,應該優先考慮做好技術防範工作,阻止網頁被篡改或將危害降到最低,主要可採取以下技術手段:
1)為伺服器升級最新的安全補丁程序:補丁包含操作系統、應用程序、資料庫等,都需要打上最新的安全補丁,這個步驟是非常必要的,因為是程序內部的問題,是安全產品難以替代的,主要是為了防止緩沖溢出和設計缺陷等攻擊。
2)封閉未用但開放的網路服務埠以及未使用的服務:
對於Windows server 2003操作系統,推薦使用TCP/IP篩選器,可以配合Windows server 2003系統防火牆,當然也可以通過操作比較復雜的IP安全策略來實現;
對於Linux操作系統,可以用自帶的IPTable防火牆。
一般用戶伺服器上架前,會為用戶伺服器做好伺服器埠封閉以及關閉不使用的服務,但不排除部分維護人員為了簡便日常維護工作而開啟,本工作是一個非常簡單的任務,但會大大降低伺服器被入侵的可能性,請務必實施。
3)設置復雜的管理員密碼:無論是系統管理員、資料庫管理員,還是FTP及網站管理員的密碼,都務必要設置為復雜密碼,原則如下:
不少於8位;至少包含有字母大寫、字母小寫和數字及特殊字元(@#!$%^&()等);不要明顯的規律。
4)合理設計網站程序並編寫安全代碼:網站目錄設計上盡可能將只需要讀許可權的腳本和需要有寫許可權的目錄單獨放置,盡量不要採用第三方不明開發插件,將網站的程序名字按照一定的規律進行命名以便識別;編寫代碼過程重要注意對輸入串進行約束,過濾可能產生攻擊的字元串,需要許可權的頁面要加上身份驗證代碼。
5)設置合適的網站許可權:
網站許可權設置包括為每個網站創建一個專屬的訪問用戶和網站目錄文件的許可權;網站目錄文件許可權設置原則是:只給需要寫入的目錄以寫的許可權,其它全為只讀許可權;
6)防止ARP欺騙的發生:
安裝arp防火牆,並手動綁定網關mac地址。
手動綁定網關mac地址,網關mac地址,可以通過arp命令來查詢。
(二)、必要的管理制度和應急處理措施
上文重點從技術的角度分析了最有效解決網頁被篡改的安全方案,即我們首先應該把精力投入到做好防護工作上去,盡可能做到不讓黑客劫持我們的網路、不讓黑客入侵到我們的伺服器中去,自然也就解決了網頁被篡改的問題,但是作為不備之策,我們仍然強調必須做好以下幾個方面的工作:
1)網站數據備份:我們必須做好數據備份工作,因為無論是黑客入侵、硬體故障等問題都可導致數據丟失,但我們可以用備份盡快的恢復業務,所以一定製訂好持續的數據備份方案。
2)安全管理制度:任何技術手段的實施,如:打安全補丁、網站許可權設置、復雜的密碼、防火牆規則等,都需要人來進行完成,若沒有良好的制度來指導和管理,那麼一切都將是空話,因此,制訂好一套行之有效的制度,並配備相關的實施人員,把技術手段貫徹下去是非常必要的。
3)應急處理措施:即便是再好的技術和管理,也不能保證攻擊事件不會發生,因此我們要時刻做好網頁被篡改的准備,准備好相應的檢查、記錄和恢復工具,准備好規范的應急步驟,一旦發生,以便有條不紊的盡快予以恢復,並進行記錄和總結,必要的可保護現場並進行報案等處理。
㈤ 如何防止網站首頁被篡改
為了避免由於網頁被篡改而帶來嚴重的危害,應該優先考慮做好技術防範工作,阻止網頁被篡改或將危害降到最低,主要可採取以下技術手段: 1)為伺服器升級最新的安全補丁程序:補丁包含操作系統、應用程序、資料庫等,都需要打上最新的安全補丁,這個步驟是非常必要的,因為是程序內部的問題,是安全產品難以替代的,主要是為了防止緩沖溢出和設計缺陷等攻擊。 2)封閉未用但開放的網路服務埠以及未使用的服務: 對於Windows server 2003操作系統,推薦使用TCP/IP篩選器,可以配合Windows server 2003系統防火牆,當然也可以通過操作比較復雜的IP安全策略來實現; 對於Linux操作系統,可以用自帶的IPTable防火牆。 一般用戶伺服器上架前,會為用戶伺服器做好伺服器埠封閉以及關閉不使用的服務,但不排除部分維護人員為了簡便日常維護工作而開啟,本工作是一個非常簡單的任務,但會大大降低伺服器被入侵的可能性,請務必實施。 3)設置復雜的管理員密碼:無論是系統管理員、資料庫管理員,還是FTP及網站管理員的密碼,都務必要設置為復雜密碼,原則如下: 不少於8位;至少包含有字母大寫、字母小寫和數字及特殊字元(@#!$%^&()等);不要明顯的規律。 4)合理設計網站程序並編寫安全代碼:網站目錄設計上盡可能將只需要讀許可權的腳本和需要有寫許可權的目錄單獨放置,盡量不要採用第三方不明開發插件,將網站的程序名字按照一定的規律進行命名以便識別;編寫代碼過程重要注意對輸入串進行約束,過濾可能產生攻擊的字元串,需要許可權的頁面要加上身份驗證代碼。 5)設置合適的網站許可權: 網站許可權設置包括為每個網站創建一個專屬的訪問用戶和網站目錄文件的許可權;網站目錄文件許可權設置原則是:只給需要寫入的目錄以寫的許可權,其它全為只讀許可權; 6)防止ARP欺騙的發生: 安裝arp防火牆,並手動綁定網關mac地址。 手動綁定網關mac地址,網關mac地址,可以通過arp命令來查詢。 (二)、必要的管理制度和應急處理措施 上文重點從技術的角度分析了最有效解決網頁被篡改的安全方案,即我們首先應該把精力投入到做好防護工作上去,盡可能做到不讓黑客劫持我們的網路、不讓黑客入侵到我們的伺服器中去,自然也就解決了網頁被篡改的問題,但是作為不備之策,我們仍然強調必須做好以下幾個方面的工作: 1)網站數據備份:我們必須做好數據備份工作,因為無論是黑客入侵、硬體故障等問題都可導致數據丟失,但我們可以用備份盡快的恢復業務,所以一定製訂好持續的數據備份方案。 2)安全管理制度:任何技術手段的實施,如:打安全補丁、網站許可權設置、復雜的密碼、防火牆規則等,都需要人來進行完成,若沒有良好的制度來指導和管理,那麼一切都將是空話,因此,制訂好一套行之有效的制度,並配備相關的實施人員,把技術手段貫徹下去是非常必要的。 3)應急處理措施:即便是再好的技術和管理,也不能保證攻擊事件不會發生,因此我們要時刻做好網頁被篡改的准備,准備好相應的檢查、記錄和恢復工具,准備好規范的應急步驟,一旦發生,以便有條不紊的盡快予以恢復,並進行記錄和總結,必要的可保護現場並進行報案等處理。
㈥ 如何防止網站被爬蟲爬取的幾種辦法
相較於爬蟲技術,反爬蟲實際上更復雜。目前許多互聯網企業都會花大力氣進行「反爬蟲」,網路爬蟲不但會占據過多的網站流量,導致有真正需求的用戶沒法進入網站,另外也有可能會導致網站關鍵數據的外泄等現象。網路爬蟲遍布互聯網的各個角落,因此網路爬蟲有好處也有壞處,接下來介紹一下和網路爬蟲一同誕生的反爬蟲技術,如何才能防止別人爬取自己的網站?
1、基於程序本身去防止爬取:作為爬蟲程序,爬取行為是對頁面的源文件爬取,如爬取靜態頁面的html代碼,可以用jquery去模仿寫html,這種方法偽裝的頁面就很難被爬取了,不過這種方法對程序員的要求很高。
2、基於iptables和shell腳本:可以對nginx的access.log進行策略定義,例如定義在1分鍾內並發連接數超過30個ip為非法,如ip不在白名單內,則加入iptables策略封掉,當然這種的缺點是會有「誤傷」,策略細粒度越小就會有更多的「誤傷」,細粒度大就會使效果變差,另外還有類似的第三方工具fail2ban,利用做filter和actor對一些有危害的操作記錄或是封ip。但是對於某個特定的爬蟲地址(例如網易、有道)的爬取行為拒絕也很難准確做到,因為你無法准確知道這些特定的爬蟲ip地址。注意:建議不要用封ip條目的方式,iptables列表長度是65535時就會封滿,伺服器也就會死機。
3.使用robots.txt文件:例如阻止所有的爬蟲爬取,但是這種效果不是很明顯。
User-agent: *
Disallow: /
4.使用nginx的自帶功能:通過對httpuseragent阻塞來實現,包括GET/POST方式的請求,以nginx為例,具體步驟如下:
編輯nginx.conf
拒絕以wget方式的httpuseragent,增加如下內容
## Block http user agent - wget ##
if ($http_user_agent ~* (Wget) ) {
return 403;
}
## Block Software download user agents ##
if ($http_user_agent ~* LWP::Simple|BBBike|wget) {
return 403;
平滑啟動
# /usr/local/nginx/sbin/nginx -s reload
如何拒絕多種httpuseragent,內容如下:
if ($http_user_agent ~ (agent1|agent2|Foo|Wget|Catall Spider|AcoiRobot) ) {
return 403;
}
大小寫敏感匹配
### 大小寫敏感http user agent拒絕###
if ($http_user_agent ~ (Catall Spider|AcoiRobot) ) {
return 403;
}
### 大小寫不敏感http user agent拒絕###
if ($http_user_agent ~* (foo|bar) ) {
return 403;
}
注意語法:~*表示是大小寫不敏感,~表示是大小寫敏感
}
以上就是預防網站信息被別人爬取的一些方法,大量的爬取行為會對web伺服器的性能有影響,所以一定要注重反爬蟲措施。
㈦ 怎樣防止網站被其它網站盜鏈
網站圖像防盜----Apache配置妙法 每個網站所有者都在盡力美化自己的網站,使它看上去更酷、更具有吸引力,其中最常見的方法就是使用圖片、Logo及Flash等。但是,這也會帶來一個問題,因為越漂亮、越吸引人的網站,漂亮的圖片和Flash等就容易被別的網站悄悄的盜用。下面我們就一起討論如何防止網站圖像被盜用。
需要解決的問題
簡單的說,這里有兩種不同的盜用行為:
1. 使用HTML標記IMG在自己的網站中引用網站的圖片。
2. 從網站上下載圖片,然後放在自己的網站上。
對於第一種的盜用行為,合法網站的圖片被用來美化裝飾其它網站,這種盜用對合法網站的損害比較大,因為訪問非法網站的訪問者其實是從合法網站獲取圖片的,合法網站的日誌文件充滿了訪問請求記錄,並且帶寬被非法訪問消耗,而合法網站卻沒有得到任何好處。這種類型的盜用通過技術手段完全可以被防止。
第二種類型的盜用相對來說比較陰險,瀏覽者在非法網站直接訪問非法的圖片,而合法網站的版權受到侵害,卻得不到賠償,甚至無法發現這種盜用。因為Web的工作方式對這種類型的盜用實際上無法被阻止,但是可以使得這種盜用更加困難。
完全杜絕這兩種盜用行為是不現實的,但是通過技術手段可以使得這種盜用非常困難。在Apache環境下,通過配置可以限制網站圖片被盜用。
標識需要保護的文件
作為網站管理員,最大的希望就是能夠保護網站上所有文檔,但是從技術角度考慮這種想法是不現實的,因此我們這里只討論對圖片文件的保護。
作為保護的第一步,首先需要標識出需要保護的文件,然後才能進一步對被標識的文件進行保護。在Apache配置文件中添加如下內容:
<FilesMatch "\.(gif|jpg)"> [這里添加保護限制命令]</FilesMatch>
將容器命令包含在或等容器中,或者單獨列出,不處於任何保護容器中,這樣就會對網站所有文件進行保護,甚至可以存放在.htaccess文件。將該容器放在不同的位置,保護的范圍機會有所不同。
Referer HTTP頭欄位
當用戶訪問Web伺服器請求一個頁面時,用戶瀏覽器發送的HTTP請求中會有一個被稱為HTTP請求頭(HTTP Request Header)的信息,這個頭信息中包含客戶請求的一些信息,例如發出請求客戶主機的瀏覽器版本、用戶語言、用戶操作系統平台、用戶請求的文檔名等,這些信息以變數名/變數值的方式被傳輸。
在這些信息中,Referer欄位對於實現防止圖片盜用非常重要。Referer欄位指定客戶端最後一個頁面的URL地址。例如,如果用戶訪問頁面A,然後點擊在頁面A上到頁面B的鏈接,訪問頁面B的HTTP請求會包括一個Referer欄位,該欄位會包括這樣的信息「這個請求是來自於頁面A」。如果一個請求不是來自於某個頁面,而是用戶通過直接在瀏覽器地址欄輸入頁面A的URL地址的方式來訪問頁面A,那麼在HTTP請求中則不會包括Referer欄位。這樣對於我們防止盜鏈有什麼幫助呢?Referer欄位是幫助判斷對圖像的請求是來自自己的頁面,還是來自其它網站。
使用SetEnvIf對圖像進行標記
作為一個簡單的例子,假設需要保護的網站的主頁面為http://my.apache.org,這時候希望限制所有不是源於本網站的網路訪問請求(例如只允許訪問包含在本網站頁面內的圖片)。這里可以使用一個環境變數作為一個標記,如果條件滿足時就設置該變數,如下所示:
SetEnvIfNoCase Referer "^http://my\.apache\.org/" local_ref=1
當Apache處理一個請求時,它會檢查HTTP請求頭中的Referer欄位,如果該請求來源於本網站(也就是請求頁面的URL為本網站域名),則設置環境變數local_ref為1。
在雙引號中的字元串是一個正則表達式,只有匹配該正則表達式,環境變數才會被設置。本文不討論如何使用正則表達式,這里只需要理解SetEnvIf*命令會使用正則表達式作為參數。
SetEnvIfNoCase命令的「NoCase」部分表示這里的正則表達式忽略大小寫,'http://my.apache.org/'、'http://My.Apache.Org/'或 'http://MY.APACHE.ORG/'都可以匹配條件。
在訪問控制中使用環境變數
Apache配置文件中的Order、Allow和Deny命令可以實現對文檔的基於環境變數的訪問控制,使用Order、Allow和Deny命令首先要考慮的是Allow和Deny命令的順序對於Apache處理結果的影響,應該以下面的方式使用:
Order Allow,Deny
這里表示Apache首先處理該HTTP請求相關的Allow命令,然後處理相關的Deny命令。這種處理方式的默認策略是Deny,所以除非有明確的允許的設置,否則該請求就會被拒絕,任何非法訪問將無法成功。
因此,在Apache的配置文件httpd.conf中添加如下命令,來實現本地引用發揮作用:
Order Allow,DenyAllow from env=local_ref
這樣只有在local_ref變數被定義的情況下,該請求才會被允許;否則其它所有請求和訪問將會被拒絕,因為這些請求不滿足Allow條件。
注意,請不要在.htaccess和httpd.conf中使用 容器命令,這里不需要該容器命令,除非有特殊的需求,例如希望Get請求和Post請求進行不同的處理。
把這些相關設置放在一起,在Apache的配置文件中就會有如下內容:
SetEnvIfNoCase Referer "^http://my\.apache\.org/" local_ref=1<FilesMatch "\.(gif|jpg)"> Order Allow,Deny Allow from env=local_ref</FilesMatch>
如上配置可以存放在伺服器配置文件httpd.conf中,或者存放在.htaccess文件中,最後的效果是一樣的:在這些命令作用的范圍內,只有從本網站引用的圖片才可以被訪問。
對圖片進行水印處理
上面介紹的方法並不能完全防止圖像盜鏈,這是因為有些執著的盜用者可以偽造Referer值來盜用圖片,使相關設置失效,所以不可能完全防止網站圖片被盜鏈,但是上面採取的措施會使得盜鏈變得很困難。
此外,還有一個防止圖片被盜用的方法,就是對網站的圖片都進行水印處理。對一個數字圖片進行水印處理是指在圖片中加入一個特殊的簽名編碼,並且可以進行驗證和檢測,數字水印並不會降低圖片的質量,甚至可以實現圖像被切割以後的剩餘部分仍然會包括水印信息。圖片被再次編輯、列印,並再次掃描以後,水印仍然可以被檢測到。因此,水印技術是一個非常好的保護圖片不被盜用的技術。
記錄盜用請求
如果想知道自己網站的藝術品是否被盜,可以嘗試使用同樣的偵測和環境變數來記錄可疑請求。例如,在httpd.conf文件中添加如下命令,那麼會在 /usr/local/web/apache/logs/poachers_log文件中記錄所有具有非法的Referer頭信息的訪問請求:
SetEnvIfNoCase Referer "!^http://my\.apache\.org/" not_local_ref=1SetEnvIfNoCase Request_URI "\.(gif|jpg)" is_image=1RewriteEngine OnRewriteCond ${ENV:not_local_ref} =1RewriteCond ${ENV:is_image} =1RewriteRule .* - [Last,Env=poach_attempt:1]CustomLog logs/poachers_log CLF env=poach_attempt
在上面代碼中,頭兩行為條件設置標記(也就是沒有正確的本地Referer的圖片文件),RewriteCond檢測是否該標記被設置,然後RewriteRule設置第三個標記,最後一行使得這樣的訪問請求被記錄在特定的文件中。
上面簡單介紹了在Apache環境下,如何通過配置來限制網站圖片被盜用的方法,拋磚引玉,希望大家將自己更好的經驗介紹出來。(T111)
轉自賽迪網-開放系統世界!
㈧ 網頁已打開就被串改怎麼辦
說明你打開的網頁被掛了木馬或者你自己的電腦就中了病毒
首先簡單點的辦法肯定是要裝個360之類的瀏覽器可以修復IE
還能鎖定主頁不被篡改
然後再殺病毒
重新裝機是個懶人不願意做但是比較徹底的辦法
㈨ 公司網站被經常串改頁面和劫持攻擊怎麼辦,有什麼辦法可以幫助解決
網站被篡改劫持是網站程序被黑客植入了劫持代碼導致的。
處理辦法也比較簡單:找出網頁中的劫持代碼,刪除即可。
但是這個只治標不治本,因為黑客下次還可以繼續植入劫持代碼。
部署護衛神·高級安全防護,一勞永逸的解決劫持問題。