㈠ 如何防止我的网站不被黑客篡改
为了避免由于网页被篡改而带来严重的危害,应该优先考虑做好技术防范工作,阻止网页被篡改或将危害降到最低,主要可采取以下技术手段:
1)为服务器升级最新的安全补丁程序:补丁包含操作系统、应用程序、数据库等,都需要打上最新的安全补丁,这个步骤是非常必要的,因为是程序内部的问题,是安全产品难以替代的,主要是为了防止缓冲溢出和设计缺陷等攻击。
2)封闭未用但开放的网络服务端口以及未使用的服务:
对于Windows server 2003操作系统,推荐使用TCP/IP筛选器,可以配合Windows server 2003系统防火墙,当然也可以通过操作比较复杂的IP安全策略来实现;
对于Linux操作系统,可以用自带的IPTable防火墙。
一般用户服务器上架前,会为用户服务器做好服务器端口封闭以及关闭不使用的服务,但不排除部分维护人员为了简便日常维护工作而开启,本工作是一个非常简单的任务,但会大大降低服务器被入侵的可能性,请务必实施。
3)设置复杂的管理员密码:无论是系统管理员、数据库管理员,还是FTP及网站管理员的密码,都务必要设置为复杂密码,原则如下:
不少于8位;至少包含有字母大写、字母小写和数字及特殊字符(@#!$%^&()等);不要明显的规律。
4)合理设计网站程序并编写安全代码:网站目录设计上尽可能将只需要读权限的脚本和需要有写权限的目录单独放置,尽量不要采用第三方不明开发插件,将网站的程序名字按照一定的规律进行命名以便识别;编写代码过程重要注意对输入串进行约束,过滤可能产生攻击的字符串,需要权限的页面要加上身份验证代码。
5)设置合适的网站权限:
网站权限设置包括为每个网站创建一个专属的访问用户和网站目录文件的权限;网站目录文件权限设置原则是:只给需要写入的目录以写的权限,其它全为只读权限;
6)防止ARP欺骗的发生:
安装arp防火墙,并手动绑定网关mac地址。
手动绑定网关mac地址,网关mac地址,可以通过arp命令来查询。
(二)、必要的管理制度和应急处理措施
上文重点从技术的角度分析了最有效解决网页被篡改的安全方案,即我们首先应该把精力投入到做好防护工作上去,尽可能做到不让黑客劫持我们的网络、不让黑客入侵到我们的服务器中去,自然也就解决了网页被篡改的问题,但是作为不备之策,我们仍然强调必须做好以下几个方面的工作:
1)网站数据备份:我们必须做好数据备份工作,因为无论是黑客入侵、硬件故障等问题都可导致数据丢失,但我们可以用备份尽快的恢复业务,所以一定制订好持续的数据备份方案。
2)安全管理制度:任何技术手段的实施,如:打安全补丁、网站权限设置、复杂的密码、防火墙规则等,都需要人来进行完成,若没有良好的制度来指导和管理,那么一切都将是空话,因此,制订好一套行之有效的制度,并配备相关的实施人员,把技术手段贯彻下去是非常必要的。
3)应急处理措施:即便是再好的技术和管理,也不能保证攻击事件不会发生,因此我们要时刻做好网页被篡改的准备,准备好相应的检查、记录和恢复工具,准备好规范的应急步骤,一旦发生,以便有条不紊的尽快予以恢复,并进行记录和总结,必要的可保护现场并进行报案等处理。
㈡ 如何让两个网页不串联
你可以尝试一下对浏览器进行重置,看看会不会有效果。可以到→工具”-→Internet选项”-→高级”选项卡,找到→重置”选项,把浏览器重置一遍,不行就重新安装一次浏览器。如果以上办法均无法解决你的问题,那可以尝试通过Windows还原功能,还原到以前没有出问题的时间点。如果再不行,那只能建议你重新安装操作系统了。
㈢ 多帐号开网页不串页的方法
一、网络设置的问题
这种原因比较多出现在需要手动指定IP、网关、DNS服务器联网方式下,及使用代理服务器上网的。仔细检查计算机的网络设置。
二、DNS服务器的问题
当IE无法浏览网页时,可先尝试用IP地址来访问,如果可以访问,那么应该是DNS的问题,造成DNS的问题可能是连网时获取DNS出错或DNS服务器本身问题,这时你可以手动指定DNS服务(地址可以是你当地ISP提供的DNS服务器地址,也可以用其它地方可正常使用DNS服务器地址。)在网络的属性里进行,(控制面板—网络和拔号连接—本地连接—右键属性—TCP/IP协议—属性—使用下面的DNS服务器地址)。不同的ISP有不同的DNS地址。有时候则是路由器或网卡的问题,无法与ISP的DNS服务连接,这种情况的话,可把路由器关一会再开,或者重新设置路由器。
还有一种可能,是本地DNS缓存出现了问题。为了提高网站访问速度,系统会自动将已经访问过并获取IP地址的网站存入本地的DNS缓存里,一旦再对这个网站进行访问,则不再通过DNS服务器而直接从本地DNS缓存取出该网站的IP地址进行访问。所以,如果本地DNS缓存出现了问题,会导致网站无法访问。可以在“运行”中执行ipconfig /flushdns来重建本地DNS缓存。
三、IE浏览器本身的问题
当IE浏览器本身出现故障时,自然会影响到浏览了;或者IE被恶意修改破坏也会导致无法浏览网页。这时可以尝试用“IE修复”来修复(建议到安全模式下修复),或者重新IE(如重装IE遇到无法重新的问题,可参考:附一解决无法重装IE)
四、网络防火墙的问题
如果网络防火墙设置不当,如安全等级过高、不小心把IE放进了阻止访问列表、错误的防火墙策略等,可尝试检查策略、降低防火墙安全等级或直接关掉试试是否恢复正常。
五、网络协议和网卡驱动的问题
IE无法浏览,有可能是网络协议(特别是TCP/IP协议)或网卡驱动损坏导致,可尝试重新网卡驱动和网络协议。
六、HOSTS文件的问题
HOSTS文件被修改,也会导致浏览的不正常,解决方法当然是清空HOSTS文件里的内容。
七、系统文件的问题
当与IE有关的系统文件被更换或损坏时,会影响到IE正常的使用,这时可使用SFC命令修复一下,WIN98系统可在“运行”中执行SFC,然后执行扫描;WIN2000/XP/2003则在“运行”中执行sfc /scannow尝试修复。
其中当只有IE无法浏览网页,而QQ可以上时,则往往由于winsock.dll、wsock32.dll或wsock.vxd(VXD只在WIN9X系统下存在)等文件损坏或丢失造成,Winsock是构成TCP/IP协议的重要组成部分,一般要重装TCP/IP协议。但xp开始集成TCP/IP协议,所以不能像98那样简单卸载后重装,可以使用 netsh 命令重置 TCP/IP协议,使其恢复到初次安装操作系统时的状态。具体操作如下:
点击“开始 运行”,在运行对话框中输入“CMD”命令,弹出命令提示符窗口,接着输入“netsh int ip reset c:\resetlog.txt”命令后会回车即可,其中“resetlog.txt”文件是用来记录命令执行结果的日志文件,该参数选项必须指定,这里指定的日志文件的完整路径是“c:\resetlog.txt。执行此命令后的结果与删除并重新安装 TCP/IP 协议的效果相同。
小提示:netsh命令是一个基于命令行的脚本编写工具,你可以使用此命令配置和监视Windows 系统,此外它还提供了交互式网络外壳程序接口,netsh命令的使用格式请参看帮助文件(在令提示符窗口中输入“netsh/?”即可)。
第二个解决方法是修复以上文件,WIN9X使用SFC重新提取以上文件,WIN2000/XP/2003使用sfc /scannow命令修复文件,当用sfc /scannow无法修复时,可试试网上发布的专门针对这个问题的修复工具WinSockFix,可以在网上搜索下载。
八、Application Management服务的问题
出现只能上QQ不能开网页的情况,重新启动后就好了。不过就算重新启动,开7到8个网页后又不能开网页了,只能上QQ。有时电信往往会让你禁用Application Management服务,就能解决了。具体原因不明。
九、感染了病毒所致
这种情况往往表现在打开IE时,在IE界面的左下框里提示:正在打开网页,但老半天没响应。在任务管理器里查看进程,(进入方法,把鼠标放在任务栏上,按右键—任务管理器—进程)看看CPU的占用率如何,如果是100%,可以肯定,是感染了病毒,这时你想运行其他程序简直就是受罪。这就要查查是哪个进程贪婪地占用了CPU资源.找到后,最好把名称记录下来,然后点击结束,如果不能结束,则要启动到安全模式下把该东东删除,还要进入注册表里,(方法:开始—运行,输入regedit)在注册表对话框里,点编辑—查找,输入那个程序名,找到后,点鼠标右键删除,然后再进行几次的搜索,往往能彻底删除干净。
有很多的病毒,杀毒软件无能为力时,唯一的方法就是手动删除。
十、无法打开二级链接
还有一种现象也需特别留意:就是能打开网站的首页,但不能打开二级链接,如果是这样,处理的方法是重新注册如下的DLL文件:
在开始—运行里
---------------------------------------------------------------
原因是由于某种不明病毒感染XP系统的应用层网关服务(Application Layer Gateway Service)导致,在病毒感染之后,该服务会在每次系统启动时自动启动,并在后台产生一个alg.exe的进程,只要手动关闭该应用层网关服务,然后重启系统,即可解决该问题,具体操作步骤如下:
1、单击“控制面板”
2、单击“性能和维护”
3、单击“管理工具”
4、双击“服务”图标
5、双击第二项“Application Layer Gateway Service”服务项
6、在启动类型中选择已禁用
7、单击“应用”
8、单击“停止”
9、单击“确定”
10、重启操作系统即可。
㈣ 如何防止/检测自己的网站内容被篡改
为了避免由于网页被篡改而带来严重的危害,应该优先考虑做好技术防范工作,阻止网页被篡改或将危害降到最低,主要可采取以下技术手段:
1)为服务器升级最新的安全补丁程序:补丁包含操作系统、应用程序、数据库等,都需要打上最新的安全补丁,这个步骤是非常必要的,因为是程序内部的问题,是安全产品难以替代的,主要是为了防止缓冲溢出和设计缺陷等攻击。
2)封闭未用但开放的网络服务端口以及未使用的服务:
对于Windows server 2003操作系统,推荐使用TCP/IP筛选器,可以配合Windows server 2003系统防火墙,当然也可以通过操作比较复杂的IP安全策略来实现;
对于Linux操作系统,可以用自带的IPTable防火墙。
一般用户服务器上架前,会为用户服务器做好服务器端口封闭以及关闭不使用的服务,但不排除部分维护人员为了简便日常维护工作而开启,本工作是一个非常简单的任务,但会大大降低服务器被入侵的可能性,请务必实施。
3)设置复杂的管理员密码:无论是系统管理员、数据库管理员,还是FTP及网站管理员的密码,都务必要设置为复杂密码,原则如下:
不少于8位;至少包含有字母大写、字母小写和数字及特殊字符(@#!$%^&()等);不要明显的规律。
4)合理设计网站程序并编写安全代码:网站目录设计上尽可能将只需要读权限的脚本和需要有写权限的目录单独放置,尽量不要采用第三方不明开发插件,将网站的程序名字按照一定的规律进行命名以便识别;编写代码过程重要注意对输入串进行约束,过滤可能产生攻击的字符串,需要权限的页面要加上身份验证代码。
5)设置合适的网站权限:
网站权限设置包括为每个网站创建一个专属的访问用户和网站目录文件的权限;网站目录文件权限设置原则是:只给需要写入的目录以写的权限,其它全为只读权限;
6)防止ARP欺骗的发生:
安装arp防火墙,并手动绑定网关mac地址。
手动绑定网关mac地址,网关mac地址,可以通过arp命令来查询。
(二)、必要的管理制度和应急处理措施
上文重点从技术的角度分析了最有效解决网页被篡改的安全方案,即我们首先应该把精力投入到做好防护工作上去,尽可能做到不让黑客劫持我们的网络、不让黑客入侵到我们的服务器中去,自然也就解决了网页被篡改的问题,但是作为不备之策,我们仍然强调必须做好以下几个方面的工作:
1)网站数据备份:我们必须做好数据备份工作,因为无论是黑客入侵、硬件故障等问题都可导致数据丢失,但我们可以用备份尽快的恢复业务,所以一定制订好持续的数据备份方案。
2)安全管理制度:任何技术手段的实施,如:打安全补丁、网站权限设置、复杂的密码、防火墙规则等,都需要人来进行完成,若没有良好的制度来指导和管理,那么一切都将是空话,因此,制订好一套行之有效的制度,并配备相关的实施人员,把技术手段贯彻下去是非常必要的。
3)应急处理措施:即便是再好的技术和管理,也不能保证攻击事件不会发生,因此我们要时刻做好网页被篡改的准备,准备好相应的检查、记录和恢复工具,准备好规范的应急步骤,一旦发生,以便有条不紊的尽快予以恢复,并进行记录和总结,必要的可保护现场并进行报案等处理。
㈤ 如何防止网站首页被篡改
为了避免由于网页被篡改而带来严重的危害,应该优先考虑做好技术防范工作,阻止网页被篡改或将危害降到最低,主要可采取以下技术手段: 1)为服务器升级最新的安全补丁程序:补丁包含操作系统、应用程序、数据库等,都需要打上最新的安全补丁,这个步骤是非常必要的,因为是程序内部的问题,是安全产品难以替代的,主要是为了防止缓冲溢出和设计缺陷等攻击。 2)封闭未用但开放的网络服务端口以及未使用的服务: 对于Windows server 2003操作系统,推荐使用TCP/IP筛选器,可以配合Windows server 2003系统防火墙,当然也可以通过操作比较复杂的IP安全策略来实现; 对于Linux操作系统,可以用自带的IPTable防火墙。 一般用户服务器上架前,会为用户服务器做好服务器端口封闭以及关闭不使用的服务,但不排除部分维护人员为了简便日常维护工作而开启,本工作是一个非常简单的任务,但会大大降低服务器被入侵的可能性,请务必实施。 3)设置复杂的管理员密码:无论是系统管理员、数据库管理员,还是FTP及网站管理员的密码,都务必要设置为复杂密码,原则如下: 不少于8位;至少包含有字母大写、字母小写和数字及特殊字符(@#!$%^&()等);不要明显的规律。 4)合理设计网站程序并编写安全代码:网站目录设计上尽可能将只需要读权限的脚本和需要有写权限的目录单独放置,尽量不要采用第三方不明开发插件,将网站的程序名字按照一定的规律进行命名以便识别;编写代码过程重要注意对输入串进行约束,过滤可能产生攻击的字符串,需要权限的页面要加上身份验证代码。 5)设置合适的网站权限: 网站权限设置包括为每个网站创建一个专属的访问用户和网站目录文件的权限;网站目录文件权限设置原则是:只给需要写入的目录以写的权限,其它全为只读权限; 6)防止ARP欺骗的发生: 安装arp防火墙,并手动绑定网关mac地址。 手动绑定网关mac地址,网关mac地址,可以通过arp命令来查询。 (二)、必要的管理制度和应急处理措施 上文重点从技术的角度分析了最有效解决网页被篡改的安全方案,即我们首先应该把精力投入到做好防护工作上去,尽可能做到不让黑客劫持我们的网络、不让黑客入侵到我们的服务器中去,自然也就解决了网页被篡改的问题,但是作为不备之策,我们仍然强调必须做好以下几个方面的工作: 1)网站数据备份:我们必须做好数据备份工作,因为无论是黑客入侵、硬件故障等问题都可导致数据丢失,但我们可以用备份尽快的恢复业务,所以一定制订好持续的数据备份方案。 2)安全管理制度:任何技术手段的实施,如:打安全补丁、网站权限设置、复杂的密码、防火墙规则等,都需要人来进行完成,若没有良好的制度来指导和管理,那么一切都将是空话,因此,制订好一套行之有效的制度,并配备相关的实施人员,把技术手段贯彻下去是非常必要的。 3)应急处理措施:即便是再好的技术和管理,也不能保证攻击事件不会发生,因此我们要时刻做好网页被篡改的准备,准备好相应的检查、记录和恢复工具,准备好规范的应急步骤,一旦发生,以便有条不紊的尽快予以恢复,并进行记录和总结,必要的可保护现场并进行报案等处理。
㈥ 如何防止网站被爬虫爬取的几种办法
相较于爬虫技术,反爬虫实际上更复杂。目前许多互联网企业都会花大力气进行“反爬虫”,网络爬虫不但会占据过多的网站流量,导致有真正需求的用户没法进入网站,另外也有可能会导致网站关键数据的外泄等现象。网络爬虫遍布互联网的各个角落,因此网络爬虫有好处也有坏处,接下来介绍一下和网络爬虫一同诞生的反爬虫技术,如何才能防止别人爬取自己的网站?
1、基于程序本身去防止爬取:作为爬虫程序,爬取行为是对页面的源文件爬取,如爬取静态页面的html代码,可以用jquery去模仿写html,这种方法伪装的页面就很难被爬取了,不过这种方法对程序员的要求很高。
2、基于iptables和shell脚本:可以对nginx的access.log进行策略定义,例如定义在1分钟内并发连接数超过30个ip为非法,如ip不在白名单内,则加入iptables策略封掉,当然这种的缺点是会有“误伤”,策略细粒度越小就会有更多的“误伤”,细粒度大就会使效果变差,另外还有类似的第三方工具fail2ban,利用做filter和actor对一些有危害的操作记录或是封ip。但是对于某个特定的爬虫地址(例如网易、有道)的爬取行为拒绝也很难准确做到,因为你无法准确知道这些特定的爬虫ip地址。注意:建议不要用封ip条目的方式,iptables列表长度是65535时就会封满,服务器也就会死机。
3.使用robots.txt文件:例如阻止所有的爬虫爬取,但是这种效果不是很明显。
User-agent: *
Disallow: /
4.使用nginx的自带功能:通过对httpuseragent阻塞来实现,包括GET/POST方式的请求,以nginx为例,具体步骤如下:
编辑nginx.conf
拒绝以wget方式的httpuseragent,增加如下内容
## Block http user agent - wget ##
if ($http_user_agent ~* (Wget) ) {
return 403;
}
## Block Software download user agents ##
if ($http_user_agent ~* LWP::Simple|BBBike|wget) {
return 403;
平滑启动
# /usr/local/nginx/sbin/nginx -s reload
如何拒绝多种httpuseragent,内容如下:
if ($http_user_agent ~ (agent1|agent2|Foo|Wget|Catall Spider|AcoiRobot) ) {
return 403;
}
大小写敏感匹配
### 大小写敏感http user agent拒绝###
if ($http_user_agent ~ (Catall Spider|AcoiRobot) ) {
return 403;
}
### 大小写不敏感http user agent拒绝###
if ($http_user_agent ~* (foo|bar) ) {
return 403;
}
注意语法:~*表示是大小写不敏感,~表示是大小写敏感
}
以上就是预防网站信息被别人爬取的一些方法,大量的爬取行为会对web服务器的性能有影响,所以一定要注重反爬虫措施。
㈦ 怎样防止网站被其它网站盗链
网站图像防盗----Apache配置妙法 每个网站所有者都在尽力美化自己的网站,使它看上去更酷、更具有吸引力,其中最常见的方法就是使用图片、Logo及Flash等。但是,这也会带来一个问题,因为越漂亮、越吸引人的网站,漂亮的图片和Flash等就容易被别的网站悄悄的盗用。下面我们就一起讨论如何防止网站图像被盗用。
需要解决的问题
简单的说,这里有两种不同的盗用行为:
1. 使用HTML标记IMG在自己的网站中引用网站的图片。
2. 从网站上下载图片,然后放在自己的网站上。
对于第一种的盗用行为,合法网站的图片被用来美化装饰其它网站,这种盗用对合法网站的损害比较大,因为访问非法网站的访问者其实是从合法网站获取图片的,合法网站的日志文件充满了访问请求记录,并且带宽被非法访问消耗,而合法网站却没有得到任何好处。这种类型的盗用通过技术手段完全可以被防止。
第二种类型的盗用相对来说比较阴险,浏览者在非法网站直接访问非法的图片,而合法网站的版权受到侵害,却得不到赔偿,甚至无法发现这种盗用。因为Web的工作方式对这种类型的盗用实际上无法被阻止,但是可以使得这种盗用更加困难。
完全杜绝这两种盗用行为是不现实的,但是通过技术手段可以使得这种盗用非常困难。在Apache环境下,通过配置可以限制网站图片被盗用。
标识需要保护的文件
作为网站管理员,最大的希望就是能够保护网站上所有文档,但是从技术角度考虑这种想法是不现实的,因此我们这里只讨论对图片文件的保护。
作为保护的第一步,首先需要标识出需要保护的文件,然后才能进一步对被标识的文件进行保护。在Apache配置文件中添加如下内容:
<FilesMatch "\.(gif|jpg)"> [这里添加保护限制命令]</FilesMatch>
将容器命令包含在或等容器中,或者单独列出,不处于任何保护容器中,这样就会对网站所有文件进行保护,甚至可以存放在.htaccess文件。将该容器放在不同的位置,保护的范围机会有所不同。
Referer HTTP头字段
当用户访问Web服务器请求一个页面时,用户浏览器发送的HTTP请求中会有一个被称为HTTP请求头(HTTP Request Header)的信息,这个头信息中包含客户请求的一些信息,例如发出请求客户主机的浏览器版本、用户语言、用户操作系统平台、用户请求的文档名等,这些信息以变量名/变量值的方式被传输。
在这些信息中,Referer字段对于实现防止图片盗用非常重要。Referer字段指定客户端最后一个页面的URL地址。例如,如果用户访问页面A,然后点击在页面A上到页面B的链接,访问页面B的HTTP请求会包括一个Referer字段,该字段会包括这样的信息“这个请求是来自于页面A”。如果一个请求不是来自于某个页面,而是用户通过直接在浏览器地址栏输入页面A的URL地址的方式来访问页面A,那么在HTTP请求中则不会包括Referer字段。这样对于我们防止盗链有什么帮助呢?Referer字段是帮助判断对图像的请求是来自自己的页面,还是来自其它网站。
使用SetEnvIf对图像进行标记
作为一个简单的例子,假设需要保护的网站的主页面为http://my.apache.org,这时候希望限制所有不是源于本网站的网络访问请求(例如只允许访问包含在本网站页面内的图片)。这里可以使用一个环境变量作为一个标记,如果条件满足时就设置该变量,如下所示:
SetEnvIfNoCase Referer "^http://my\.apache\.org/" local_ref=1
当Apache处理一个请求时,它会检查HTTP请求头中的Referer字段,如果该请求来源于本网站(也就是请求页面的URL为本网站域名),则设置环境变量local_ref为1。
在双引号中的字符串是一个正则表达式,只有匹配该正则表达式,环境变量才会被设置。本文不讨论如何使用正则表达式,这里只需要理解SetEnvIf*命令会使用正则表达式作为参数。
SetEnvIfNoCase命令的“NoCase”部分表示这里的正则表达式忽略大小写,'http://my.apache.org/'、'http://My.Apache.Org/'或 'http://MY.APACHE.ORG/'都可以匹配条件。
在访问控制中使用环境变量
Apache配置文件中的Order、Allow和Deny命令可以实现对文档的基于环境变量的访问控制,使用Order、Allow和Deny命令首先要考虑的是Allow和Deny命令的顺序对于Apache处理结果的影响,应该以下面的方式使用:
Order Allow,Deny
这里表示Apache首先处理该HTTP请求相关的Allow命令,然后处理相关的Deny命令。这种处理方式的默认策略是Deny,所以除非有明确的允许的设置,否则该请求就会被拒绝,任何非法访问将无法成功。
因此,在Apache的配置文件httpd.conf中添加如下命令,来实现本地引用发挥作用:
Order Allow,DenyAllow from env=local_ref
这样只有在local_ref变量被定义的情况下,该请求才会被允许;否则其它所有请求和访问将会被拒绝,因为这些请求不满足Allow条件。
注意,请不要在.htaccess和httpd.conf中使用 容器命令,这里不需要该容器命令,除非有特殊的需求,例如希望Get请求和Post请求进行不同的处理。
把这些相关设置放在一起,在Apache的配置文件中就会有如下内容:
SetEnvIfNoCase Referer "^http://my\.apache\.org/" local_ref=1<FilesMatch "\.(gif|jpg)"> Order Allow,Deny Allow from env=local_ref</FilesMatch>
如上配置可以存放在服务器配置文件httpd.conf中,或者存放在.htaccess文件中,最后的效果是一样的:在这些命令作用的范围内,只有从本网站引用的图片才可以被访问。
对图片进行水印处理
上面介绍的方法并不能完全防止图像盗链,这是因为有些执着的盗用者可以伪造Referer值来盗用图片,使相关设置失效,所以不可能完全防止网站图片被盗链,但是上面采取的措施会使得盗链变得很困难。
此外,还有一个防止图片被盗用的方法,就是对网站的图片都进行水印处理。对一个数字图片进行水印处理是指在图片中加入一个特殊的签名编码,并且可以进行验证和检测,数字水印并不会降低图片的质量,甚至可以实现图像被切割以后的剩余部分仍然会包括水印信息。图片被再次编辑、打印,并再次扫描以后,水印仍然可以被检测到。因此,水印技术是一个非常好的保护图片不被盗用的技术。
记录盗用请求
如果想知道自己网站的艺术品是否被盗,可以尝试使用同样的侦测和环境变量来记录可疑请求。例如,在httpd.conf文件中添加如下命令,那么会在 /usr/local/web/apache/logs/poachers_log文件中记录所有具有非法的Referer头信息的访问请求:
SetEnvIfNoCase Referer "!^http://my\.apache\.org/" not_local_ref=1SetEnvIfNoCase Request_URI "\.(gif|jpg)" is_image=1RewriteEngine OnRewriteCond ${ENV:not_local_ref} =1RewriteCond ${ENV:is_image} =1RewriteRule .* - [Last,Env=poach_attempt:1]CustomLog logs/poachers_log CLF env=poach_attempt
在上面代码中,头两行为条件设置标记(也就是没有正确的本地Referer的图片文件),RewriteCond检测是否该标记被设置,然后RewriteRule设置第三个标记,最后一行使得这样的访问请求被记录在特定的文件中。
上面简单介绍了在Apache环境下,如何通过配置来限制网站图片被盗用的方法,抛砖引玉,希望大家将自己更好的经验介绍出来。(T111)
转自赛迪网-开放系统世界!
㈧ 网页已打开就被串改怎么办
说明你打开的网页被挂了木马或者你自己的电脑就中了病毒
首先简单点的办法肯定是要装个360之类的浏览器可以修复IE
还能锁定主页不被篡改
然后再杀病毒
重新装机是个懒人不愿意做但是比较彻底的办法
㈨ 公司网站被经常串改页面和劫持攻击怎么办,有什么办法可以帮助解决
网站被篡改劫持是网站程序被黑客植入了劫持代码导致的。
处理办法也比较简单:找出网页中的劫持代码,删除即可。
但是这个只治标不治本,因为黑客下次还可以继续植入劫持代码。
部署护卫神·高级安全防护,一劳永逸的解决劫持问题。