Nginx常用的安全屏蔽规则

前言

Nginx 是一个高性能的HTTP和反向代理服务,目前很大一部分网站均使用了Nginx作为WEB服务器,Nginx虽然非常强大,但默认情况下并不能阻挡恶意访问,整理了一份常用的Nginx的屏蔽规则,希望对各位站长有所帮助。

重要

在开始之前,备份nginx的配置备份nginx的配置备份nginx的配置(重要的事情说三遍),修改完毕后需要重载一次nginx的,否则不会生效。

如无特殊注明的以下命令:下面命令均添加到server段内

屏蔽非常见蜘蛛(爬虫UA过滤

如果经常分析网站日志你会发现,一些奇怪的UA总是频繁的来访问网站,而这些UA对网站收录毫无意义,反而增加服务器压力,可以直接将其屏蔽。

第一种:使用”robots.txt”协议

在网站根目录新建空白文件,命名为”robots.txt”,将下面内容复制其中。

第二种 Nginx配置

有些不按照规范爬取的爬虫会忽略你的robots.txt协议,我们采取通过Nginx判断来访User-Agent来屏蔽

可以根据你的需求更改屏蔽的爬虫。将上面代码添加到”location / { }” 段里面,比如伪静态规则里面即可。

注意:~为模糊匹配,~*为模糊匹配不区分大小写
来简单测试一下:
curl -I -A “Mozilla/5.0 YandexBot demo” http://你的域名
返回403表示设置成功!

第三种

禁止某个目录执行脚本

比如网站上传目录,通常存放的都是静态文件,如果因程序验证不严谨被上传木马程序,导致网站被黑。以下规则请根据自身情况改为您自己的目录,需要禁止的脚本后缀也可以自行添加。

屏蔽某个IP或IP段

如果网站被恶意灌水或CC攻击,可从网站日志中分析特征IP,将其IP或IP段进行屏蔽。

防止文件被下载

比如将网站数据库导出到站点根目录进行备份,很有可能也会被别人下载,从而导致数据丢失的风险。以下规则可以防止一些常规的文件被下载,可根据实际情况增减。

过滤关键词

检测到访问地址有test=这些关键词,自动跳转到自定义站点。

过滤访问地址

根据访问地址过滤。
检测到来源地址有Baiduspider,自动跳转到自定义站点。

上面规则查看444状态码而不是403,因为444状态码在nginx的中有特殊含义,nginx的444状态是直接由服务器中断连接,不会向客户端再返回任何消息。

比返回403更加暴力

© 版权声明
THE END
点赞15 分享
评论 抢沙发
头像
请认真评论,发表纯数字纯表情做禁言处理!
提交
头像

昵称

取消
昵称常用语表情代码图片