Nginx常用屏蔽规则 - 防止垃圾蜘蛛
2024-09-30
13
前言
Nginx
是一个高性能的HTTP和反向代理服务,目前很大一部分网站均使用了Nginx作为WEB服务器,Nginx虽然非常强大,但默认情况下并不能阻挡恶意访问。
在开始之前,希望您已经熟悉Nginx
常用命令(如停止、重启等操作)及排查Nginx
错误日志,以免出现问题不知所措。
如无特殊注明,以下的命令均添加到server
段内,**修改Nginx
配置之前务必做好备份,修改完毕后需要重载一次Nginx
否则不会生效。**
防止文件被下载
比如将网站数据库导出到站点根目录进行备份,很有可能也会被别人下载,从而导致数据丢失的风险。以下规则可以防止一些常规的文件被下载,可根据实际情况增减。
location ~ \.(zip|rar|sql|bak|gz|7z)$ { return 444;}
屏蔽非常见蜘蛛(爬虫)
如果经常分析网站日志你会发现,一些奇怪的UA总是频繁的来访问网站,而这些UA对网站收录毫无意义,反而增加服务器压力,可以直接将其屏蔽。
if ($http_user_agent ~* (SemrushBot|python|MJ12bot|AhrefsBot|AhrefsBot|hubspot|opensiteexplorer|leiki|webmeup)) { return 444;}
禁止某个目录执行脚本
比如网站上传目录,通常存放的都是静态文件,如果因程序验证不严谨被上传木马程序,导致网站被黑。以下规则请根据自身情况改为您自己的目录,需要禁止的脚本后缀也可以自行添加。
#uploads|templets|data 这些目录禁止执行PHPlocation ~* ^/(uploads|templets|data)/.*.(php|php5)$ { return 444;}
屏蔽某个IP或IP段
如果网站被恶意灌水或CC攻击,可从网站日志中分析特征IP,将其IP或IP段进行屏蔽。
#屏蔽192.168.5.23这个IPdeny 192.168.5.23;#屏蔽192.168.5.* 这个段 denu 192.168.5.0/24;
说明
再次强调,修改nginx
配置之前务必做好备份,修改完毕后需要重载一次nginx
,否则不会生效。上面大部分规则返回444状态码而不是403,因为444状态码在nginx
中有特殊含义nginx
的444状态是直接由服务器中断连接,不会向客户端再返回任何消息,比返回403更加暴力
赞一波!
相关文章
- 常用PC,移动浏览器User-Agent大全
- Python的flask常用函数route()介绍
- 常用的正则表达式(Regular Expression)大全
- SemrushBot robot是什么蜘蛛?怎么屏蔽垃圾蜘蛛爬虫,屏蔽ip段?
- JS 正则表达式常用方法
- flex 弹性布局常用属性
- 谷歌浏览器 常用插件推荐
- mac 常用快捷键总结
- JavaScript 常用自定义功能函数
- 常用 Composer扩展包
- PHP 常用功能函数
- 几种常用的FTP客户端软件
- Debian Linux国内常用镜像源
- 通过Linux命令分析Nginx日志得知百度蜘蛛的爬行情况
- C#给应用程序添加防火墙规则配置
- Java的内存释放机制:垃圾回收详解
- 解决Mysql排序规则不一致问题
- Excel数据处理必备:常用计算函数及其使用方法
- 齐博X1常用变量大全
- 数据库常用语句批量修改执行方法
文章评论
评论问答