以下是OMG小编为大家收集整理的文章,希望对大家有所帮助。
1、优化代码
尽可能使用缓存来存储重复的查询内容,减少重复的数据查询资源开销。
减少复杂框架的调用,减少不必要的数据请求和处理逻辑。
程序执行中,及时释放资源,比如及时关闭mysql连接,及时关闭memcache连接等,减少空连接消耗。
2、限制手段
对一些负载较高的程序增加前置条件判断,可行的判断方法如下
必须具有网站签发的session信息才可以使用(可简单阻止程序发起的集中请求)
必须具有正确的referer(可有效防止嵌入式代码的攻击)
禁止一些客户端类型的请求(比如一些典型的不良蜘蛛特征)
同一session多少秒内只能执行一次
3、完善日志
尽可能完整保留访问日志。
有日志分析程序,能够尽快判断出异常访问,比如单一ip密集访问;比如特定url同比请求激增。