(1)是基于内存缓存,重启后数据将消失。
(2)利用虚拟内存方式,io性能好。
(3)支持设置0~60秒内的精确缓存时间。
(4)VCL配置管理比较灵活。
(5)32位机器上缓存文件大小为最大2G。
(6)具有强大的管理功能,例如top,stat,admin,list等。
(7)状态机设计巧妙,结构清晰。
(8)利用二叉堆管理缓存文件,达到积极删除目的。
Varnish的Storage方式可分为两种:
1)Malloc通过malloc获取内存。
2)Mmap file创建大文件,通过二分法分段映射成1G以内的大块。
Varnish进程的工作模式 :
varnish启动或有2个进程 master(management)进程和child(worker)进程。master读入存储配置命令,进行初始化,然后fork,监控child。child则分配线程进行cache工作,child还会做管理线程和生成很多worker线程。
child进程主线程初始化过程中,将存储大文件整个加载到内存中,如果该文件超出系统的虚拟内存,则会减少原来配置mmap大小,然后继续加载,这时候创建并初始化空闲存储结构体,放在存储管理的struct中,等待分配。
接着varnish某个负责接口新http连接的线程开始等待用户,如果有新的http连接,但是这个线程只负责接收,然后唤醒等待线程池中的work线程,进行请求处理。
worker线程读入uri后,将会查找已有的object,命中直接返回,没有命中,则会从后端服务器中取出来,放到缓存中。如果缓存已满,会根据LRU算法,释放旧的object。对于释放缓存,有一个超时线程会检测缓存中所有object的生命周期,如果缓存过期(ttl),则删除,释放相应的存储内存。
Varnish的实际压力测试
硬件环境
|
| PowerEdge R610 |
硬件环境 | CPU | Intel(R) Xeon(R) CPUE5620 @2.40GHz |
内存 | 12G | |
硬盘 | 单盘raid0 |
软件环境
软件环境 | OS版本 | centos5.4 |
Kernal | 2.6.18-164.el5 |
测试软件版本:varnishd 2.1.5
测试工具
消减网络频宽/吞吐量,在相同服务器上生成负载,使用ApacheBench工具(修改后的ab)模仿线上访问,将百万的url请求以顺序的方式读取,然后用2台服务器启动多个ab一次产生的请求500个请求循环N次请求到varnish服务器。
测试前设置:
1)先将测试机内核可以同时打开的文件描述符的最大值设置到65535。(ulimit -HSn 65532)
2)强制内核不要使用SWAP分区。(echo 0> /proc/sys/vm/swappiness )
Varnish的Storage方式
1)malloc 通过malloc获取内存。
2) Mmap file 创建大文件,通过二分法分段映射成1G以内的大块。
综合测试
1)Malloc 方式
启动命令:
/opt/varnish-2.1.5/sbin/varnishd -u www -g www -f/opt/varnish-2.1.5/etc/varnish/varnish.vcl -s malloc,2G -w10,5000,10 -T 192.168.1.100:3500
测试详细数据:
varnish压测类型 | varnish压测数据 |
His/s | 1.8W/s |
压测文件大小 | 15K(平均) |
CPU状态(idle%) | 60% |
两块网卡流量 | 200M(打满) |
磁盘的繁忙程度 | 0% |
命中率 | 98% |
2)Mmap file方式
启动命令:
/opt/varnish-2.1.5/sbin/varnishd -u www -g www -f/opt/varnish-2.1.5/etc/varnish/varnish_test.vcl -sfile,/data0/varnish_cache/cache_data.txt,2G -w 10,5000,10 -T192.168.1.100:3500
测试详细数据:
varnish压测类型 | varnish压测数据 |
His/s | 1.8W/s |
压测文件大小 | 15K(平均) |
CPU状态(idle%) | 50% |
两块网卡流量 | 200M(打满) |
磁盘的繁忙程度 | 100%(SDA) |
命中率 | 98% |
参数详解:
-f 指定配置文件
-s 选项用来确定varnish使用的存储类型和存储容量,我使用的是 malloc 类型(malloc 是一个 C函数,用于分配内存空间), 1G 定义多少内存被malloced,1G=1gigabyte。
-wmin[,max[,timeout]]指定线程最小和最大空闲时间。这是一个设置thread_pool_min和thread_pool_max、thread_pool_timeout的捷径。如果只有一个值被指定,那么thread_pool_min和thread_pool_max都是用这个值。Thread_poll_timeout会失效。
-T Varnish 有一个基于文本的管理接口,启动它的话可以在不停止varnish 的情况下来 管理varnish。
-tttl指定最小的TTL给cache中的内容。这是一个捷径设置default_ttl run-time 选项。
综合分析
从varnish服务器的总体上来看,在每秒并发1.8W左右的情况下,采用缓存方式以Mmap file和Malloc方式都会导致两块网卡跑满,但以Mmap file的缓存方式启动I/O也会形成瓶颈,原因主要是varnish缓存的数据先会刷到磁盘上,然后在一次行读到内存中,这在访问量大的时候同时也会对I/O造成很大的压力。Malloc缓存方式虽然对I/O没有压力,因所有缓存数据都写到内存中。
Varnish与Squid的对比
说到Varnish,不能不提Squid,Squid是一个高性能的代理缓存服务器,它和varnish之间有诸多的异同点,这里分析如下:
下面是他们之间的相同点:
(1)都是一个反向代理服务器。
(2)都是开源软件。
下面是它们的不同点,也是Varnish的优点:
(1)Varnish的稳定性很高,两者在完成相同负荷的工作时,Squid服务器发生故障的几率要高于Varnish,因为使用Squid要经常重启。
(2)Varnish访问速度更快,Varnish采用了“Visual Page Cache”技术,所有缓存数据都直接从内存读取,而squid是从硬盘读取,因而Varnish在访问速度方面会更快。
(3)Varnish可以支持更多的并发连接,因为Varnish的TCP连接释放要比Squid快。因而在高并发连接情况下可以支持更多TCP连接。
(4)Varnish可以通过管理端口,使用正则表达式批量的清除部分缓存,而Squid是做不到的。
(5) squid属于是单进程使用单核CPU,但Varnish是通过fork形式打开多进程来做处理,所以是合理的使用所有核来处理相应的请求。
当然,与传统的Squid相比,Varnish也是有缺点的,列举如下:
1)varnish进程一旦Hang、Crash或者重启,缓存数据都会从内存中完全释放,此时所有请求都会发送到后端服务器,在高并发情况下,会给后端服务器造成很大压力。
2)在varnish使用中如果单个url的请求通过HA/F5(负载均衡)每次请求不同的varnish服务器中,被请求varnish服务器都会被穿透到后端,而且同样的请求会在多台服务器上缓存,也会造成varnish的缓存的资源浪费,也会造成性能下降。
解决方案:
1)综上所述在访问量很大的情况下推荐使用varnish的内存缓存方式启动,而且后面需要跟多台squid服务器。主要为了防止前面的varnish服务、服务器被重启的情况下,前期肯定会有很多的穿透这样squid可以担当第二层CACHE,而且也弥补了varnish缓存在内存中重启都会释放的问题。
2)这样的问题可以在负载均衡上做url哈希,让单个url请求固定请求到一台varnish服务器上,可以解决该问题。
注:上面的解决方法还需要全面的测试,没有经过证实。
具体的vcl配置如下:
backend myblogserver {
.host = "192.168.1.100";
.port = "80";
}
acl local {
"localhost";
"192.168.0.0"/16;
}
sub vcl_recv {
if (req.http.host ~ "^a.com"
set req.backend = myblogserver;
}
else {
error 404 "Unknown HostName!";
}
if (req.request == "PURGE") {
if (!client.ip ~ local) {
error405 "Not Allowed.";
}
return (lookup);
}
if (req.request == "GET" && req.url~ ".(jpg|png|gif|swf|jpeg|ico)$") {
unset req.http.cookie;
}
elseif (req.request == "GET" &&req.url ~ "dpc=1$") {
unset req.http.cookie;
}
if (req.http.x-forwarded-for) {
set req.http.X-Forwarded-For = req.http.X-Forwarded-For ", "client.ip;
} else {
setreq.http.X-Forwarded-For = client.ip;
}
if (req.request != "GET"&&
req.request != "HEAD"&&
req.request != "PUT"&&
req.request != "POST"&&
req.request!= "TRACE" &&
req.request != "OPTIONS"&&
req.request != "DELETE") {
return (pipe);
}
if (req.request != "GET" &&req.request != "HEAD") {
return (pass);
}
if (req.http.Authorization || req.http.Cookie) {
return (pass);
}
if (req.request == "GET" && req.url~ ".(php)$") {
return (pass);
}
return (lookup);
}
sub vcl_pipe {
return (pipe);
}
sub vcl_pass {
return (pass);
}
sub vcl_hash {
set req.hash += req.url;
if (req.http.host) {
set req.hash += req.http.host;
} else {
setreq.hash += server.ip;
}
return (hash);
}
sub vcl_hit {
if (!obj.cacheable) {
return (pass);
}
if (req.request == "PURGE") {
set obj.ttl = 0s;
error 200 "Purged.";
}
return (deliver);
}
sub vcl_miss {
if (req.request == "PURGE") {
error 404 "Not in cache.";
}
}
sub vcl_fetch {
if (!beresp.cacheable) {
return (pass);
}
if (beresp.http.Pragma ~ "no-cache" || beresp.http.Cache-Control ~"no-cache" || beresp.http.Cache-Control ~ "private"){
return (pass);
}
if (req.request == "GET" && req.url~ ".(mp3|jpg|png|gif|swf|jpeg|ico)$") {
set beresp.ttl = 7d;
}
if (req.request == "GET" && req.url~ ".(js|css)$") {
set beresp.ttl = 1d;
}
elseif (req.request == "GET" &&req.url ~ "dpc=1$") {
set beresp.ttl = 7d;
}
return (deliver);
}
sub vcl_deliver {
set resp.http.x-hits = obj.hits ;
if (obj.hits > 0) {
set resp.http.X-Cache = "HIT cqtel-bbs";
} else {
set resp.http.X-Cache = "MISS cqtel-bbs";
}
}