webshell检测方式深度剖析 ---统计学特征检测_neopi-程序员宅基地

技术标签: 恶意脚本检测  

概论

该篇文章讲述了NeoPI如何利用统计学特征来检测webshell,笔者认为NeoPI选择的这些统计学方法在webshell检测上有些鸡肋,没有太大的实用效果。

反而其中的各种统计学方法值得学习一下,因此文章会重点讲解这些统计学特征的原理,以求可以举一反三,并应用在其他领域。

统计学特征

NeoPi使用以下五种统计学特征检测方法,下面分别来分析各种方法的原理和代码实现(代码部分只选择了核心代码并附加了注释,方便大家阅读。):

重合指数

重合指数法是密码分析学的一种工具,主要用于多表代换的密码破译。
以纯英文文本为例,它的基本原理可以定义如下:

X = x 1 x 2 . . . x n X=x_1x_2...x_n X=x1x2...xn是一个长度为 n n n的英文字符串, X X X的重合指数定义为 X X X中的两个随机元素相同的概率,记为 I c ( X ) I_c(X) Ic(X)。假设英文字母 A A A B B B C C C,…在X中的出现次数分别为 f 1 f_1 f1 f 2 f_2 f2,…, f 25 f_{25} f25。显然,从X中任意选择两个元素共有 C 25 2 C^{2}_{25} C252种组合,选取的元素同时为第 i i i个英文字母的情况有 C f i 2 C^{2}_{f_i} Cfi2种组合, 0 < = i < = 25 0<=i<=25 0<=i<=25。因此,有
I c ( X ) = ∑ i = 0 25 ( C f 2 / C n 2 ) = ∑ i = 0 25 ( f i ( f i − 1 ) / n ( n − 1 ) ) I{_c}(X) =\sum_{i=0}^{25}(C_f^2/C_n^2) = \sum_{i=0}^{25}(f_i(f_i-1)/n(n-1)) Ic(X)=i=025(Cf2/Cn2)=i=025(fi(fi1)/n(n1))

根据统计,在英文中各个字母出现的频率是特定的,如下表 :

字母 概率 字母 概率
A 0.082 N 0.067
B 0.015 O 0.075
C 0.028 P 0.019
D 0.043 Q 0.001
E 0.127 R 0.060
F 0.022 S 0.063
G 0.020 T 0.091
H 0.061 U 0.028
I 0.070 V 0.010
J 0.002 W 0.002
K 0.008 X 0.001
L 0.040 Y 0.020
M 0.024 Z 0.001

将英文字母A,B,C,…,Z的期望概率分别记为 p 0 , p 1 , p 2 , . . . , p 25 p_0,p_1,p_2,...,p_{25} p0p1p2...p25,则有一段正常英文文本的期望重合指数为 I c ( X ) ≈ ∑ i = 0 25 ( p i 2 ) = 0.065 I_c(X)\approx \sum_{i=0}^{25}(p_i^2) = 0.065 Ic(X)i=025(pi2)=0.065

如上所述,一个纯英文的且编码风格良好(一般在软件开发时,会采用统一的函数及有意义的变量名编写)的源代码计算出的重合指数会趋近于0.065。考虑到文件中的中文注释,虽然计算出的重合指数会偏离0,065,但同样会趋于相似,呈现正态分布。

而加密或者混淆后的webshell 与原 web 应用不相关,其字符的排列通常没有特征可言,计算出的重合指数与正常文件的重合指数相差较大(混淆后的重合指数通常较小),一定程度上,可以作为webshell判定的依据。

重合指数的计算比较简单,代码如下:

# @param data 从文件中取出的全部内容数据
 # @return ic 返回计算好的重合指数
 def index_of_coincidence(data):
       """计算文件内容的重合指数"""
       if not data:
           return 0
       char_count = 0       # 保存在data中任意选择两个字符,这两个字符相同的情形的数量
       total_char_count = 0 # 保存在data所有字符的数量

        # 遍历单字节代表的256字符
       for x in range(256):
           char = chr(x)
           charcount = data.count(char)              # 计算当前字符在data中的数量
           char_count += charcount * (charcount - 1) # 计算在data中任意选择两个字符,这两个字符都为当前字符的情形的数量,并累加
           total_char_count += charcount             # 计算当前字符在data中的数量,并累加
       
       # 按照重合指数的计算方法进行计算
       ic = float(char_count)/(total_char_count * (total_char_count - 1))
       return ic

信息熵

熵,是一个热力学的概念,用来度量封闭系统的混乱程度。但在历史的发展中,造就了它非常丰富的内涵,进入了很多学科的视野。

1948年,香农提出了“信息熵”的概念,解决了对信息的量化度量问题。信息量是对信息的度量,就跟时间的度量是秒一样,当我们考虑一个离散的随机变量x的时候,当我们观察到的这个变量的一个具体值的时候,我们接收到了多少信息呢?

多少信息用信息量来衡量,而我们接受到的信息量跟具体发生的事件有关。

信息的大小跟随机事件的概率有关。越小概率的事情发生了产生的信息量越大,如太阳从西边升起来了;越大概率的事情发生了产生的信息量越小,如太阳从东边升起来了(肯定发生,没什么信息量)。
信息熵的公式定义如下:

H ( X ) = − ∑ i = 1 N p ( x i ) l o g ( p ( x i ) ) H(X)=- \sum_{i=1}^{N}p(x_i)log(p(x_i)) H(X)=i=1Np(xi)log(p(xi))
其中, p ( x i ) 代 表 随 机 事 件 p(x_i)代表随机事件 p(xi) x i x_i xi的概率,对数一般以2为底。对应到文件熵上,一般使 p ( x i ) p(x_i) p(xi)为字符 x i x_i xi在文件内容中出现的概率。

那么类似于重合指数,加密混淆后的webshell通常通篇都是没有任何意义和规律的字符, 其通过计算公式得出的信息熵值会偏离平均值较大。

计算信息熵的代码如下:

# @param data 从文件中取出的全部内容数据
 # @return entropy 返回计算出的文件熵
def calculate(self,data):
       """计算文件信息熵."""

       if not data:
           return 0
           
       entropy = 0 # 保存最终熵值
       self.stripped_data =data.replace(' ', '') # 去掉文件内容中的空格
       
       # 遍历所有asci 256个字符
       for x in range(256):
           p_x = float(self.stripped_data.count(chr(x)))/len(self.stripped_data) # 计算单个字符出现的概率
           if p_x > 0:
               entropy += - p_x * math.log(p_x, 2) # 计算该字符的熵值并累加
       return entropy

最长单词

一般在软件开发时,其使用的字符串、函数名、变量名都会尽可能有规律和简短,但是,通过变形和加密往往会构造;超长的字符串, 通过检测代码中的最长字符串,并把最有可能是 webshell 的文件提供给管理员判断。

代码如下:

# @param data 从文件中取出的全部内容数据
# @return longest_word, longest 返回最长单词的内容和长度
def LongestWord(self,data):
       """查找文件内容中长度最长的单词"""
       if not data:
           return "", 0

       longest = 0 # 保存最长单词的长度
       longest_word = "" # 保存最长单词的内容
       
       words = re.split("[\s,\n,\r]", data) # 将文件内容按照空格和换行进行分词
       if words:
           for word in words:
               length = len(word)
               if length > longest: # 循环查找最长单词
                   longest = length
                   longest_word = word
       return longest_word,longest

恶意特征

在文件中搜索已知的恶意代码字符串片段,通过正则表达式,在文件内查找预定义的恶意特征。
这部分其实是静态检测,但是NeoPI也扩展添加了这部分的能力。

代码如下:

# @param data 从文件中取出的全部内容数据
# @return len(matches) 返回匹配的数量
def signature_nasty(self, data): 
       """查找文件的恶意特征"""
       if not data:
           return "", 0
       
       # 查找文件内下面所列的恶意函数 
       valid_regex = re.compile('(eval\(|file_put_contents|base64_decode|python_eval|exec\(|passthru|popen|proc_open|pcntl|assert\(|system\(|shell)', re.I)
       matches = re.findall(valid_regex, data)
       return len(matches)

压缩比

正常的代码通常编码风格良好,并且文件内有一定的空行和空格作为分隔,进行压缩时能有较大的压缩比。但是经过混淆后的代码通常没有空格和空行,而且字符顺序混乱,进行压缩时压缩比较小。

代码如下:

# @param data 从文件中取出的全部内容数据
# @return ratio 返回计算出的压缩比
def calculate(self, data):
       if not data:
           return "", 0
       compressed = zlib.compress(data)
       ratio =  float(len(data)) / float(len(compressed))
       self.results.append({
    "filename":filename, "value":ratio})
       return ratio

检测结果评测

NeoPI本身不给出一个文件是不是webshell的判断,它只是计算各种统计特征值,然后针对每一个特征值做出一个排名。在实际应用中,可以选择任意特征值的排名组合来判断。

为了让测试更有代表性,笔者采用如下策略:

首先进行如下形式化定义:

W m i n ( x ) = W o r d P r e s s 中 相 应 特 征 最 小 的 x 个 文 件 的 平 均 值 W_{min}(x) = WordPress中相应特征最小的x个文件的平均值 Wmin(x)=WordPressx
W m a x ( x ) = W o r d P r e s s 中 相 应 特 征 最 大 的 x 个 文 件 的 平 均 值 W_{max}(x) = WordPress中相应特征最大的x个文件的平均值 Wmax(x)=WordPressx
B m i n ( x ) = 300 个 黑 样 本 中 相 应 特 征 最 小 的 x 个 文 件 的 平 均 值 B_{min}(x) = 300个黑样本中相应特征最小的x个文件的平均值 Bmin(x)=300x
B m a x ( x ) = 300 个 黑 样 本 中 相 应 特 征 最 大 的 x 个 文 件 的 平 均 值 B_{max}(x) = 300个黑样本中相应特征最大的x个文件的平均值 Bmax(x)=300x

1、重合指数判断策略

2、信息熵判断策略

3、最长单词判断策略
同信息熵的判断策略

4、恶意特征
存在恶意特征则判定为webshell

5、压缩比
同信息熵的判断策略

实际测试结果如下:

统计特征 检出率 误报率
重合指数 94% 0%
信息熵 58% 0.5%
最长单词 42% 0%
恶意特征 79% 4%
压缩比 10% 0%

notes:由于NeoPI主要用来检测混淆webshell,所以笔者的阈值选择优先于黑样本和白样本中的混淆文件的特征值。

总结

NeoPi的检测重心在于识别混淆代码,它常常在识别模糊代码或者混淆编排的木马方面表现良好,但是也依赖于检测阈值的选取。同时,NeoPi的检测机制对未经模糊处理的代码检测能力较弱。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/qq_31032141/article/details/107207911

智能推荐

解决win10/win8/8.1 64位操作系统MT65xx preloader线刷驱动无法安装_mt65驱动-程序员宅基地

文章浏览阅读1.3w次。转载自 http://www.miui.com/thread-2003672-1-1.html 当手机在刷错包或者误修改删除系统文件后会出现无法开机或者是移动定制(联通合约机)版想刷标准版,这时就会用到线刷,首先就是安装线刷驱动。 在XP和win7上线刷是比较方便的,用那个驱动自动安装版,直接就可以安装好,完成线刷。不过现在也有好多机友换成了win8/8.1系统,再使用这个_mt65驱动

SonarQube简介及客户端集成_sonar的客户端区别-程序员宅基地

文章浏览阅读1k次。SonarQube是一个代码质量管理平台,可以扫描监测代码并给出质量评价及修改建议,通过插件机制支持25+中开发语言,可以很容易与gradle\maven\jenkins等工具进行集成,是非常流行的代码质量管控平台。通CheckStyle、findbugs等工具定位不同,SonarQube定位于平台,有完善的管理机制及强大的管理页面,并通过插件支持checkstyle及findbugs等既有的流..._sonar的客户端区别

元学习系列(六):神经图灵机详细分析_神经图灵机方法改进-程序员宅基地

文章浏览阅读3.4k次,点赞2次,收藏27次。神经图灵机是LSTM、GRU的改进版本,本质上依然包含一个外部记忆结构、可对记忆进行读写操作,主要针对读写操作进行了改进,或者说提出了一种新的读写操作思路。神经图灵机之所以叫这个名字是因为它通过深度学习模型模拟了图灵机,但是我觉得如果先去介绍图灵机的概念,就会搞得很混乱,所以这里主要从神经图灵机改进了LSTM的哪些方面入手进行讲解,同时,由于模型的结构比较复杂,为了让思路更清晰,这次也会分开几..._神经图灵机方法改进

【机器学习】机器学习模型迭代方法(Python)-程序员宅基地

文章浏览阅读2.8k次。一、模型迭代方法机器学习模型在实际应用的场景,通常要根据新增的数据下进行模型的迭代,常见的模型迭代方法有以下几种:1、全量数据重新训练一个模型,直接合并历史训练数据与新增的数据,模型直接离线学习全量数据,学习得到一个全新的模型。优缺点:这也是实际最为常见的模型迭代方式,通常模型效果也是最好的,但这样模型迭代比较耗时,资源耗费比较多,实时性较差,特别是在大数据场景更为困难;2、模型融合的方法,将旧模..._模型迭代

base64图片打成Zip包上传,以及服务端解压的简单实现_base64可以装换zip吗-程序员宅基地

文章浏览阅读2.3k次。1、前言上传图片一般采用异步上传的方式,但是异步上传带来不好的地方,就如果图片有改变或者删除,图片服务器端就会造成浪费。所以有时候就会和参数同步提交。笔者喜欢base64图片一起上传,但是图片过多时就会出现数据丢失等异常。因为tomcat的post请求默认是2M的长度限制。2、解决办法有两种:① 修改tomcat的servel.xml的配置文件,设置 maxPostSize=..._base64可以装换zip吗

Opencv自然场景文本识别系统(源码&教程)_opencv自然场景实时识别文字-程序员宅基地

文章浏览阅读1k次,点赞17次,收藏22次。Opencv自然场景文本识别系统(源码&教程)_opencv自然场景实时识别文字

随便推点

ESXi 快速复制虚拟机脚本_exsi6.7快速克隆centos-程序员宅基地

文章浏览阅读1.3k次。拷贝虚拟机文件时间比较长,因为虚拟机 flat 文件很大,所以要等。脚本完成后,以复制虚拟机文件夹。将以下脚本内容写入文件。_exsi6.7快速克隆centos

好友推荐—基于关系的java和spark代码实现_本关任务:使用 spark core 知识完成 " 好友推荐 " 的程序。-程序员宅基地

文章浏览阅读2k次。本文主要实现基于二度好友的推荐。数学公式参考于:http://blog.csdn.net/qq_14950717/article/details/52197565测试数据为自己随手画的关系图把图片整理成文本信息如下:a b c d e f yb c a f gc a b dd c a e h q re f h d af e a b gg h f bh e g i di j m n ..._本关任务:使用 spark core 知识完成 " 好友推荐 " 的程序。

南京大学-高级程序设计复习总结_南京大学高级程序设计-程序员宅基地

文章浏览阅读367次。南京大学高级程序设计期末复习总结,c++面向对象编程_南京大学高级程序设计

4.朴素贝叶斯分类器实现-matlab_朴素贝叶斯 matlab训练和测试输出-程序员宅基地

文章浏览阅读3.1k次,点赞2次,收藏12次。实现朴素贝叶斯分类器,并且根据李航《统计机器学习》第四章提供的数据训练与测试,结果与书中一致分别实现了朴素贝叶斯以及带有laplace平滑的朴素贝叶斯%书中例题实现朴素贝叶斯%特征1的取值集合A1=[1;2;3];%特征2的取值集合A2=[4;5;6];%S M LAValues={A1;A2};%Y的取值集合YValue=[-1;1];%数据集和T=[ 1,4,-1;..._朴素贝叶斯 matlab训练和测试输出

Markdown 文本换行_markdowntext 换行-程序员宅基地

文章浏览阅读1.6k次。Markdown 文本换行_markdowntext 换行

错误:0xC0000022 在运行 Microsoft Windows 非核心版本的计算机上,运行”slui.exe 0x2a 0xC0000022″以显示错误文本_错误: 0xc0000022 在运行 microsoft windows 非核心版本的计算机上,运行-程序员宅基地

文章浏览阅读6.7w次,点赞2次,收藏37次。win10 2016长期服务版激活错误解决方法:打开“注册表编辑器”;(Windows + R然后输入Regedit)修改SkipRearm的值为1:(在HKEY_LOCAL_MACHINE–》SOFTWARE–》Microsoft–》Windows NT–》CurrentVersion–》SoftwareProtectionPlatform里面,将SkipRearm的值修改为1)重..._错误: 0xc0000022 在运行 microsoft windows 非核心版本的计算机上,运行“slui.ex