暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

异常检测介绍(2)

高級白 2021-08-16
640


基于统计学的方法

概述

统计学方法对数据的正常性做出假定。它们假定正常的数据对象由一个统计模型产生,而不遵守该模型的数据是异常点。统计学方法的有效性高度依赖于对给定数据所做的统计模型假定是否成立。

异常检测的统计学方法的一般思想是:学习一个拟合给定数据集的生成模型,然后识别该模型低概率区域中的对象,把它们作为异常点。

即利用统计学方法建立一个模型,然后考虑对象有多大可能符合该模型。

根据如何指定和学习模型,异常检测的统计学方法可以划分为两个主要类型:参数方法和非参数方法。

参数方法假定正常的数据对象被一个以为参数的参数分布产生。该参数分布的概率密度函数给出对象被该分布产生的概率。该值越小,越可能是异常点。

非参数方法并不假定先验统计模型,而是试图从输入数据确定模型。非参数方法通常假定参数的个数和性质都是灵活的,不预先确定(所以非参数方法并不是说模型是完全无参的,完全无参的情况下从数据学习模型是不可能的)。

箱线图

线图通过5个数字来描述数据的分布的标准方式,即:最小值,第一分位,中位数,第三分位数,最大值。箱线图能够明确的展示离群点的信息,同时能够让我们了解数据是否对称,数据如何分组以及数据的峰度。
  1. 中位数(Q2 50th百分位数):数据集的中间值;
  2. 第一个四分位数(Q1 25th百分位数):最小数(不是“最小值”)和数据集的中位数之间的中间数;
  3. 第三四分位数(Q3 75th百分位数):数据集的中位数和最大值之间的中间值(不是“最大值”);
  4. 四分位间距(IQR):第25至第75个百分点的距离;
  5. 晶须(蓝色显示)
  6. 离群值(显示为绿色圆圈)
  7. “最大”:Q3 + 1.5 * IQR
  8. “最低”:Q1 -1.5 * IQR


正态分布的概率密度

# Import all libraries for this portion of the blog post
from scipy.integrate import quad
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
x = np.linspace(-44, num = 100)
constant = 1.0 / np.sqrt(2*np.pi)
pdf_normal_distribution = constant * np.exp((-x**2) / 2.0)
fig, ax = plt.subplots(figsize=(105));
ax.plot(x, pdf_normal_distribution);
ax.set_ylim(0);
ax.set_title('Normal Distribution', size = 20);
ax.set_ylabel('Probability Density', size = 20);

了获得事件在给定范围内的概率,我们需要进行积分,假设我们有兴趣寻找随机数据点落在均值四分位数范围.6745标准偏差内的概率,则需要对-.6745至.6745进行积分。
# Make PDF for the normal distribution a function
def normalProbabilityDensity(x):
    constant = 1.0 / np.sqrt(2*np.pi)
    return(constant * np.exp((-x**2) / 2.0) )# Integrate PDF from -.6745 to .6745
result_50p, _ = quad(normalProbabilityDensity, -.6745.6745, limit = 1000)
print(result_50p)


对“最小”和“最大”执行相同的操作:

# Make a PDF for the normal distribution a function
def normalProbabilityDensity(x):
    constant = 1.0 / np.sqrt(2*np.pi)
    return(constant * np.exp((-x**2) / 2.0) )# Integrate PDF from -2.698 to 2.698
result_99_3p, _ = quad(normalProbabilityDensity,
                     -2.698,
                     2.698,
                     limit = 1000)
print(result_99_3p)


Breast Cancer Wisconsin (Diagnostic) Dataset

import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt# Put dataset on my github repo 
df = pd.read_csv('https://raw.githubusercontent.com/mGalarnyk/Python_Tutorials/master/Kaggle/BreastCancerWisconsin/data/data.csv')

使用箱线图来分析分类特征(恶性或良性肿瘤)和连续特征(area_mean)之间的关系。

sns.boxplot(x='diagnosis', y='area_mean', data=df)

们可以比较Area_mean的范围和分布,以进行恶性和良性诊断。我们观察到,恶性肿瘤的area_mean以及较大的异常值存在较大的变异性。另外,由于箱线图中的凹口不重叠,因此可以得出结论,以95%的置信度,真实的中位数确实有所不同。

参数方法

基于正态分布的一元异常点检测

仅涉及一个属性或变量的数据称为一元数据。我们假定数据由正态分布产生,然后可以由输入数据学习正态分布的参数,并把低概率的点识别为异常点。

假定输入数据集为,数据集中的样本服从正态分布,即,我们可以根据样本求出参数

求出参数之后,我们就可以根据概率密度函数计算数据点服从该分布的概率。正态分布的概率密度函数为:

如果计算出来的概率低于阈值,就可以认为该数据点为异常点。

阈值是个经验值,可以选择在验证集上使得评估指标值最大(也就是效果最好)的阈值取值作为最终阈值。

例如常用的原则中,如果数据点超过范围,那么这些点很有可能是异常点。

这个方法还可以用于可视化。箱线图对数据分布做了一个简单的统计可视化,利用数据集的上下四分位数()、中点等形成。异常点常被定义为小于或大于的那些数据。

用Python画一个简单的箱线图:

import numpy as np
import seaborn as sns
import matplotlib.pyplot as plt

data = np.random.randn(50000) * 20 + 20
sns.boxplot(data=data)

多元异常点检测

涉及两个或多个属性或变量的数据称为多元数据。许多一元异常点检测方法都可以扩充,用来处理多元数据。其核心思想是把多元异常点检测任务转换成一元异常点检测问题。例如基于正态分布的一元异常点检测扩充到多元情形时,可以求出每一维度的均值和标准差。对于第维:

计算概率时的概率密度函数为:

这是在各个维度的特征之间相互独立的情况下。如果特征之间有相关性,就要用到多元高斯分布了。

多个特征相关,且符合多元高斯分布

使用混合参数分布

在许多情况下假定数据是由正态分布产生的。当实际数据很复杂时,这种假定过于简单,可以假定数据是被混合参数分布产生的。

非参数方法

在异常检测的非参数方法中,“正常数据”的模型从输入数据学习,而不是假定一个先验。通常,非参数方法对数据做较少假定,因而在更多情况下都可以使用。

例子:使用直方图检测异常点

直方图是一种频繁使用的非参数统计模型,可以用来检测异常点。该过程包括如下两步:

步骤1:构造直方图。使用输入数据(训练数据)构造一个直方图。该直方图可以是一元的,或者多元的(如果输入数据是多维的)。

尽管非参数方法并不假定任何先验统计模型,但是通常确实要求用户提供参数,以便由数据学习。例如,用户必须指定直方图的类型(等宽的或等深的)和其他参数(直方图中的箱数或每个箱的大小等)。与参数方法不同,这些参数并不指定数据分布的类型。

步骤2:检测异常点。为了确定一个对象是否是异常点,可以对照直方图检查它。在最简单的方法中,如果该对象落入直方图的一个箱中,则该对象被看作正常的,否则被认为是异常点。

对于更复杂的方法,可以使用直方图赋予每个对象一个异常点得分。例如令对象的异常点得分为该对象落入的箱的容积的倒数。

使用直方图作为异常点检测的非参数模型的一个缺点是,很难选择一个合适的箱尺寸。一方面,如果箱尺寸太小,则许多正常对象都会落入空的或稀疏的箱中,因而被误识别为异常点。另一方面,如果箱尺寸太大,则异常点对象可能渗入某些频繁的箱中,因而“假扮”成正常的。

HBOS

HBOS全名为:Histogram-based Outlier Score。它是一种单变量方法的组合,不能对特征之间的依赖关系进行建模,但是计算速度较快,对大数据集友好。其基本假设是数据集的每个维度相互独立。然后对每个维度进行区间(bin)划分,区间的密度越高,异常评分越低。

HBOS算法流程:

  1. 为每个数据维度做出数据直方图。对分类数据统计每个值的频数并计算相对频率。对数值数据根据分布的不同采用以下两种方法:
  • 静态宽度直方图:标准的直方图构建方法,在值范围内使用个等宽箱。样本落入每个桶的频率(相对数量)作为密度(箱子高度)的估计。

    时间复杂度:

  • 动态宽度直方图:首先对所有值进行排序,然后固定数量的个连续值装进一个箱里,其中是总实例数,是箱个数;直方图中的箱面积表示实例数。因为箱的宽度是由箱中第一个值和最后一个值决定的,所有箱的面积都一样,因此每一个箱的高度都是可计算的。这意味着跨度大的箱的高度低,即密度小,只有一种情况例外,超过个数相等,此时允许在同一个箱里超过值。

    时间复杂度:

  1. 对每个维度都计算了一个独立的直方图,其中每个箱子的高度表示密度的估计。然后为了使得最大高度为1(确保了每个特征与异常值得分的权重相等),对直方图进行归一化处理。最后,每一个实例的HBOS值由以下公式计算:

推导过程:

假设样本个特征的概率密度为,则的概率密度可以计算为:

两边取对数:

概率密度越大,异常评分越小,为了方便评分,两边乘以“-1":

最后可得:

总结

  1. 异常检测的统计学方法由数据学习模型,以区别正常的数据对象和异常点。使用统计学方法的一个优点是,异常检测可以是统计上无可非议的。当然,仅当对数据所做的统计假定满足实际约束时才为真。
  2. HBOS在全局异常检测问题上表现良好,但不能检测局部异常值。但是HBOS比标准算法快得多,尤其是在大数据集上。

练习

class pyod.models.hbos.HBOS(n_bins=10, alpha=0.1, tol=0.5, contamination=0.1)

Parameters

  • n_bins (int, optional (default=10)) – The number of bins.
  • alpha (float in (0, 1*)**,* optional (default=0.1)) – The regularizer for preventing overflow.
  • tol (float in (0, 1*)**,* optional (default=0.5)) – The parameter to decide the flexibility while dealing the samples falling outside the bins.
  • contamination (float in (0., 0.5*)**,* optional (default=0.1)) – The amount of contamination of the data set, i.e. the proportion of outliers in the data set. Used when fitting to define the threshold on the decision function.
from pyod.models.hbos import HBOS
from pyod.utils.data import evaluate_print
from pyod.utils.data import generate_data
from pyod.utils.example import visualize


contamination = 0.1  # percentage of outliers
n_train = 200  # number of training points
n_test = 100  # number of testing points

X_train, y_train, X_test, y_test = generate_data(
    n_train=n_train, n_test=n_test, contamination=contamination)

# train HBOS detector
# HBOS(alpha=0.1, contamination=0.1, n_bins=10, tol=0.5)
clf_name = 'HBOS'
clf = HBOS()
clf.fit(X_train)

# get the prediction labels and outlier scores of the training data
y_train_pred = clf.labels_  # binary labels (0: inliers, 1: outliers)
y_train_scores = clf.decision_scores_  # raw outlier scores
 
# get the prediction on the test data
y_test_pred = clf.predict(X_test)  # outlier labels (0 or 1)
y_test_scores = clf.decision_function(X_test)  # outlier scores
 
# 使用ROC和Precision @ Rank n评估预测pyod.utils.data.evaluate_print()。
 
from pyod.utils.data import evaluate_print
# evaluate and print the results
print("\nHBOS On Training Data:")
evaluate_print(clf_name, y_train, y_train_scores)
print("\nHBOS On Test Data:")
evaluate_print(clf_name, y_test, y_test_scores)

visualize(clf_name, X_train, y_train, X_test, y_test, y_train_pred,
          y_test_pred, show_figure=True, save_figure=False)

HBOS On Training Data:
HBOS ROC:0.9919, precision @ rank n:0.8889

HBOS On Test Data:
HBOS ROC:0.9922, precision @ rank n:0.8


文章转载自高級白,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论