他自己介绍:(该项目)主要是为了解决怎么在一台机器上训练和使用很多个异常检测算法,它可以有效的做到在加速的同时不影响预测的精度(有时候还有微弱的提升)。它主要是通过三个手段:(1)是对数据进行随机降维(2)用监督模型来拟合无监督模型(3)假设当电脑有多核的情况下,更均衡的把训练和预测任务分配到每个核上。
在实验中(训练600个各种各样的异常检测算法),可以有效的节省百分之40左右的时间。从发布起,已经被下载了超过70万次,和被运用于多个商业项目中。项目的论文在投。
GitHub上的项目介绍:
异常检测(OD)是一项关键的数据挖掘任务,用于从具有大量高风险应用程序的常规样本中识别异常对象,包括欺诈检测和入侵检测。由于缺乏基准真相(ground truth)标签,从业人员通常必须构建大量异构的无监督模型(即不同的算法和超参数),以便通过集成学习进行进一步组合和分析,而不是依赖于单个模型。但是,这在高维大型数据集上产生了严重的可伸缩性问题。
SUOD(可扩展无监督离群值检测)是用于大规模无监督异类离群值检测器训练和预测的加速框架。它着重于在控制检测性能下降的同时,在三个互补方面进行加速(用于高维数据的降维,用于复杂模型的模型逼近以及用于分布式系统中任务负载不平衡的执行效率提高)。
自2019年9月成立以来,SUOD已成功用于各种学术研究和行业应用,下载量超过70万,其中包括PyOD和IQVIA医疗索赔分析。
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢