Enhancing Reasoning Capacity of SLM using Cognitive Enhancement

2024年04月01日
  • 简介
    大型语言模型(LLMs)已被应用于自动化网络安全活动和过程,包括网络调查和数字取证。然而,使用这样的模型进行网络调查和数字取证应该考虑问责和安全性方面的问题。问责确保模型具有提供可解释的推理和结果的手段。这些信息可以通过显式提示请求提取。对于安全性方面的考虑,处理数据时涉及的隐私和机密性至关重要。处理此类问题的方法之一是使用本地实例处理数据。由于本地可用资源(即内存和GPU容量)的限制,通常会使用较小的大型语言模型(SLM)。与LLMs相比,这些SLMs具有显着较少的参数。然而,这种大小缩小具有明显的性能降低,特别是在提供推理解释时。在本文中,我们旨在通过整合人类用于解决问题的认知策略来缓解性能降低。我们将其称为通过提示进行认知增强。我们的实验表明,当应用这些增强时,SLMs的性能显着提高。我们相信我们的探索研究为进一步研究认知增强用于优化SLM的网络安全应用铺平了道路。
  • 图表
  • 解决问题
    如何通过认知增强来优化小型大语言模型(SLM)在网络安全应用中的表现?
  • 关键思路
    通过使用人类问题解决的认知策略,提高SLM的性能。
  • 其它亮点
    实验表明,在应用认知增强的情况下,SLM的性能得到了显著提高。这项研究为进一步探索认知增强优化SLM在网络安全应用中的应用奠定了基础。
  • 相关研究
    最近的相关研究主要集中在使用大型语言模型(LLM)自动化网络安全活动和流程方面,但是本文强调了在处理数据时需要考虑隐私和机密性,并提出了使用本地实例来处理数据的方法。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论