AuditNLG: 一个开源库,可帮助降低使用生成式AI语言模型时的风险。

提供并整合了最先进的技术,用于检测和改进可信度,使得整个过程简单易行,支持三个方面的可信度检测和改进:事实性、安全性和约束性。可以用于确定输入到或输出自生成式AI模型的文本是否存在任何可信度问题,并提供输出替代方案和解释

Auditing Generative AI Language Modeling for Trustworthiness' Salesforce

GitHub: github.com/salesforce/AuditNLG 

内容中包含的图片若涉及版权问题,请及时与我们联系删除