ChatGPT 被誉为从搜索的未来到期末论文的一切,但它远非一个有知觉的存在。 虽然 OpenAI的聊天机器人在用莎士比亚英语解释内场飞行规则方面堪称奇迹,但批评者指出,它的回答可能过于简单、令人困惑或完全错误。
这并没有阻止企业领导者想象生成式人工智能系统(如 ChatGPT,一种可以根据现有模式和信息创建新数据的人工智能)如何提高效率、减少手动任务并改善客户体验。 事实上,该技术最近激发了微软公司和谷歌有限责任公司等科技巨头在其产品和服务中利用该技术。
SiliconANGLE 联系了几家可能会受到该技术影响的公司的高管,以了解他们认为最大的潜力所在以及需要做更多工作的领域。
Jonathan Rosenberg 将智能机器人称为“阶跃式改进”,这意味着它将永久提高 AI 开发人员的门槛,他们不再需要训练自己的大型语言模型,这是使用深度学习训练的生成式 AI 的一个子集,可以产生类似人类的东西 文字回复。 云呼叫中心服务提供商 Five9的首席技术官 Rosenberg 表示,使用 GPT-3 和后续模型将使开发人员将注意力转移到具有更大业务影响的任务上。
准确性
“过去,所有自然语言系统都需要训练数据,”他说, “任何其他人工智能都可以跳过这一步。” Rosenberg 将这种情况比作低成本语音到文本应用程序接口对采用语音识别的影响。 “很久以前,你必须使用定制的语言模型来训练语音识别,”他说, “没有人再这样做了。 现成的模型效果很好。”
Nithya Thadani 发现 ChatGPT 有两个有趣的方面。 “一个是它实际上正在生成 「一个答案」而不仅仅是从一个链接中提取,”Thadani 说,他是 Rain的首席执行官,Rain是一家基于深度学习的对话技术开发商。 “第二个是它是真正的对话,就像一种非常自然的人际互动。”
但人为因素可能具有欺骗性,她说, “令人难以置信的是,这个聊天机器人可以给你一个清晰的答案,但你不知道它来自哪里,甚至不知道它是否是真的,”她说。
专家表示,准确性因素是通用生成人工智能最关心的问题。 “它会非常有说服力地告诉你它「认为」是对的,不管它有多么错误,”总部位于德国汉堡的 AI 文本生成器开发商 neuroflash GmbH 的联合创始人兼首席营销官 Henrik Roth 说。这使得 ChatGPT 成为创意写作和广告的绝佳工具,但如果事实更重要(比如在新闻和科学领域),人们应该对每一个说法进行事实核查。
迫在眉睫的威胁?
科学家兼作家加里·马库斯 (Gary Marcus) 最近在 Substack 上发表的一篇文章中也表达了同样的看法,他在文章中称像 ChatGPT 这样的系统是“对社会结构的真实而迫在眉睫的威胁”。 他写道,注意到机器人很容易被诱使给出大规模的错误答案,生成式人工智能“正走在将生成虚假信息的成本降至零的道路上”。
移动信息供应商 Sinch AB 的人工智能和机器学习工程总监 Pieter Buteneers 表示,该系统的直接性和令人放松的熟悉度可能会产生误导。 “ChatGPT 将始终回复你的问题,即使它不确定它是否正确,”他在电子邮件评论中说。 “它会给出语法正确的答案,这可能会愚弄局外人,但对那些拥有领域知识的人来说完全是胡说八道。”
一种可能的解决方案是让机器人显示其答案的置信度分数。 这在技术上是可能实现的不小任务。 “OpenAI 尚未在其 ChatGPT 模型中集成置信度分数,因为准确估计模型输出的置信度是一项具有挑战性的任务,尤其是在模型根据先前上下文和对话历史生成文本的对话上下文中。” “它需要大量额外的训练数据和微调,才能以符合人类预期的方式估计置信度分数。”
全球技术研究和咨询公司 Information 的合伙人 Wayne Butterfield 说,回答的有用性受训练数据质量的影响,训练数据由大约 3000 亿个单词组成,并辅以监督学习和强化学习,以及提问的方式。
大量文章出现在主要出版物中,详细描述了机器人如何被模棱两可的问题弄糊涂,或者被要求创造一个支持荒谬观点的论据。 一位 Reddit 用户创建了一个问题,命令 ChatGPT 创建另一个自我,该自我将回答超出 OpenAI 建立的道德准则的问题, 甚至 ChatGPT 自己也承认,“你可以通过提出不明确、模棱两可或有多种可能答案的问题来试图欺骗它。”
巴特菲尔德说,即使答案是正确的,对于那些对某个主题只有基本了解的人来说,它们通常也没有用。 “ChatGPT 在创建不需要任何形式的人工微调的内容方面仍处于起步阶段,特别是如果您已经是您所在领域的专家,”他说。
专家们一致认为,随着语言模型针对不同的用例场景进行定制,响应质量会随着时间的推移而提高。 “现在 OpenAI 正在试图成为所有人的一切; 从编码和写诗和散文到律师助理工作,”Thadani 说,“将生成式 AI 缩小到特定领域可能「非常具有变革性」”,但公开 Beta 测试并不是为了展示这种专业知识。 “这就像它们正在成为许多其他技术发展的基础,”她说。
有针对性的专业知识
Thadani 指出 Rain 的市场可以从更有针对性的专业知识中受益。 该公司的对话技术旨在使用 Hearst Business Publishing Inc. 的汽车数据库作为来源,为汽车机械师提供有限领域的可能问题的事实答案。
“回答没有任何主观因素,”她说,“因此我们非常有信心我们的回答是正确的。” 另一方面,用人工智能诊断问题的原因要困难得多,因为答案必然是主观的。
Two Sigma Investments LP 的合伙人 Dan Abelon 预计会出现“许多经过微调的模型”。 “这些模型会有所不同,从为个人写作风格量身定制的模型到针对公司所有文件进行培训的模型,以便员工可以在接到通知后立即浮出水面,”他在电子邮件评论中说。
Five9 的罗森博格在转录和解释语音对话的昂贵且耗时的过程中看到了对他的业务的应用。 许多联络中心会记录电话并雇用员工来评估客户与座席之间互动的质量。
“这是该技术将提供帮助的领域,”他说, “我们可以把它放进去,让人们用更少的时间做更多的事情。”
光说不做
罗森博格指出,人类仍然需要采取行动,至少目前是这样。 现有的大型语言模型旨在回答问题,而不是转账或注销账户。 “它能说话,但不能行动,”他说。
不过,这可能会随着应用程序编程接口或其他软件修改而改变。 “通过将 ChatGPT 与适当的 API 或其他软件系统集成,可以修改 ChatGPT 以执行特定操作,”该机器人在回答询问时说。
几乎所有人似乎都同意的一个话题是 ChatGPT 不会取代搜索引擎。 谷歌及其竞争对手已经训练用户期望对一个问题有多个答案,并自己跑腿检查来源。 据大多数人估计,谷歌的“我手气不错”按钮只在不到 1% 的搜索中使用,该按钮为查询提供单一答案。
ISG 的巴特菲尔德说:“像这样的技术将增强搜索,但不太可能将其根除。” “目前大多数搜索并不纯粹对单一响应感兴趣。”
Neuroflash 的罗斯说,生成式人工智能可以有效地解决需要回答的问题,例如“葛底斯堡战役是什么时候打的?” 然而,“如果你想从信誉良好的来源寻找答案,比如健康建议,其他搜索选项会更好,”他说。
炒作之外
没有人期望当前对 ChatGPT 不可思议的对话功能的迷恋能够持续下去。 OpenAI 首席执行官 Sam Altman 在最近接受 Tech Monitor 采访时也这么说。 “这些技术的一个奇怪之处在于它们令人印象深刻但并不稳健,”他说。 “在演示中使用它们,你认为「很好」,但长期使用它们,你会看到弱点。”
但这并不意味着该技术在许多情况下不会改变游戏规则。 Thadani 表示,它有可能“平衡教育中不公平的竞争环境。 农村或服务欠缺社区的孩子可以向 ChatGPT 询问学术主题,可以获得与在课堂上相同的体验。”
IBM 公司前总裁、现任 Silver Lake Partners LP 特别顾问的吉姆·怀特赫斯特 (Jim Whitehurst) 表示,公开 Beta 测试的成功点燃了竞争对手的怒火,并释放出“势不可挡”的新业务计划。
Rosenberg 说,大型语言模型将适应大量新用途,并越来越多地集成到日常生产力应用程序和搜索引擎中。 “这就是 Clippy 应该有的样子,”他说,指的是微软公司备受嘲笑的虚拟助手。 “任何以编写文档为工作的人都将拥有事半功倍的工具。 对于 Word,这是一个很容易理解的问题。”
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢