随着人工智能现在为微软的Bing和谷歌的Bard搜索引擎提供动力,出色和聪明的对话式人工智能似乎近在咫尺。但对话式人工智能也有令人瞠目结舌的时刻,包括随意发表记者丑陋,宣布对陌生人的爱,或大谈接管世界的计划等令人不安的评论。
人类通常非常善于避免口误、失误和假动作。相比之下,聊天机器人却经常犯错。了解为什么人类擅长于此,就能澄清我们何时以及为何信任对方--以及为什么目前的聊天机器人不能被信任。
Getting it wrong
对于 GPT-3,只有一种方法可以说错话:对最后几个词做出统计上不太可能的回应。 它对上下文、情况和适当性的理解只涉及可以从用户提示中得出的内容。 对于ChatGPT,以新颖有趣的方式稍微修改一下。 除了说一些统计上可能的事情外,模型的反应还得到了人类评估者的强化:系统输出一个反应,人类评估者要么将其强化为好的,要么不强化(对评估者来说这是一个令人痛苦、痛苦的过程)。 结果是一个系统不仅会说出似是而非的话,而且(理想情况下)还会说出人类认为合适的东西——如果不是正确的话,至少不会令人反感。
但这种方法使所有聊天机器人都面临着一个核心挑战。 在人类谈话中,有无数种方式可以说错话:我们可以说一些不恰当的、不诚实的、令人困惑的、无关紧要的、冒犯性的或纯粹是愚蠢的话。 我们甚至可以说出正确的话,但会因语气或重点不正确而受到指责。 在我们与他人打交道时,我们的一生都在探索无数的对话矛盾。 不说错话不仅仅是谈话的重要组成部分; 它通常比对话本身更重要。 有时,闭嘴可能是唯一正确的做法。
考虑到说正确话的方式很少,而说错话的方式有那么多,令人震惊的是,人类犯的错误并没有比他们犯的更多。
我们如何驾驭这种不说错话的危险局面,为什么聊天机器人不能有效地驾驭它?
更多观点,点击跳转。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢