OpenAI首席执行官、首席技术官谈AI风险和AI将如何重塑社会

OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)告诉美国广播公司新闻(ABC News)的丽贝卡·贾维斯(Rebecca Jarvis),人工智能将重塑社会,并承认存在风险:“我认为人们应该为我们对此感到有点害怕而感到高兴。”

https://www.youtube.com/watch?v=540vzMlf-54

下面是采访记录:

创建ChatGPT的公司背后的首席执行官认为,人工智能技术将重塑我们所知的社会。他认为它伴随着真正的危险,但也可以成为 "人类迄今为止最伟大的技术",极大地改善我们的生活。

"我们在这里必须小心,"OpenAI的首席执行官Sam Altman说。"我认为人们应该感到高兴,因为我们对这个有点害怕。"

奥特曼坐下来接受了ABC新闻的首席商业、技术和经济记者丽贝卡-贾维斯的独家采访,谈论GPT-4的推出--AI语言模型的最新迭代。

在采访中,奥特曼强调,OpenAI需要监管机构和社会尽可能地参与ChatGPT的推广--坚持认为反馈将有助于阻止该技术可能对人类产生的潜在负面影响。他补充说,他正在与政府官员进行 "定期接触"。

ChatGPT是一个人工智能语言模型,GPT代表生成性预训练转化器。

仅在几个月前发布,它已经被认为是历史上增长最快的消费者应用程序。该应用在短短几个月内就达到了1亿月度活跃用户。根据瑞银的研究,相比之下,TikTok花了9个月才达到这么多用户,Instagram花了近3年时间。

在美国东部时间下午6:30的 "今晚世界新闻与大卫-穆尔 "节目中观看对山姆-奥特曼的独家采访。

虽然 "并不完美",但按照奥特曼的说法,GPT-4在统一律师考试中的得分在90分以上。它在SAT数学考试中也取得了近乎完美的成绩,而且它现在可以熟练地用大多数编程语言编写计算机代码。

GPT-4只是朝着OpenAI最终建立人工通用智能的目标迈出的一步,也就是当人工智能跨越了一个强大的门槛,可以说是人工智能系统普遍比人类更聪明。

尽管他庆祝自己产品的成功,但奥特曼承认,人工智能可能的危险实现让他夜不能寐。

"我特别担心这些模型可能被用于大规模的虚假信息,"奥特曼说。"现在他们写计算机代码的能力越来越强,[他们]可能被用于进攻性网络攻击。"

一个常见的科幻恐惧,奥特曼并不认同。不需要人类的人工智能模型,它们自己做决定并策划统治世界。

"它等待着有人给它输入,"奥特曼说。"这是一个非常受人类控制的工具。"

然而,他说他确实担心哪些人类可能会被控制。"会有其他的人不把我们的一些安全限制放在上面,"他补充说。"我认为,社会有有限的时间来弄清楚如何应对这种情况,如何监管这种情况,如何处理它。"

引用总统弗拉基米尔-普京在2017年开学第一天对俄罗斯学生说,谁领导人工智能竞赛,谁就可能 "统治世界"。

"所以这肯定是一个令人不寒而栗的声明,"奥特曼说。"相反,我希望的是,我们陆续开发出越来越强大的系统,我们都可以用不同的方式将其融入我们的日常生活,融入经济,并成为人类意志的放大器。"

对错误信息的担忧

根据OpenAI的说法,GPT-4与之前的迭代相比有了大规模的改进,包括理解图像作为输入的能力。演示显示,GTP-4可以描述某人的冰箱里有什么,解决难题,甚至可以阐明互联网备忘录背后的含义。

这项功能目前只对一小部分用户开放,包括一组参与测试的视力障碍用户。

但据奥特曼说,像ChatGPT这样的人工智能语言模型的一个一贯问题是错误信息。该程序可以给用户提供与事实不符的信息。

"我最想告诫人们的是我们所说的'幻觉问题',"奥特曼说。"模型会自信地陈述事情,好像它们是完全编造的事实。"

据OpenAI称,该模型有这个问题,部分原因是它使用演绎推理而不是记忆。

"我们看到从GPT-3.5到GPT-4的最大区别之一是这种出现的更好的推理能力,"OpenAI的首席技术官Mira Murati告诉ABC新闻。

"我们的目标是预测下一个词--有了这个,我们看到有这种对语言的理解,"穆拉蒂说。"我们希望这些模型能更像我们一样看待和理解这个世界。"

"认为我们创建的模型的正确方式是一个推理引擎,而不是一个事实数据库,"阿尔特曼说。"它们也可以充当事实数据库,但这并不是它们真正的特别之处--我们希望它们所做的是更接近推理能力,而不是记忆能力。"

阿尔特曼和他的团队希望 "随着时间的推移,这个模型将成为这个推理引擎,"他说,最终能够利用互联网和自身的演绎推理来区分事实与虚构。据OpenAI称,GPT-4产生准确信息的可能性比其前一版本高40%。不过,奥特曼说,依靠该系统作为准确信息的主要来源,"是不应该使用它的",并鼓励用户仔细检查该程序的结果。

对不良行为者的防范措施

ChatGPT和其他人工智能语言模型所包含的信息类型也一直是人们关注的焦点。例如,ChatGPT是否可以告诉用户如何制造炸弹。阿尔特曼说,答案是否定的,因为ChatGPT中编有安全措施。

"阿尔特曼说:"我担心的是......我们不会成为这项技术的唯一创造者。"会有其他人不把我们的一些安全限制放在上面。"

阿特曼说,对于人工智能的所有这些潜在危险,有一些解决方案和保障措施。其中之一。让社会在风险较低的时候玩弄ChatGPT,并从人们如何使用它中学习。

现在,ChatGPT向公众开放,主要是因为 "我们正在收集大量的反馈",Murati说。

随着公众继续测试OpenAI的应用,Murati说,它变得更容易确定哪里需要保障措施。

穆拉蒂说:"人们使用它们的目的是什么,但也有什么问题,有什么弊端,能够介入[并]对技术进行改进,"。阿尔特曼说,让公众与每个版本的ChatGPT互动是很重要的。

"如果我们只是秘密地开发它--在我们的小实验室里--并制造出GPT-7,然后一下子把它丢给全世界......。我认为,这种情况有更多的不利因素,"Altman说。"人们需要时间来更新、反应、适应这项技术,[并]了解缺点在哪里以及可以采取哪些缓解措施"。

关于非法或道德上令人反感的内容,奥特曼说他们在OpenAI有一个政策制定者团队,他们决定哪些信息会进入ChatGPT,以及ChatGPT被允许与用户分享的内容。

"阿尔特曼补充说:"[我们]正在与各种政策和安全专家讨论,对系统进行审计,试图解决这些问题,并推出我们认为安全和良好的东西。"同样,我们不会在第一次就做到完美,但在风险相对较低的情况下,吸取教训并找到边缘是非常重要的。"

人工智能会取代工作吗?

在对这种技术的破坏能力的担忧中,包括对工作的取代。阿尔特曼说,这很可能会在不久的将来取代一些工作,并担心这种情况会有多快发生。

"我认为在几代人的时间里,人类已经证明了它可以奇妙地适应重大的技术转变,"奥特曼说。"但是,如果这在个位数年内发生,这些转变中的一些......。这是我最担心的部分。"

但他鼓励人们把ChatGPT更多的看成是一种工具,而不是一种替代。他补充说,"人类的创造力是无限的,我们会找到新的工作。我们会找到新的事情来做"。

阿尔特曼说,ChatGPT作为人类工具的使用方式超过了风险。

"阿尔特曼说:"我们都可以在我们的口袋里有一个不可思议的教育者,为我们定制,帮助我们学习。"我们可以为每个人提供医疗建议,这超出了我们今天所能得到的东西。"

作为 "co-pilot"的ChatGPT

在教育领域,ChatGPT已经引起了争议,因为一些学生利用它在作业中作弊。教育工作者对这是否可以作为自己的延伸,或者是否会阻止学生自己学习的积极性很纠结。

"教育将不得不改变,但随着技术的发展,它已经发生了很多次,"奥特曼说,并补充说,学生将能够拥有一种超越课堂的老师。"我最兴奋的一个是能够提供个人学习--为每个学生提供伟大的个人学习。"

在任何领域,奥特曼和他的团队都希望用户把ChatGPT当成一个 "副驾驶",一个可以帮助你编写大量计算机代码或解决问题的人。

"我们可以对每个行业都有这样的服务,我们可以有更高的生活质量,比如生活标准,"Altman说。"但我们也可以拥有我们今天根本无法想象的新事物 -- 所以这就是承诺。"

内容中包含的图片若涉及版权问题,请及时与我们联系删除