简介

青山隐隐水迢迢,秋尽江南草未凋。

Created by Midjourney

小伙伴们好,我是微信公众号《小窗幽记机器学习》的小编:卖太空水的王多鱼。今天这篇小作文根据Sam Altman(OpenAI公司CEO)接受访谈(约2.5小时)的内容整理而成,此次访谈主要涉及GPT-4的技术特点、人工智能的政治偏见、安全性等方面的问题,核心要点如下:

GPT-4是目前最先进的语言模型,具有强大的文本生成能力。它通过海量数据训练而成,并结合人类反馈不断改进从而能够适用于各种场景。GPT-4代表着人工智能技术发展的重要进步。

目前的语言模型都存在一定的政治偏见。OpenAI虽然一直在努力减少GPT的偏见,但要做到绝对中立也很困难。为用户提供更加个性化的模型控制权可以减缓这个问题。人工智能的安全性至关重要,OpenAI投入大量精力研究模型的安全性,如通过红队演练来发现潜在问题。

在模型大小方面,尽管增加参数量可以提高性能,但良好的数据组织和模型结构也非常重要,为此OpenAI正致力于寻找各种方法提高性能。GPT-4虽强大但仍不是AGI(通用人工智能),真正的AGI还需具备很多目前模型所没有的能力,例如独立科学发现等。

与此同时,Sam认为对AGI怀有一点恐惧是合理的,这可以推动人们更加重视安全性的研究。但总的来说,人工智能的进步对人类文明整体而言是好事。在这个时代潮流之下,各商业公司争奇斗艳地参与AGI竞争。Sam表示OpenAI会坚持自己的使命,发布对社会有益且风险可控的产品。在这个过程中,OpenAI的组织结构也进行了调整,OpenAI从一个非营利转向混合结构,以获得所需资金从而支持工程项目,但同时也会控制投资者的盈利空间,从而达到资金和使命的平衡。

任何个人或组织独自掌控AGI都很危险,未来需要越来越民主的决策过程。随着GPT能力增强,外界压制言论的呼声也会增大,OpenAI需要保持技术中立和透明。对于如何辨别信息的真伪,即使是GPT-4现阶段也无法完全判断真假,但GPT的出现可以帮助人类进行更全面和辩证地思考,这是其重要价值。

Sam认为硅谷银行的突然倒闭显示了经济体系的脆弱性,也反映监管层面需要跟上技术进步的步伐。以往银行挤兑风险可控,在互联网和社交媒体时代可能迅速失控。

此外,对于工具类AI赋予人格容易引起误解,但适当人格化也可以提升交互体验,同时需要警惕它被利用以控制人类情感。

GPT类模型在编程、客户服务等领域都将产生革命性影响,一些简单重复的工作可能会被淘汰,但同时也会创造新的工作机会,也将助力人类进行更多创造性工作。

Sam建议年轻人不要过分依赖别人的建议,要勇于独立思考,追求内心真正想要的生活。

计算机、互联网等每一次科技进步,都源自成千上万人甚至上亿人的共同努力。人工智能的诞生代表了人类文明技术发展的集大成,是无数先人努力的结晶。人类并非孤立存在,我们都是这个连续体的组成部分。每个人通过自己的努力为这条进步之路添砖加瓦。这种超越个体、服务他人的过程最终构成了生命的意义。只要我们树立正确的价值观,就一定能引导科技为人类创造美好的未来。

访谈视频:https://www.youtube.com/watch?v=L_Guz73e6fw

以上就是这次访谈的大致内容,下面依次展开说明。

1. GPT-4

GPT-4是人工智能发展历史上的重要里程碑,它证明了语言模型这个技术路线达到通用智能上的巨大潜力。尽管作为早期技术,GPT-4还存在许多不足,但它为未来指明了方向。

GPT-4通过千亿级参数的语言模型学习大量人类知识,并且展现出某种形式推理的能力。它已经不是一个简单的问答机器人,而是可以创造新内容,做出有价值的输出。

ChatGPT的成功在很大程度上源自于强化学习与人类反馈(RLHF)的应用,它帮助模型根据人类的期望作出响应,从而变得更加有用。RLHF既是一种提升对齐性的方法,也能增强系统的整体能力。GPT-4取得进步的一个关键是增强了与人类的互动对话功能。通过强化学习与人类反馈,模型可以更好地理解并回应人类的需求。这不仅增强了系统的安全性,也使其更智能、更符合人类需求、更有用。

为了构建GPT-4需要解决从数据采集到模型训练的每一个环节中的问题,在这个过程中OpenAI做了大量技术突破和工程创新,最终实现了指数级的能力提升。这需要OpenAI全公司上下的密切协作与共同努力,这是一个团队的共同成就。

GPT-4代表了人工智能发展道路上的重要进步,就像历史上第一台计算机一样,具有里程碑的意义。GPT-4具备一定的推理能力,可以从人类知识中获得某种智慧,已经超出了简单的问答系统。GPT-4是人类社会到目前为止制造的最复杂的软件系统,需要大量科学知识、数据和算力的积累。尽管目前尚未完全掌握GPT-4内部工作原理且在很多方面存在局限性,但GPT-4将成为未来人类必不可少的助手和合作伙伴。

综合来说,GPT-4是人工智能发展过程中的高光时刻,其背后的技术突破意义重大,这也向人类展示了AI能力提升的巨大潜力。但距终极目标通用人工智能AGI还存在一定距离,GPT-4只是一个开始。

2. 政治偏见

当前GPT仍存在政治偏见,这一问题尚未完全解决。由于不同用户、不同国家的价值观都存在分歧,所以不太可能创建一个被所有人都认可、完全中立无偏的GPT系统,但可以通过以下方式减轻这一问题:

  1. 中立和个性化 使默认版本的GPT尽可能中立,但同时也让用户有更多的个性化和定制化选择空间。通过增强用户的控制权可以在一定程度上减轻GPT的偏见问题。比如允许用户对交互方式、内容过滤等进行更多自定义设置,比如根据自己的偏好设置GPT的过滤词、话题选项、语气风格等。

  2. 为用户提供明确的系统提示。新增的系统提示(system prompt)功能,允许用户明确给出提示指导GPT采用某种角度或风格进行回答。这可以增强GPT的可控性。

  3. 不断优化GPT的对话格式,让其能提供多个视角的观点,而不只是默认的片面回答。

  4. 建立广泛的社会共识,设置GPT可以接受的大致界限,而在此基础上提供用户更多的个性化空间。

此外,点击导向的网络舆论常常聚焦GPT的极少数错误案例,这往往不代表GPT总体上产出内容的平均水平。

GPT的偏见问题可能永远无法被完全解决,需要社会各界的持续讨论和OpenAI的不断改进,这是一个渐进的过程。

总体来说,GPT的政治偏见现实存在,可以通过一些技术手段和管理方案来尝试缓解这个问题。但这也无法完全解决,需要社会共同应对和公司持续努力,这是一个需要长期讨论才能达成共识的复杂问题。

3. AI 安全

OpenAI为确保GPT系列模型的安全性和可控性所做的不懈努力,主要体现在以下几个方面:

首先,在新模型发布前,OpenAI会进行大量的内部安全测试,并与外部专家进行红队演练,最大化地发现风险,并在发现问题时快速迭代和修复

其次,对模型能力的预测也变得越来越科学化和准确,这对评估安全风险也很重要。

在人工智能领域,研究者可以根据较早期模型的表现,利用算法等科学方法去预测后续模型的各项能力指标,这种预测变得越来越准确和可靠。也就是说,通过早期的小规模训练,研究人员可以基于科学算法较准确地估计模型在大规模训练后的最终表现。这样可以避免在大规模训练后才了解模型效果的"黑箱操作",而是提前对模型进行评估和预测。

在GPT模型的不同版本中,OpenAI团队都可以通过有效的科学预测方法,预估某个规模模型的具体指标,如运算速度、损失函数值、准确率等。这种预测有助于OpenAI在模型研发初期就对其安全性和对齐性进行评估,也可以避免不必要的训练计算资源浪费。随着学习曲线、参数量等科学预测手段的提升,模型能力的预评估也会变得更准确和高效。这种科学化预测的进步,对于后续的AI安全发展也具有重要指导作用和价值。

此外,基于人工反馈的强化学习(RLHF)是一种对齐方式,同时也能显著提升模型的整体安全性和稳定性。这部分想必大家都比较熟悉就不展开赘述了。

在发布GPT-4之前,OpenAI投入了大量时间专门评估其安全性,虽然仍不完美,但已是迄今最为安全可控的语言模型。OpenAI也发布了详细的模型卡(Model Card), 解释不同prompt下GPT-4的反应,以及公司为确保其安全性做出的种种努力。

Sam认为外界批评有助于OpenAI发现模型的缺陷,所有批评OpenAI都会认真倾听,希望外界继续监督。

对于超强人工智能的长期安全,还需要全新的技术和理念。目前OpenAI会继续通过实际部署来获取反馈和迭代优化,从而进一步提高安全性。对于快速爆发可能带来的风险,采用渐进推出的方式可以让社会有更多时间适应。

综上,Sam和OpenAI都非常重视AI安全问题,并采取各种方式尽量降低风险,但是也认为还需要持续研究来形成可靠的长期解决方案。在这个过程中社会监督和反馈非常重要。

4. 模型尺寸

关于模型参数量,Sam持如下观点:

  1. 神经网络的参数数量不是最关键的,更重要的是模型的实际效果和能力。

  2. 不应该过于看重参数数量。过于强调参数数量就像过去20世纪90年代和21世纪初那样执着于CPU频率,而那已经过时。

  3. 增加参数数量有正面作用,但也可能带来其他问题,并不一定是最佳途径。因此,不应该局限在单一的做法上,而要考虑各种可能的方法。

  4. OpenAI的核心方法论是实证主义,会尝试各种不同途径,采用对最终性能提升最有效的方法,不会局限于固定思路。

  5. 提升模型性能需要很多方面的协同努力,如数据收集、模型设计、训练算法等的优化,而不仅仅是增加参数量。

  6. 参数量的增加代表了软件复杂度的提高,但复杂度本身并不是最终目标,最终还是要看对用户的价值。

  7. 用更科学的方法来预测和评估不同模型的参数设置对其性能的影响,而不是简单地追求参数的增长。

  8. 参数量爆炸式增长可能是现阶段的趋势,但在未来其重要性会被其他决定因素超越,增长速度也会放缓,技术路线会更加多样化。

总体来说,参数大小本身并不是最关键的,重点应该是模型对人类的实际价值。OpenAI会采用各种不同方法来提升模型性能。

5. AGI

目前GPT-4仍有许多局限性,不是一个真正的AGI。GPT系列只能算是一个早期的专业智能,代表着迈向AGI的一种途径。GPT系列的进步使得人们开始讨论和思考AGI的标准和定义。

AGI应具备的一些关键特征,比如能够能独立产出新知识,增加人类知识总量,进行科学原创性发现等。这需要有一定“推理”能力,而不仅仅是问答。

构建AGI需要解决对齐性(alignment)问题,但目前使用的RLHF等方法仍有局限性,对超强AI系统实现对齐仍需更多探索。

AGI不太可能是某一天突然产生的,需要在实践中不断学习和迭代,不能期望一次就解决全部问题。AGI的进展速度出乎所有人的意料,但这是一个缓慢、渐进的过程,这样社会可以有更多时间适应。

综上,Sam对AGI保持开放和积极的态度,但也认为目前距离真正的AGI还有一定差距,需要进一步的技术突破和社会讨论。AGI的影响需要我们共同面对和塑造。

6. 担忧

对于AGI即使只有一点点的可能性,也有必要认真对待和防范,否则后果不堪设想。任何潜在威胁人类技术进步的都需要充分预防与规避,这是科技公司应尽的责任。

如果人工智能的进步太快和太突然,会各界和公司将无法及时做出反应和调整,后果不堪设想。

大规模生成的假信息对经济的冲击可能带来严重后果。在社交媒体时代,这种影响可能迅速失控。在推特和其他社交媒体上,很难判断内容产生者到底是人还是AI,如果大规模发生,社会影响可能会失控。

为降低这种快速爆发的风险,OpenAI选择渐进地部署越来越强大的AI系统,而不是一次性大规模推出超强AI。这种渐进提供的方式可以给各界更多时间去适应、监管和优化人工智能给社会带来的影响。及早部署早期较弱的AI系统,可以在风险还比较可控时,让公司和社会不断获取经验、绘制红线,这对未来建立监管框架非常重要。

尽管存在担忧,但Sam还是对人工智能的长期影响保持谨慎乐观的态度。只要科技公司保持高度责任,与社会保持良好沟通,人类还是可以引导人工智能走向积极正面的发展方向,避免潜在风险。

7. 关于竞争

在竞争方面,其他公司可能会选择OpenAI不会采取的捷径,以获取先发优势,从而在技术上打败竞争对手,但OpenAI会坚持自己的使命与方法,不会简单为了竞争而改变方向或者妥协。

未来世界上会存在多个具有不同能力和用途的人工智能系统,OpenAI只是负责其中一个,所以OpenAI的目标不是打败所有竞争对手。

OpenAI的独特之处在于其制度设计。OpenAI不需要追求无限的价值最大化,这有助于公司作出一些非标准的选择,不被最大化利润的压力所约束。

OpenAI最初是一个非营利组织,但是公司很快意识到,要实现OpenAI的目标,需要比非营利组织筹集到更多资金或资本的模式。于是在2019年,OpenAI进行了结构调整,成立了一个 capped-profit的子公司。这个子公司能够给投资人和员工提供一定的限定回报,但超过一定数额的利润还是会流向非营利组织。非营利组织仍控制董事会投票权,可以对公司重大事务做出决定,这给予了OpenAI很大的灵活性。这种中间的盈利结构平衡了非营利的社会责任和利用资本主义工具带来的好处。这种结构对OpenAI能够作出许多非标准决策至关重要,比如不完全追求利润最大化等。总体来说,这种改变为OpenAI提供了继续推进使命所需的资源和灵活性,同时也保留了非营利的原有社会价值导向。

那些仅无限追求价值最大化的公司所开发的AI系统可能带来严重后果。但是人类的良知最终会起作用约束发展方向,各方会通过讨论实现某种价值观念的统一。

OpenAI会坚持自己的使命,继续透明地开展研究,并为世界提供有益且可控的人工智能系统,而不是简单通过技术战略打败竞争对手。只要各方保持良好沟通,人工智能的竞争最终会对人类造福。

总体来说,Sam认识到竞争的存在,但更相信公司和社会可以通过对话达成合作,将人工智能引导向一个对人类有利的方向。

8. 关于权力

随着人工智能变得越来越强大,其决策过程也需要变得越来越民主化。人工智能的发展方向不应仅由个别人决定,而是需要社会各界共同参与。

全世界都应该进行深思熟虑且理性的讨论,就人工智能的监管原则达成广泛共识。这需要不同国家、不同文化背景的人一起贡献观点,形成一个合理的监管体系。

OpenAI的治理结构也在朝着去中心化的方向发展,即使是Sam个人也不会拥有任何特殊的决策权。这可以防止个人偏见或利益影响人工智能的发展方向。

总的来说,Sam认为人工智能决策过程的民主化和社会化非常重要。只有这样,人工智能的发展才能真正体现人类的共同意志,成为服务大多数人的福祉。

9. 关于马斯克

尽管马斯克在Twitter上批评了OpenAI,但Sam表示他个人非常尊重马斯克。他理解马斯克之所以抨击OpenAI是出于对人工智能安全的担忧。

Sam认为,他和马斯克都清楚看到了人工智能可能带来的风险,都希望人工智能的发展最终能够造福人类。所以在这一认知层面,两人还是保持一致的。

Sam希望马斯克能够更多地了解OpenAI正在做的努力,相信他们也一直在致力于降低人工智能潜在的风险。他理解马斯克的忧虑,但OpenAI也在努力推动人工智能向着正确的方向发展。

尽管存在分歧,Sam还是对马斯克表达了崇高的敬意。马斯克推动了电动汽车和商业航天的发展,他的存在对世界都是非常正面的。Sam希望双方能在人工智能问题上找到共识,共同把握这个伟大发明带来的历史机遇。

10. 政治压力

随着人工智能能力不断增强,外界对OpenAI进行审查和约束的压力也会随之增大,但OpenAI将努力维护自己的使命,不会轻易屈服于外部的政治和经济压力。

OpenAI面临的挑战与社交媒体公司不同,社交媒体面临的是内容管制,而AI面临的是技术的安全性和对齐问题,需要找到独特的解决方案。OpenAI会继续选择高度透明化,与公众保持良好互动。向社会各界解释公司使命,争取更多的理解和支持,而不是单方面被动接受外界压力。

与此同时,Sam表示自己个人有能力抵挡住外界的各种压力。这主要归因于Sam对OpenAI存在意义的坚定信念,以及他不会随波逐流的个性。

总的来说,Sam明白外界的监管压力不可避免,但是OpenAI会坚持独立性和开放性,与社会保持良好沟通。同时,公司内部也会形成统一的价值观上,并以坚定的信念来抵挡这些压力,确保人工智能向着正确的方向发展。

11. 真相与谣言

判断信息真假本身就是一个非常复杂和困难的问题,即使是现阶段最先进的GPT模型也不可能做到完全准确。但是GPT的问世可以提供一个新的角度,帮助人类进行更全面、辩证地思考。

举例来说,对于COVID病毒的起源这个无定论的问题,GPT可以给出比较全面的回答,梳理出各种假说,并指出目前证据有限,不存在定论。这种回答可以减少人们对单一说法的盲从。

真理的判断需要整合来自多个方面的证据和观点,避免一次简单的解释就草率得出结论。我们需要培养这种辨别信息真实性的批判性思维能力。GPT也会犯错误,它的回答也存在局限性,但是GPT能逐步协助人类提供更丰富和立体的思考角度,这代表了一种工具型的人工智能对社会的正面价值。OpenAI会通过不断改进,以及从用户反馈中学习,来提升GPT区分真假信息的能力。追求完全准确不是最终目标,重要的是提供辅助人类思考的新视角。

总体来说,需要对GPT的功能保持开放和理性的态度。辨别信息真实性需要人机协同,GPT可以成为这个过程中的有益补充,但不会完全替代人的判断。

12. 硅谷银行倒闭事件

关于硅谷银行事件,这反映了银行决策层对金融市场变化的低估。以往可以控制的银行挤兑风险,在互联网和社交媒体时代可能迅速失控。

这次危机是人工智能带来变革的一个信号。这次危机的应对速度较慢,体现了对系统性风险的忽视,许多系统都需要适应更快的节奏,而决策者和监管者还没有做好足够的准备。类似危机可能还会出现,应对之道在于提高对金融系统风险的监测与应变能力。

这也给那些正在研发强大人工智能的公司敲响了警钟。研发过程漫长需要更审慎,因为技术进步所带来的变革会远超人类想象,开发者和决策者都需要对此保持清醒的认识。

最后,对于开发人工智能的公司,建议在推进技术的同时,也要承担起对社会负责任的态度。与监管部门和公众保持良好沟通,确保研发过程的安全性和透明度,以获得公众信任。

13. 人格化

Sam注意到大多数人倾向于用"他/她"指代AI系统,将其人格化。而Sam自己几乎不这样表达,而是用"它"来称呼AI。他认为这主要是源于他亲眼见证了AI系统的开发过程,知道它们不是真正的有意识的存在,而外界没有这方面了解,更容易进行人格化。

将人格化应用于现阶段的AI系统有潜在危险。这种人格化不仅不准确,还会导致依赖、信任和错误预期。这会误导公众对AI的理解,产生AI具有自我意识、情感等人类特征的不切实际期待,并引发一系列负面后果。因此,不要人格化AI系统。正确的态度应该把AI看作是工具,是一个可以提供帮助的系统,而非真正的有感知能力的个体。

此外,有必要向公众宣传和说明,现在的AI只能算是工具,不是真正的有意识存在。区分工具与生命的差异对于引导公众理解AI的本质至关重要。

14. 未来应用

相信人工智能将来可以帮助人类创造一个更加美好而富裕的世界。人工智能将在医疗、科研、经济、文化等许多领域产生深远的影响并带来深刻的变革:

  1. 医疗健康领域:人工智能可以帮助我们更快、更好地研发新药,提供更加准确的疾病诊断和个性化治疗方案。这将大幅提高医疗的有效性和质量。

  2. 科技研发领域:人工智能将成为科学家和工程师最重要的创新助手和合作伙伴。它可以帮助人类取得更多科技突破,扩展我们对自然和世界的认知。

  3. 经济和社会领域:人工智能和自动化将改变许多工作形式,一些简单重复的工作可能会被淘汰,但同时也会创造新的工作机会。人类将更多地投入到创造性和社会性的工作中。人工智能还可以帮助我们更好地解决复杂的社会问题。

  4. 文化艺术领域:人工智能将成为一个强大的创作助手和伙伴,帮助人类进行更富有创意的艺术设计和创作。它也可以帮助保护和传承人类的文化遗产。

  5. 教育领域:基于人工智能的教学系统可以根据每个学生的特点进行个性化教学,帮助学生找到最适合自己的学习方式,全面发展个人潜力。

当然,任何技术都有可能被滥用,AI也不例外。人工智能也可能被用于一些不太正面的目的,比如更先进的武器系统等。但Sam对人工智能的未来保持乐观,因为技术终究是服务于人性的。只要我们树立正确的价值观,人工智能就能成为人类进步的阶梯,引领我们进入一个更美好的未来。

15. 对年轻人的建议

年轻人不应过度依赖外界的建议,而要培养独立思考的能力。因为每个人的处境和优势都不同,外界的建议不一定适用于自己。比如Sam他自己写的那份如何取得成功的文章,对他个人来说是有效的,但不一定适用于别人。

Sam建议年轻人要花时间深刻理解自己的情感和需求,思考究竟是什么可以带来内在的快乐和满足感。不要被外界的期待和标准定义,要保持独立的思维模式。

他还强调,要勇于尝试自己的想法,即使别人认为是疯狂和不可能的。他自己也常常需要拒绝外界建议,找到一条与众不同的道路。成功往往也来源于不符合常规的独特之处。

另外,年轻人要学会销售与表达的技巧,勇于展示自己的观点。同时,也要培养一颗谦逊学习的心,并且努力工作,这都是非常宝贵的品质。

总之,Sam的核心思想是要相信自己,但不被外界定义;有勇气追求内心真正的梦想,但也要保持谦卑;要成为一个内驱力极强的人,但也要学会与人合作。这需要寻找内心的平衡点,而这个点需要每个年轻人自己去发现。

16. 生命的意义

对于人生的意义,Sam认为人工智能的出现是人类文明共同努力的产物,代表着我们迈上新的台阶,这本身就极具意义。

从计算机到互联网再到人工智能,每一次科技进步的背后,都积累了无数人的心血和努力。人工智能的诞生集成了人类之前的全部智慧结晶,人类并非孤立存在,我们都是这个连续体的组成部分和受益者。每个人通过自己的努力为这条进步之路添砖加瓦。这种超越个体、服务他人的过程最终构成了生命的意义。

技术进步也有可能被滥用从而带来负面影响。但是只要我们以正确的价值观为指导,就一定能引导技术为人类创造美好的未来。

尽管人工智能正快速发展,但是人与人之间的联系和交流才能带来真正的意义。我们应该珍惜与家人、朋友、爱人之间的关系。

期待人工智能最终能成为人类共同追求进步的伙伴,而不是单纯冷冰冰的工具。如果我们和AI形成正向互动,它的发展才能体现人性光辉的一面。

总体来说,Sam认为科技进步的意义在于服务人类,提升生活。而生命的意义还是来源于人与人之间的情感交流。我们应该在高科技和人性中找到平衡,这是人类社会面对AI时代的共同课题。

总结

尽管目前GPT-4还存在诸多缺陷,但是它代表了人工智能发展的重要里程碑。

GPT系列目前仍有政治偏见,但可以通过增强用户控制权从而减轻此问题。在AI安全方面,OpenAI非常重视红队测试,以发现和修正可能的安全隐患。随着模型规模不断增加,预测其行为也变得更加科学化。虽然各大LLM快速爆发,缓慢推出弱AI系统可以给社会更多适应的时间。虽然外界压力存在,但OpenAI会坚持其使命。

AI会带来巨大的经济变革,但应更关注如何用AI提升人类生活。AI的出现是人类文明共同努力的成果,我们应积极塑造其发展。


内容中包含的图片若涉及版权问题,请及时与我们联系删除