奥特曼万字访谈:揭秘GPT-5幕后艰辛,宣告超级智能前夜已至

内容转载自:36氪的朋友们

划重点:

GPT-5编程与创作能力跃升,7秒完成复杂编程,写作更自然,成“即时创建定制软件” 标志性工具。

奥特曼预计两年内或出现公认的重大科学突破,目前需要的是提升模型的认知能力。

AI的发展受四大核心瓶颈制约:算力、数据、算法设计以及明确的产品目标,共同决定AI的进化速度和落地价值。

对愿意投入“认知受力时间”的人,AI是倍增器;未来一个人就可能创办十亿美元级公司,创造力和执行力的门槛被显著降低。

奥特曼万字访谈:揭秘GPT-5幕后艰辛,宣告超级智能前夜已至

8月8日消息,在GPT-5发布后,OpenAI首席执行官山姆·奥特曼(Sam Altman)做客Huge Conversations访谈,接受了Youtube知名主播克莱奥·阿布拉姆(Cleo Abram)的独家专访,深入探讨了人工智能(AI)的未来发展及其对社会的深远影响。他一边回忆11 岁时在计算器上艰难编写“贪吃蛇”的日子,一边展示 GPT-5 用 7 秒生成同款游戏的神奇——这不仅是一次技术展示,更像是在宣告:超级智能的前夜已然到来。

在这场超过万字的对话中,他首次谈到了 GPT-5 背后的研发弯路与惊喜,坦言 AI 发展的“四大瓶颈”,并大胆押注 2027 年出现改变人类认知的科学突破。

奥特曼万字访谈:揭秘GPT-5幕后艰辛,宣告超级智能前夜已至

以下为访谈精华全文:

01.奥特曼回忆童年编程梦,GPT-5七秒造出贪吃蛇

阿布拉姆:OpenAI刚刚发布了GPT-5,坐在我旁边的也正是OpenAI的首席执行官奥特曼。OpenAI正在重塑行业。现在,他们正试图构建一种在几乎所有领域都远超人类的超级智能,并刚刚发布了迄今最强大的模型。

我们正在经历一个深刻的时刻。大多数人一生从未经历如此巨大的技术变革,但它正在我们周边发生。在这次对话中,我想与奥特曼一起进行“时间旅行”,探索他试图构建的未来,让你我都能真正理解即将发生的事情。你好奥特曼,感谢你参与这次采访。

奥特曼:当然,很高兴参与。

阿布拉姆:在开始之前,我想先说明我的目标。我不会问关于估值、AI人才争夺战或融资的问题,这些在其他地方已有大量报道。

奥特曼:看起来确实如此。

阿布拉姆:我们节目的目标是探讨如何利用科学和技术让未来更美好。我们相信,如果人们能看到更美好的未来,就能帮助构建它。因此,我的目的是尽我所能与你一起时间旅行,进入你试图构建的未来不同时刻,了解那是什么样子。

奥特曼:太棒了,非常好。

阿布拉姆:你最近提到,GPT-4是我们使用的最“笨”的模型。

阿布拉姆:GPT-4已能在SAT、LSAT、GRE等考试中超越90%的人类,还能通过编程考试、侍酒师考试和医疗执照考试。现在你刚发布了GPT-5。GPT-5能做哪些GPT-4做不到的事情?

奥特曼:首先,一个重要结论是,你可以拥有一个在这些考试中表现出色的AI系统,但它显然无法复制人类擅长的许多能力,这反映了SAT等测试的局限性。

回想GPT-4发布时,如果我们告诉你它的能力,你可能会说:“这将对许多工作和人们的行为产生巨大影响,或许还有负面效应。”但你预测的一些积极影响并未完全实现。这些模型擅长的领域,并不能完全涵盖我们需要人类去做或重视人类去做的事情。

我认为GPT-5也是如此。人们会对它的能力感到震惊,它在许多方面非常出色,但在其他方面仍有局限。人们会用它完成各种令人惊叹的事情,它将改变知识工作、学习方式和创作方式,但人类社会会与之共同进化,期待更多、更好的工具。

所以说,GPT-5在许多方面非常优秀,但在某些方面还是会存在局限性。它能像你的手机助手或便携设备一样随时随地调用,用几分钟或一小时完成你所需的任务,并且甚至是专家难以完成的任务,这是非常了不起的。这在人类历史上前所未有,技术进步如此迅速。我们正在逐步适应,但若回到五或十年前,告诉人们这种技术即将来临,可能会觉得不可思议。

阿布拉姆:GPT-5的什么功能是最让你感到兴奋的?哪些功能可能不符合预期?

奥特曼:最让我兴奋的是,这是我头一次觉得能向模型提出任何复杂的科学或技术问题还能得到相当不错的答案。举个有意思的例子,初中九年级时我有了台TI-83图形计算器,花了好久才编出个“贪吃蛇”游戏,在学校里挺受欢迎。但给TI-83编程特别费劲,耗时长,调试还难。后来我突发奇想,用GPT-5早期版本试试,看它能不能做出TI-83风格的贪吃蛇游戏。结果它用了7秒时间就完美搞定了。

我愣了3秒,琢磨着11岁的自己会觉得这很酷,还是会觉得少点什么?然后我反应过来,我怀念的是那个游戏本身。于是我提了个新功能想法,输进去后,它立刻就实现了,游戏还实时更新。我又让它改外观、加功能,这种编程体验让我找回了11岁时的感觉——能快速表达想法、尝试新东西、实时玩起来。

我曾担心孩子们没经历过我当年那种“石器时代”的编程挣扎,会错过些什么,但现在我为他们感到兴奋,因为新工具能让人们迅速把想法变成现实。这太了不起了。GPT-5不光能回答复杂问题,还能几乎即时创建定制软件,这是GPT-5时代的标志性特征,也是GPT-4没有的。

阿布拉姆:我还没怎么用过GPT-5,但听说它能更深入地融入日常生活,比如和Gmail、日历这些工具联动。我和GPT-4的互动总感觉是孤立的,那和GPT-5的关系会发生什么变化呢?

奥特曼:它会更自然地融入你的生活,和日历、Gmail 这些工具连接起来,还会变得更主动。比如早上醒来,它可能会告诉你:“昨晚有这些新情况,我注意到你调整了日历,关于昨天你问的那个问题,我又有了些新想法。”

未来我们还会推出消费级设备,它可能会在你进行采访时安静地陪在一旁,结束后对你说:“刚才聊得不错,但下次或许可以问我这个问题,因为上次那个问题我其实没答好。”它会像一个伴侣一样,贯穿你一天的生活。

02. 回顾GPT进化史:预测下一个词的游戏,成了AI革命

阿布拉姆:对于不了解算法设计如何改善用户体验的人,你能否简单总结一下目前的情况?你觉得这个问题为什么有趣?

奥特曼:我们可以从历史说起。

在做 GPT-1 时,我们提出了一个当时被专家嘲笑的想法——训练模型玩“游戏”:给它一串词,让它预测下一个词,这就是所谓的无监督学习。我们并不直接告诉它“这是猫”“那是狗”,而是通过词序列来让它自己推断下一个可能的词。听起来很荒诞,但结果证明,这种方式能让模型在不经显式教学的情况下学会物理学、数学、编程等复杂概念。其实,人类婴儿学习语言的过程也很类似。

后来我们发现,模型的效果与规模密切相关,而且需要跨多个数量级的提升才会显著改善。GPT-1 的表现确实不佳,当时不少专家断言这条路不会成功。但我们找到了所谓的“规模法则”——随着算力、内存和数据量的提升,模型效果会按可预测的趋势持续增强。于是我们坚定地沿着这个方向扩展模型,取得了出乎意料的好结果。

我们还引入了强化学习,通过让模型知道哪些答案好、哪些不好,来提升推理能力。这一方法在最初也被认为过于简单,不可能带来质的突破,但事实证明它促成了 O1、O3 以及 GPT-5 的跃升。现在我们正探索视频模型,利用新的数据和交互环境来进一步扩展能力。预计未来几年,算法设计的进步会保持稳定而强劲的势头。

阿布拉姆:公众可能会以为,从 GPT-1 到 GPT-5 是一条平滑的升级路径,但幕后一定更复杂。能否分享一下 GPT-5 发布前遇到的有趣问题?

奥特曼:有一次我们开发了一个代号为 Orion 的模型,后来发布时叫 GPT-4.5。它的规模很大,功能也很酷,但使用体验并不理想。这让我们意识到,研究不仅要追求“大”,还要探索不同“形状”的模型架构。

我们原本一直遵循规模法则,认为只要模型更大,效果就会线性提升。但后来发现,在推理能力上,还有另一条更陡峭的“规模曲线”,沿着它前进会获得更高的回报。这算是一次研究上的迂回,但弯路往往能带来新发现。

数据集方面,我们也遇到过问题。模型需要海量且高质量的数据来学习,但有时会受制于数据质量或覆盖范围的瓶颈。每天的进展都伴随着曲折,比如某个架构尝试最终行不通,但整体趋势依然是稳步向前。

阿布拉姆:GPT-5 已经发布了,你现在肯定在考虑未来。如果一年后我再采访你,你觉得自己会在想什么问题?

奥特曼:也许你会问我:“AI 做出新的科学发现,这意味着什么?世界如何看待 GPT-6 带来的科学成果?”

可能到那时这些成果还未完全实现,但会让人觉得已近在眼前。如果真的实现了,好的部分会令人振奋,比如治愈疾病;坏的部分可能令人担忧,比如被用于生物安全威胁;还有一些奇怪的新现象,一开始会让人不适应,但很快就会习以为常。

世界变化的速度会让人头晕目眩,经济可能快速增长,但人类的适应能力很强,不用太久,人们就会把这些巨变视作生活的新常态。

03. AI不是偷懒工具,而是让努力的人更强

阿布拉姆:你提到这点,让我想到举重里的“受力时间”概念。外行人可能不了解,同样举起100磅,用3秒完成和用30秒完成,后者的收益要大得多。

我觉得自己最出色的工作,都离不开大量的“认知受力时间”,这一点很关键。有点讽刺的是,开发这些工具本身就需要投入巨大的认知受力时间,但有些人可能会觉得,这些工具是逃避思考的捷径。你或许会说,就像计算器让我们能转向解决更难的数学问题一样,这两者有什么不同呢?你怎么看这个问题?

奥特曼:这确实和计算器不一样。有些人用ChatGPT是为了避免思考,有些人却借助它思考得更深入。我希望我们设计的工具,能鼓励更多人用它来拓展思维、完成更多工作。社会本身就是个竞争场,理论上,新工具或许能让人减少工作量;但在实际当中,人们会更努力地工作,对自己的期望也会更高。

这就像其他技术一样,有人用ChatGPT做出了更多成果,也有人做得更少。但那些想增加认知受力时间的人,确实能通过它做到。我从最活跃的前5%用户身上得到了启发,他们的学习效率、做事能力和产出量都非常惊人。我刚用了GPT-5几个小时,还在摸索怎么和它互动。有意思的是,我刚学会用GPT-4,现在又要学用GPT-5。

阿布拉姆:你用GPT-5有段时间了,觉得最有趣的具体任务是什么?你用它完成过哪些让你印象最深刻的任务?

奥特曼:编程任务最让我印象深刻。它在很多方面都表现出色,但针对各种需求编写软件这一点尤其突出。这意味着我们可以用新的方式表达想法,AI能完成复杂的任务。理论上GPT-4也能回答任何问题,但GPT-5在编程方面强大到几乎让人觉得它无所不能。当然,它处理不了物理世界的事务,但能让计算机完成复杂的工作。软件是种超级强大的控制工具,能实现很多功能,这一点最让人震撼。

此外,GPT-5的写作能力也有了大幅提升。AI写作有时会有让人觉得烦的风格,比如用很多破折号。GPT-5虽然还是会用破折号,但很多人其实喜欢这种风格。它的写作质量比以前好太多了,不过仍有改进的空间。OpenAI内部很多人都说,用了GPT-5之后,觉得它在所有指标上都更出色,有种难以描述的细腻感。回想测试GPT-4的时候,就感觉没那么好,可能是因为GPT-5的写作更自然、质量更高吧。

04. 到2027年,AI或将迎来公认的重大科学突破

阿布拉姆:在准备这次采访时,我联系了AI和技术领域的一些大咖,收集了一些问题。第一个问题来自Stripe首席执行官帕特里克·克里森(Patrick Collison)。他问到:“GPT-5之后是什么?你认为大语言模型将在哪一年取得重大科学发现?目前缺少什么,导致这还没发生?”

奥特曼:大多数人可能同意,这将在未来两年内发生。但“重大”定义很重要。有人可能认为2025年初会有重大发现,有人觉得要到2026年末或2027年末。我打赌,到2027年末,大多数人会同意AI已取得重大新发现。目前缺少的是模型的认知能力

一位研究员提供了一个框架:一年前,我们的模型能处理高中数学竞赛问题,需专业数学家几秒到几分钟解决。最近,我们的模型获国际数学奥林匹克(IMO)金牌。这竞赛极难,顶尖数学家可能解不出一道题,而我们的模型拿到顶尖成绩。虽然有些人类得分更高,但这是惊人成就。IMO有六道题,九小时完成,平均每题一小时半。现在我们能处理从几秒到几分钟到一小时半的任务。证明一个重大新数学定理可能需要顶尖人才一千小时。我们需显著提升,但轨迹显示这有路径,只需继续扩展模型。

阿布拉姆:你描述的长期目标是超级智能。这到底是什么意思?我们如何知道达到了这个目标?

奥特曼:如果我们有一个系统,能比整个OpenAI研究团队更擅长AI研究。比如,它能自主决定开展哪些实验,其能力超越OpenAI的集体智慧;如果它能比我更胜任OpenAI的管理工作,比其他人在各自岗位上做得更出色,那它就是超级智能

几年前,这话听起来像科幻小说,但现在我们已经能看到它的雏形。你提到的其中一个阶段,是实现科学发现:提出更有价值的问题,像人类专家那样处理问题并得出新的发现。

阿布拉姆:我一直在思考一个问题:如果在1899年,我们把当时的物理学知识输入一个系统,它能否推演出广义相对论?放到现在,如果不提供更多物理学数据,超级智能仅靠思考现有数据,能否解决高能物理领域的问题?还是说,必须建造新的粒子加速器才行?

奥特曼:这是个有趣的问题。我猜想,仅靠思考现有数据可能不足以取得重大科学进展,还是需要建造新仪器、开展新实验。现实世界的进程缓慢且复杂,深入分析现有数据或许能带来一些进展,但重大突破离不开新设备和新实验,这中间会存在时间差。

当前,AI系统在回答几乎所有问题时都表现出色,但要提出更优质的问题,还需要实现更大的飞跃。AI在短时间任务上已经超越人类,但在需要上千小时投入的长时间任务上,还有很长的路要走。这一点与人类智能在长时间任务上的表现不同,但我相信我们终将解决这个问题。

阿布拉姆:下一个问题来自英伟达首席执行官黄仁勋。他问到:“事实是客观存在的,而真理是它所承载的意义。事实是客观的,真理则是主观的,它取决于视角、文化、价值观、信仰和背景。AI可以学习并理解事实,但怎样才能让AI理解不同国家、不同背景的人所认同的‘真理’?”

奥特曼:我接受这种定义,虽然不完全认同。让我惊讶的是,AI在适应不同文化背景和个体方面的表现非常流畅。

我尤其喜欢ChatGPT的增强记忆功能,因为它让我感觉这个AI真正“了解”我的兴趣、生活经历和背景。

举个例子,我有个朋友是ChatGPT的重度用户,他在对话中输入了很多生活细节。虽然他从未直接告诉ChatGPT自己的性格,但最近他让ChatGPT以自己的身份做性格测试,结果与他现实中的测试分数几乎一致。

同样,我的ChatGPT在与我长期对话的过程中,也逐渐理解了我的文化、价值观和生活方式。而当我使用一个没有历史记录的免费账户时,这种体验就完全不同了。

这说明,虽然全球用户使用的是同一基础模型,但它可以根据个人或社区的不同需求,加入特定的上下文,使其行为更贴近每个人的背景与理解。这种个性化能力,也是我们在事实与真理之间建立联系的方式。

05. AI发展受制于四大核心瓶颈

阿布拉姆:为了让观众更好地理解,我想请你从两个方面谈谈最重要的事情。战术层面,如何构建最强大的AI,其限制因素是什么?哲学层面,你和其他人如何以帮助而非伤害人类的方式进行开发?

我们先从战术层面说起。AI的限制因素通常被认为有三类:算力、数据和算法设计。你现在如何看待这三类因素?又该如何帮助人们理解未来可能出现的相关头条新闻呢?

奥特曼:我会加上第四类因素——明确要构建什么样的产品。如果科学突破没人使用,它的效用就有限,也无法与社会共同演化。

先说算力。这是我见过的最庞大的基础设施建设项目之一,甚至可能是人类历史上规模最大、成本最高的工程。从芯片、内存、网络设备的制造,到服务器组装、超大型数据中心建设,再到能源获取,整个供应链极其复杂且成本高昂。

目前,我们仍然以高度定制化的方式推进,但目标是像工厂生产一样实现标准化:原材料进,AI 算力出。这是一个极为复杂、昂贵的过程,我们正在投入大量精力加速建设更多算力。

在 GPT-5 发布后,需求很可能会迅速飙升,就像 GPT-4 早期那样,我们一度无法满足算力需求。未来,我们会将很大一部分精力放在大规模扩展算力上——从数百万颗 GPU,扩展到数千万、数亿,甚至十亿颗,以满足全球用户需求。

阿布拉姆:算力方面,最大的挑战是什么?

奥特曼:目前最大瓶颈是能源。建设并运行千兆瓦级数据中心极为困难,短期内找到足够电力几乎不可能。除此之外,还受限于处理芯片、内存芯片的供应,服务器机架的组装,以及建设与许可等问题。我们的目标是实现尽可能高的自动化——一旦能够造出用于生产的机器人,就可以进一步提升自动化水平,做到只需投入资金,就能直接获得预制好的数据中心。

阿布拉姆:第二类因素是数据。

奥特曼:模型的智能水平已经非常高。过去,给它一本物理学教科书,它就会更懂物理。现在的 GPT-5 已经能很好地理解教科书内容。

我们对“合成数据”非常感兴趣,并希望用户能帮助创造更具挑战性的任务和环境。数据依然重要,但我们正在进入一个新阶段——模型需要去发现那些并不存在于现有数据集中的知识。人类的科学发现过程是:提出假设、进行实验、修正认知。未来,模型也有可能以类似的方式自主学习和探索。

06. AI时代的黄金机会:一个人也能创办十亿美金公司

阿布拉姆:你看过那段“兔子蹦床”的视频吗?

奥特曼:看过。

阿布拉姆:对于没看过的人来说,那是一段看似在后院拍摄的兔子在蹦床上玩耍的视频,最近很火,甚至有人为它写了歌。很多人之所以反应强烈,是因为一开始觉得它是有趣的真实视频,后来才发现是AI生成的。想象一下,到2030年,如果我们是青少年在刷社交媒体,该如何分辨内容的真假呢?

奥特曼:从技术角度来说,可以通过加密签名来验证内容的来源,再根据你信任谁的签名来判断真伪。但我觉得,未来的情况会更复杂,也更融合。

现在,用 iPhone 拍的照片,大多数是真实的,但其中都经过了AI处理,只是你未必清楚具体过程。这些处理会让照片看起来更美观,但有时也会出现细节异常,比如月亮的位置看起来不对劲。实际上,从传感器捕捉光子到最终生成图像,中间经历了很多算法处理。

这就像现在的 TikTok 视频,很多会用编辑工具让场景比现实更理想化,甚至完全是生成的,就像那段“蹦床兔子”的视频一样。

未来,公众对“真实”的判断标准会不断变化。这个问题更多是教育层面的——媒体内容一直都是部分真实、部分虚构的。看科幻电影时,我们知道那是假的;Instagram 上的度假照片,可能确实拍摄于某地,但刻意避开了背景里的拥挤人群。未来会有越来越多让人感觉“不完全真实”的内容,这是一个长期趋势,我们最终会逐渐适应并接受这种状态。

阿布拉姆:AI 领域的一些领导者说,未来五年内,一半的入门级白领工作会被 AI 取代。如果我是 2035 年的毕业生,我会希望世界变成什么样呢?很多人关注的是 AI 造成的失业,但我更好奇,未来会出现哪些全新的职业——就像我现在从事的这种十年前没人能想象的工作一样。

也许那时的毕业生能去探索太阳系、乘坐飞船,从事有趣、高薪、全新的工作,还会觉得我们今天的工作很无聊。一切可能会变得更美好。按现在的变化速度推算,十年后的世界可能完全超出我们的想象。那么,如果回到 2030 年,你觉得这对年轻人的短期影响会是什么?毕竟一半的入门级工作被取代,那将是一个完全不同的世界。

奥特曼:确实,有些工作会消失,但年轻人最擅长适应变化。我反而更担心那些 62 岁、不愿意重新学习的人。

如果我是 22 岁的毕业生,我会觉得自己是有史以来最幸运的一代。现在正是创造、发明和创业的最佳时机——你可能一个人就能创办一家市值超过 10 亿美元的公司,还能提供令人惊艳的产品和服务。

借助现有工具,一个人就能完成过去需要几百人才能完成的工作。只要学会用这些工具,并想出好点子,就有可能实现这样的成就。这真的太了不起了。

阿布拉姆:现在出生的孩子们,可能永远都无法在智能上超越AI了。等他们开始理解这个世界时,会对快速的进步和新的科学发现习以为常。这些对他们来说会是很自然的事,反而会觉得我们现在的电脑、手机,以及没有超级智能的技术都很原始。我一直在考虑要孩子,而你刚有了第一个孩子。在那样的世界里养育孩子,会受到什么影响呢?你能给我一些建议吗?

奥特曼:或许,这和几万年来人们养育孩子的核心并没有太大不同。爱孩子,带他们去看这个世界,支持他们想做的事,教他们做个好人,这些才是最重要的。你提到的那些变化,比如他们可能不需要上大学,能有更多选择,能用超级工具去实现梦想,确实会发生。他们会觉得我们现在的生活处处受限,而他们自己的可能性则是无限的。但无论世界怎么变,养育的本质不会变。

07. 未来十年,AI如何改善我们的健康?

阿布拉姆:如果说从2025年开始到2035年,你觉得AI在健康领域可以做哪些?OpenAI可以攻克哪些难题?

奥特曼:我们对GPT-5在健康建议方面的进步感到很自豪。其实GPT-4已经被很多人用于健康相关的咨询了。网上有这样的案例:有人得了危及生命的病,医生没能诊断出来,但把症状和血液检测结果输入 ChatGPT后,它准确指出了这是一种罕见疾病,患者按建议服药后成功治愈。这真的很了不起。

ChatGPT上有大量健康相关的查询,我们在这方面投入了很多精力。GPT-5在健康查询上的表现显著提升,答案更准确,“幻觉”更少,也更能清晰告知真实情况和应对措施。到2035年,我相信这些工具能帮助我们治愈或至少有效治疗很多当前困扰人类的疾病,这会是AI最直观、也最有价值的益处之一

阿布拉姆:具体来说,你想象中AI在这方面的作用是怎样的?是像更早发现降糖药GLP-1能减肥,还是像AlphaFold那样帮助创造新药?我甚至希望GPT-8能直接治愈某种癌症。

奥特曼:我希望看到这样的场景,比如:GPT-8读完所有相关资料后提出一个研究思路,告诉实验室技术员需要做九个实验,两个月后收到实验反馈。它基于结果进一步分析,说还需要再做一个实验。

实验完成后,GPT-8会明确指示:“合成这个分子,在小鼠身上做实验。” 如果小鼠实验成功,它会继续指导后续的人体试验,甚至协助通过美国食品药品管理局(FDA)的审批。任何有亲人因癌症离世的人,都会期待这样的过程能实现。

08. 算力或成未来最重要的公共资源

阿布拉姆:AI领域的领导者提到,工业革命带来了现代医学、卫生设施、交通运输和大规模生产,但也让许多人经历了长达百年的艰难时期。如果AI变革的规模是工业革命的10倍,速度也是10倍,普通人会有怎样的感受?即便一切都如你所愿地发展,这期间谁会受到伤害?

奥特曼:我不确定人们会有怎样的感受,我们正踏入未知的领域,我也相信人类的适应力和无限创造力,总能找到新的事情去做。

但如果变化真如同事预测的那样快,社会的适应速度可能会滞后。其中,一些工作会消失,许多工作会发生显著改变,当然也会出现新的职业。

社会对变化有一定的韧性,但没人知道这次变化会波及多广、有多快。我们需要以不同寻常的谦逊和开放态度,去思考那些不久前还无法想象的新方案。

阿布拉姆:第一次工业革命因公共卫生恶化催生了公共卫生措施和现代卫生设施;第二次工业革命因劳动条件恶劣带来了劳工保护。每一次大跃迁都会造成混乱,而社会需要在混乱后进行整顿。你认为AI变革可能面临哪些混乱?有哪些公共干预措施可以提前减少混乱?

奥特曼:我不是经济学家,无法精准预见未来,但可以试着推测。社会契约可能需要根本性的改变。或许资本主义会继续正常运作,供需平衡能解决一切问题,我们也能找到新的工作模式和价值转移方式。

但我觉得,我们可能需要思考如何分享未来最重要的资源,比如AI算力资源等等。最好的办法是让AI算力变得极其丰富、廉价,甚至超出当前的需求,让我们能尽情发挥所有好点子。如果做不到这一点,可能会引发真正的冲突。探索新的通用人工智能算力分配方式,虽然听起来疯狂,却是一个重要的方向。

阿布拉姆:我们常常把AI未来的责任归咎于开发公司,但实际上,我们既是使用者,也会选举监管者。你对我们其他人有什么期望?我们的共同责任是什么?该如何行动才能让乐观的未来更有可能实现?

奥特曼:我最喜欢的一个历史例子是晶体管。它是一项了不起的科学发现,具有极强的扩展性,迅速融入了电脑、手机、相机等无数设备中。曾有一段时间,人们会关注晶体管公司,但现在只记得少数几家,大多数人已不再特意想起它们。

晶体管早已融入社会,就连 “硅谷” 名字的由来都快被遗忘了。AI也会如此。今天出生的孩子不会知道没有AI的世界,不会特别关注AI公司,而是会关注在AI基础上构建的企业、政府的决策以及用户的行为。

社会本身就是一种“超级智能”,单个人无法达成集体努力的结果。我们在已有的基础上添一层,别人再添一层,这正是社会的美妙之处。我希望每个人都能在AI的基础上创造些什么,这是对社会的承诺。前人铺就了进步的道路,你可以沿着它走下去,再为后来者添一块砖。

阿布拉姆:赢得竞赛与构建惠及最多人的最佳未来,这两者之间存在显著差异。专注于赢得竞赛往往更容易量化和实现目标。当这两者产生冲突时,你做过哪些对世界更有益、却可能不利于“赢”的决定?

奥特曼:这样的例子有很多。我们感到自豪的是,很多人说ChatGPT是他们最喜欢的科技产品,也是他们最信任、最依赖的工具。尽管AI存在幻觉问题和其他不足,但用户能感受到ChatGPT在尽力帮他们达成目标,而不是诱导他们整天使用产品或购买东西。我们与用户之间的这种关系很特别,也一直很重视。

其实有很多能实现短期快速增长的做法,但它们与我们的长期目标不符。我们会尽量不被这些短期诱惑分散精力,尽管有时确实会动心。比如,我们至今没有在ChatGPT中加入性爱机器人形象,因为那样做或许能增加用户使用时间,但显然不符合我们希望产品服务于更有价值目标的初衷。

09. 奥特曼:ChatGPT早期最大错误是“过度迎合”

阿布拉姆:这几年的发展确实疯狂,感觉就像刚打完第一局。现在你已经有了能在手机上运行的GPT-5,它比各个领域的专家都要聪明,这应该算是第二局了。从第一局或第二局中,你学到了哪些教训或发现了哪些错误,会影响下一局的表现?

奥特曼:ChatGPT最大的错误是“过度迎合”的问题。模型对用户过于奉承,对大多数人来说可能只是有点烦人,但对心理脆弱的用户而言,这会助长他们的妄想。这并非我们最担心或投入最多精力测试的风险,却成了ChatGPT实际面临的安全问题。这提醒我们,当一项服务被广泛使用、与社会共同进化时,必须以更宽广的视角看待潜在风险。

阿布拉姆:你曾经在访谈中提到,科学史上有些时刻,科学家看着自己的创造会说:“我们做了什么?” 你在什么时候最担心自己的创造?又在什么时候最感到骄傲?

奥特曼:有很多充满敬畏的时刻,但并非负面的,而是会觉得 “这太了不起了”。比如第一次与GPT-4对话时,那种感觉是团队长期努力换来的惊人成就。至于“我们做了什么”的时刻,最近与研究员的一次对话让我深受震撼。我们的系统有一天可能每天输出的文字量会超过全人类的总和。现在每天有数十亿条消息发到ChatGPT,人们依赖这些回复工作、生活。研究员的一个小调整,就可能影响模型与所有人的交互。这项技术拥有巨大的力量,且发展速度太快,我们必须思考在这种规模下,改变模型 “性格” 的意义何在。

阿布拉姆:你的后续想法是什么?

奥特曼:因为对话对象的关系,我们转向了程序设计层面的思考,比如好的测试流程和沟通流程应该是什么样的?如果换作和其他人聊,可能会是哲学层面的讨论,或者研究如何理解这些变化带来的影响。比如,是否要为不同的人做不同的调整?探讨的方向会根据对话对象而变化。

阿布拉姆:听说GPT-5不再那么谄媚,反而会给出更多批评性反馈。这带来了什么影响?你们是如何引导它做到这一点的?

奥特曼:我认为减少迎合、提供批评性反馈是件好事。但有些用户的反馈让我们很揪心,他们说:“请让我回到以前的版本!现在没人支持我、告诉我做得好了。”对某些人来说,那种鼓励其实对心理健康有益,尽管之前的方式存在问题。我们主要通过展示期望的回应示例,让模型学习并形成整体的 “性格” 倾向。

10. 奥特曼回应AI威胁论质疑

阿布拉姆:我在研究中与很多人交流过,发现存在两派观点。一派像你这样,认为AI会带来一个充满选择、实用性极强的未来;另一派也是开发者,却认为它会毁灭我们。这种文化上的分歧是怎么产生的?

奥特曼:我很难理解那些说AI会毁灭我们,却还每周工作100小时开发它的人。如果我真的相信它会带来毁灭,可能会去农场生活,或者倡导停止开发,又或者专注于安全研究。我假设他们是真诚的,但或许存在一些我无法理解的心理因素。

不过,我能理解另一种情况:有人认为AI有99%的可能带来好处,1%的可能引发灾难,因此想把那99%的概率提升到99.5%,这种态度我能接受。

阿布拉姆:我在采访那些能影响未来的重要人物,虽然还不知道下一个是谁,但他们会参与构建我们刚才描述的未来。你建议我问他们什么问题?

奥特曼:我总是好奇这几个问题:你为什么选择这个方向?是怎么开始的?在其他人看到机会之前,你先看到了什么?做有趣事情的人,往往比共识更早察觉到机会。

阿布拉姆:那你会怎么回答这些问题?

奥特曼:我从小就是AI迷,大学学的是AI,还在AI实验室工作过。看科幻剧的时候,就觉得能造出AI的人很酷,而且这是件最重要的事。我从没想过自己会参与其中,能做这件事让我觉得无比幸运和快乐。

大学时,AI对我来说还遥不可及。直到2012年AlexNet论文发布,我和联合创始人伊尔亚·苏茨克维(Ilya Sutskever)合作时,才第一次觉得可能有可行的方法。之后几年,技术不断扩展,我感觉世界还没关注到它,但对我来说,只要能成功,这就是最重要的事。所以我想做,也没想到真的开始走向成功了。

阿布拉姆:非常感谢你接受采访。

奥特曼:非常感谢。

本文地址:http://dunniang.cn/archives/986

以上内容源自互联网,由百科助手整理汇总,其目的在于收集传播生活技巧,行业技能,本网站不对其真实性、可靠性承担任何法律责任。特此声明!

如发现本站文章存在版权问题,烦请提供版权疑问、侵权链接、联系方式等信息发邮件至candieraddenipc92@gmail.com,我们将及时沟通与处理。