OpenAI CEO奥尔特曼: 更大的“魔法”在路上

admin 数码科技 2024-09-25 33 0

  “未来每个人的生活都可以比现在的任何人更好,如果从今天快进到100年后,未来的繁荣将难以想象。”

  梦想家总在引导人工智能前进的方向。OpenAI CEO萨姆·奥尔特曼(Sam Altman)于当地时间9月23日发布长篇博客,谈及对智能时代的判断。“这可能是历史上最重要的事,即我们可能在几千天内拥有超级智能(super intelligence),这可能需要更长时间,但相信我们会达到那里。”奥尔特曼称。

  不久前,OpenAI发布o1系列模型,针对此前大模型数学能力弱的问题,该系列模型强化了大模型进行复杂推理任务的能力,使其性能类似于博士生在物理、化学、生物学中完成具挑战性基准任务时的能力。该系列模型发布后,久违地引起了业界对于人工智能范式的讨论。不过,对于要实现超级智能乃至AGI(通用人工智能),业内并没有十分确切的时间表。

  “深度学习有效”

  奥尔特曼在这篇博客里展望了人工智能将带来的变化。他表示,在接下来的几十年里,我们将能做一些对祖父母一辈而言像是“魔法”一样的事情。

  具体而言,人工智能将为人们解决难题提供工具,帮助人们在“脚手架”上继续添加新支柱。最终每个人都能拥有由不同领域虚拟专家组成的人工智能团队,人们的下一代将会有虚拟导师,虚拟导师将会在任何科目、用任何语言为孩子提供个性化指导。此外,人工智能模型很快将能代表人类完成特定任务,如协调医疗护理,人工智能还能创造更好的下一代系统。

  奥尔特曼展望,凭借近乎无限的智慧和丰富的能源,人类可以将许多想法变为现实。令人震惊的成就将变得司空见惯,例如解决气候问题、建立太空殖民地、发现所有物理法则。

OpenAI CEO奥尔特曼: 更大的“魔法”在路上

  奥尔特曼谈及回顾人类历史的一个狭义视角:经过数千年的科学发现和技术进步,人类学会熔化沙子、添加杂质并以极小的尺度和令人惊讶的精度排列到计算机芯片中,随后通电后形成日益强大的人工智能系统。

  2006年,杰弗里·辛顿等人提出了深度学习的概念,深度学习成为此后大模型的基础。奥尔特曼认为,要如何实现下一次繁荣飞跃,还可以用几个字概括,即“深度学习有效”。人们发现了一种算法(深度学习),能真正学习任何数据分布,随着计算和数据量增多,能更好帮助人们解决难题。“无论我花多少时间思考这个问题,我都无法真正意识到它有多么重要。”奥尔特曼强调。

  回到技术层面的挑战和人工智能的负面影响,奥尔特曼则称,现在还有很多细节需要弄清楚,但深度学习是有效的,我们将解决剩下的问题。人工智能也会有危害,人们现在就需要减少其危害。预计人工智能技术在未来几年可能会对劳动力市场带来重大影响,但大多数工作的变化速度比人们想象的更慢,他并不担心人们会无事可做,社会将重新关注于积极和共赢的游戏。

  奥尔特曼也提到关于算力限制的问题,他表示,如果希望把人工智能交到尽可能多的人手里,就需要降低计算成本,这需要大量能源和芯片。如果不建设充足的基础设施,人工智能将成为非常有限的资源,引发争夺并主要成为富人的工具。

  人工智能的范式改变了

  奥尔特曼此时发布博客长文并提及算力的重要性,不排除是OpenAI将在算力层面加大发力的信号。

  大模型公司为了购买算力而“烧钱”并非秘密。近日OpenAI已多次传出将有新融资的消息,消息称OpenAI正在进行一轮巨额融资的相关谈判,筹集资金65亿美元,公司估值或达1500亿美元。OpenAI希望利用融资获得更多计算能力并为运营提供资金。在此之前,奥尔特曼曾抱怨英伟达GPU(图形处理器)短缺。虽然OpenAI还没有公开的实质性动作,但今年OpenAI已数次传出自行“造芯”或寻找合作方“造芯”的消息。

  此外,不仅奥尔特曼表达了对人工智能未来的信心,OpenAI本月发布o1系列模型,推动大模型迭代的“齿轮”继续转动,在业内也久违地带来了关于人工智能范式的讨论,一定程度上也为人工智能从业者带来信心。

  OpenAI研究科学家布朗(Noam Brown)表示,OpenAI正在招聘机器学习工程师,以打造一个新的“多智能体”研究团队。目前新推出的o1模型处于第二阶段,即所谓的“推理者”阶段。相比之下,OpenAI认为“多智能体”是提高AI推理能力的关键途径,将进一步推动AI的发展,使其达到第三级,即代理层面。

  此前,随着大模型迭代进展放缓,大模型数学能力弱的问题被公众发现,GPT-5则迟迟未有面世时间表,业内出现了不少质疑大模型Scaling Law(缩放定律,即算力、数据、模型参数增大以持续产生更多的智能)面临失效的声音。近期面世的o1系列不仅依赖Scaling Law,还使用了大规模强化学习技术来训练算法,让模型利用思维链进行较长时间的高效思考,提高了模型推理能力。奥尔特曼认为o1标志着一个新范式的开始,即AI能进行通用复杂推理。

  将强化学习、推理环节“慢思考”引入大模型,在人工智能业内引发了热烈讨论。月之暗面创始人杨植麟提到,o1发布标志着人工智能的范式从“预测下一个token(词元)和Scaling”迁移到“强化学习和Scaling”。这种范式转变的一个背景是Scaling Law所需的天然训练数据面临越来越少的瓶颈,而强化学习能让AI转向“自己跟自己玩”创造数据,推动AI能力继续提升。原来大部分Scaling发生在训练阶段,而现在大部分计算转移到推理阶段。

  大模型创业公司阶跃星辰创始人姜大昕近日也表示,AI发展正在经历关键的技术范式迭代。OpenAI的o1探索出通过强化学习让AI具备人类慢思考能力的方式,接下来提升强化学习模型的泛化能力和加速推进多模态理解生成一体化,是AI技术进一步突破的关键。

  “人工智能继续迭代的道路是明确的,只不过并非所有工作都已经完成,OpenAI的o1也说明了这一点。”一名机器学习资深研究者向第一财经记者表示,有自学习和自我改进能力的高级智能系统在短时间内不会出现,但从业内进展看长期仍有信心。

  不过,更长远看,关于超级智能或AGI(通用人工智能)何时实现,业内仍有不同讨论。此前OpenAI一篇论文里提到超级智能时未有明确定义,但上下文描述了人工智能在各领域认知能力超过人类。AGI则没有被广泛认同的定义,一般可以指拥有与人类相当智能水平的人工智能系统。

  英伟达CEO黄仁勋此前预计,在他基于工程学的定义里,AGI可能在未来5年内实现,但人们可能不会认同到时的AI已是AGI。在近期的业内探讨中,OpenAI等人工智能公司的投资者Alpha Intelligence Captal联合创始人兼管理合伙人布朗迪奥(Antoine Blondeau)表示实现AGI可能是在10年或20年内。英伟达人工智能技术中心全球主管Simon See则认为要达到AGI,或许能在这10年内实现这一进程的80%,但最后的20%将非常具有挑战性且需要更长时间。

版权声明

本文仅代表作者观点,不代表百度立场。
本文系作者授权百度百家发表,未经许可,不得转载。

分享:

扫一扫在手机阅读、分享本文

评论

标签列表