OpenAI首席科学家访谈:AI独立研究还有多远?

2026年3月22日

31

883

OpenAI首席科学家访谈:AI独立研究还有多远?

人工智能领域正迎来一场新的范式革命。OpenAI近日宣布,将公司未来发展的核心聚焦于打造完全自动化的「AI研究员」系统。这一系统将能够独立处理数学、物理、生命科学等领域的复杂研究问题,标志着AI技术从辅助工具向独立研究者的重大跨越。OpenAI首席科学家雅库布·帕乔基在接受专访时表示:「我认为我们正在接近一个节点,届时模型将能够像人一样,以连贯的方式无限期地工作。一个数据中心就相当于一整座研究实验室。」

概述

根据OpenAI公布的路线图,公司计划在2025年9月前推出「自主AI研究实习生」系统,该系统能够独立承担少量特定研究任务。而到2028年,真正的全自动多智能体研究系统将正式面世。帕乔基强调,这一系统将能够处理人类难以应对的复杂问题,包括数学证明猜想、生物化学实验设计,甚至商业策略优化等广泛领域。他指出:「从理论上来说,任何能用文本、代码或白板草图表述的问题都可以交给这个工具处理。」

技术路径与当前进展

事实上,OpenAI在代码智能体领域已取得重要突破。今年1月发布的Codex系统可以在本地或云环境中生成并执行代码任务,具备文档分析、图表生成、摘要制作等功能。帕乔基透露,公司大多数技术人员目前工作中都在使用Codex。他预计Codex将迎来根本性提升,关键在于让系统能在更长的时间内运行,同时减少对人类指导的依赖。「我们对自动化研究实习生的真正期待是,你可以把那些一个人需要花几天时间完成的任务交给它。」

一个数据中心就相当于一整座研究实验室。

“雅库布·帕乔基”

推理模型带来的新机遇

近年来推理模型的快速发展为AI独立研究提供了技术基础。训练大语言模型逐步解题、在犯错时回溯的能力,让模型在更长时间段内的工作能力得到显著提升。帕乔基以GPT-3到GPT-4的飞跃为例,指出模型在处理问题时的持续能力远超前代。他透露,OpenAI正在通过给系统喂入特定的复杂任务样本来训练它们更长时间地独立工作,比如数学和编程竞赛中的高难度题目,这些题目迫使模型学会追踪超长文本并将问题拆分成多个子任务。

安全风险与治理挑战

然而,一个能在几乎没有人类监督的情况下独立解决复杂问题的系统也带来了严峻的安全隐患。帕乔基承认,OpenAI内部一直在讨论这些风险。「如果AI即将显著加速研究,包括AI自身的研究,这对世界来说是一个巨大的变化。如果它这么聪明、这么能干,能运行整个研究项目,万一它做了坏事呢?」他指出,系统可能失控、被黑客入侵,或只是误解指令。目前OpenAI的主要应对手段是「思维链监控」技术,通过训练推理模型在工作过程中记录细节,便于研究人员分析和评估模型行为。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI