人工智能的发展是否必须模仿人类智能?这一问题在学术界引发了持续讨论。复旦大学计算与智能创新学院教授张军平在其新著《人工智能的边界》及后续采访中,提出了一个鲜明观点:当前以大模型为主导的人工智能发展路径,可能正走向一条与自然智能演化相反的方向。
2025年下半年,人工智能领域站在了一个十字路口。一方面,以OpenAI为代表的机构继续沿“Scaling Law”范式推进,依赖算力与数据的不断扩张;另一方面,包括图灵奖得主杨立昆、斯坦福大学教授李飞飞在内的科学家公开呼吁,AI的未来应超越大语言模型,转向发展“空间智能”等更接近人类感知的能力。与此同时,关于“AI泡沫”的争论也在不断升温。谷歌CEO桑德尔·皮查伊在接受采访时指出,当前人工智能投资中存在“非理性因素”,一旦泡沫破裂,整个行业都将受到影响。
在这一背景下,张军平教授在新书和访谈中深入剖析了人工智能的可能隐忧。他指出,人类智能的进化遵循从“感知”到“认知”的自然顺序——先通过视觉、触觉等感官认识世界,再发展出语言与抽象思维。而当前以GPT为代表的主流AI,却走上了一条“倒金字塔”式的路径:直接从认知层面(如自然语言处理)入手,试图跳过感知基础的构建。
“这种研究模式很可能培育不出真正类人的智能体,”张军平表示,“现有AI依赖高能耗维持运行,或许正是这种本末倒置的发展结构所导致的结果。”他认为,若长期忽视感知层面的研究,人工智能的形态将越来越偏离自然智能,最终成为另一种高效的“机器工具”,而非真正意义上的智能体。
面对“AI是否存在泡沫”的提问,张军平坦言可能性较高。他指出,资本往往期待短期回报,而如GPT-6、GPT-7等后续模型的研发需长期、高额投入。一旦资本收缩,算力优化停滞,整个行业可能因连锁反应陷入萎缩。然而,他也强调,若将视野转向AI与各行业的结合与应用,仍存在广阔空间——只是不应过早期望通用人工智能的到来。
在科研方法论上,张军平推崇“自由而无用”的探索精神。他援引《为什么伟大不能被计划》一书指出,原创性突破往往无法被预设或规划。当前国内科研评价体系有时过于强调“可行性分析”,这可能恰恰抑制了从0到1的原始创新。他倡导为科研人员提供更宽松的环境,允许看似“无用”的探索,正如数论之于密码学,许多基础研究的价值常在日后显现。
面对AI技术的高速发展,张军平始终保持一种中性的理性态度。他不在热潮中追逐变现,而是坚持通过写作与思考,保留个人独立的观察视角。他透露,下一部作品可能与“音乐人工智能”相关,同时也在创作一部关于“AI战胜人类后”的科幻小说。
“在AI时代,如果你想被记住,最重要的是保持自己的视角。”张军平说。无论是通过运动、科研还是写作,他始终致力于在交叉体验中形成独特的思考——正如他所欣赏的“小李飞刀”般,大部分时间用于沉静观察,一旦看准问题,便精准出手,力求例不虚发。
在张军平看来,人工智能的未来或许不会复制人类的智能形态,但它会像飞机不同于鸟一样,以另一种形式拓展能力的边界。而这条路径究竟是否正确,仍需时间与开放的探索来回答。

发布评论
评论