北大人工智能研究院院长朱松纯称「中国的 AI 叙事存在认知偏差」,怎样看待他的观点?
更新于:2025-04-02 15:00:27

我记得直到2021年的时候,周志华教授还说过严肃的学者不应该过多研究AGI类似的话,但是现在,这位传统统计机器学习领域的世界顶尖学者似乎也不能免俗的把注意力更多的投向大模型。

作为一个统计专业出身的人,我至今忘不了当我第一次知道深度学习的黑盒属性后的惊讶。我不断的询问同事,GCN网络的底层逻辑到底是什么,每个参数又应该如何解释。同样的疑惑,后面我也给很多人解答过,他们有的听懂了,有的觉得我在骗他们。

朱松纯教授作为统计学的大佬,对于深度学习的怀疑某种程度上甚至可以解释为一种职业标签。早年搞深度学习的这帮人也确实被当作异端,hinton、lecun能在这条路上坚持下去也确实有几分面对宗教裁判所而不放弃真理的信念和勇气。

但是说到底,统计机器学习和深度学习并非非黑即白的对错之争,反而更像三十年河东三十河西的事物周期变化。贝叶斯学派被频率学派当作异端了那么多年,最终随着计算机技术的发展,模拟采样能力的提升扬眉吐气了一把,可是这也不耽误到现在为止,贝叶斯统计在玄学以外好像也没有太大的实际落地应用。

深度学习相比于贝叶斯统计还是好很多的,起码在CV和NLP领域确实现了很多货真价实的落地应用,更不用说DRL一波把围棋的逼格干的七七八八。那几年强化学习paper在顶会的比例可不比现在的大模型低多少。但是到目前为止david silver说的DL+RL=AGI似乎也没实现,否则估摸着他今年也能跟着一起拿图灵奖。

所以,我觉得与其认定大模型一定是这波AI的答案,不如祈祷大模型不是第三次AI寒冬的标志。深度学习和当年在看疯子的眼神下坚守的研究者们,已经通过这么多年的努力上演了一出可以大书特书的逆袭故事。当年给坚守在deep learning领域的研究者们是否会想到如今的deep会deep到这个地步。

但很难说这是不是故事的最终结局。

黑盒并没有随着网络规模的不断扩大而变得透明了些,反而随着网络规模的扩大,很多人对于神经网络的难解释更加心安理得,毕竟参数少的时候要可解释性,参数多了还要可解释性,那tm的scaling不是tm的白law了嘛。大模型的幻觉似乎总是让人觉得实际上是生成错误但又不知道为什么错误的一种托词,大模型的幻觉机制是否可以与人犯错做类比,目前并不能得到结论。如何能找到创造足够规模和利润的商业模式似乎暂时也没有几个人能回答。

我们是否被美国的AI叙事带偏,目前很难回答。但似乎,在现在这个阶段,资本愿意不计成本大额投入的也只剩下AI了,只剩下以深度学习、transformer、大模型为标签的AI了。叙事的产生很多时候不是讲给圈内人听的,而是给社会大众的一页PPT,作用不是为了证明内容正确与否,而是让人愿意为此投钱买单。所以统计机器学习的下一个大众叙事会是何时,以什么样的形式出现呢?