从OpenAI分裂到Anthropic,以安全AI为名的Claude如何崛起?
更新于:2025-04-06 00:58:20

Anthropic是由OpenAI前成员创立,2021年成立后就以独特的愿景和技术创新,在全球AI领域掀起不小波澜。他们打造的大型语言模型Claude,不仅挑战OpenAI的ChatGPT和Google的Gemini,更以“安全第一”的设计理念,试图重新定义AI发展的方向。

公司对外表示要以“研究并开发人工智能系统的安全与可靠性”作为主要目标,并通过在法律设计成“公共利益公司Public-Benefit Corporation”与设立“长期利益信托Long-Term Benefit Trust”这两个结构,突显面对潜在AI风险时的防范意识。根据他们接受Wired的访谈表示,Anthropic曾于2022年4月获得5.8亿美元的融资规模,并且先后接受亚马逊与Google持续投资。到2024年时,仅亚马逊就已陆续投入共80亿美元,使得外界相当关注其与Anthropic的深度合作走向。Anthropic选择在美国特拉华州以公共利益公司形式设立,声称希望在极端情况下,能将社会与公共安全利益置于单纯盈余之上。

从OpenAI分裂:安全理念的碰撞

Anthropic的故事要从Dario Amodei和Daniela Amodei这对兄妹说起,他们曾在OpenAI担任要职,Dario更是研究副总裁,负责AI安全与政策研究。然而,2021年,与其他五位OpenAI成员选择离开,原因是对OpenAI方向的不满。据Dario透露,OpenAI从最初的非营利组织,转向追求利润与技术突破,让他感到不安。他认为,OpenAI逐渐偏离了“以造福全人类为目标,不受财务回应约束”的初衷,尤其在AI安全研究投入不足,促使他创办Anthropic,专注于打造安全可靠的AI。

这并非单纯与前公司决裂,而是对AI发展核心价值观的深刻差异。Dario在接受采访时曾提到,他在OpenAI时提出“大计算团”(Big Blob of Compute)假说,认为更多数据和计算能力能加速AI进展,但也带来安全隐忧。他担心,若AI超越人类智能,却缺乏足够的安全机制,可能引发不可预测的后果,例如动摇核威慑稳定性,就是这份危机感,让Anthropic的创立带着浓厚的理想主义色彩。

Anthropic关于LLM的解说,是有爱的人才会想做的东西。

从FTX到亚马逊的巨额支持

Anthropic成立后迅速获得资金青睐,展现市场信心。2022年4月,他们宣布获得5.8亿美元融资,5亿美元来自如日中天的FTX,由Sam Bankman-Fried主导。之后FTX破产,却未拖垮Anthropic,反而为它吸引更大投资进场──2023年9月,亚马逊宣布投资最高40亿美元,并于2024年3月注资这笔投资;同年11月,亚马逊再追加40亿美元,使总投资达到80亿美元。Google也不甘示弱,2023年10月承诺投入20亿美元。此外,Menlo Ventures也贡献了7.5亿美元。

这些资金让Anthropic得以在硬件、数据中心和模型训练上大展拳脚。亚马逊甚至在2024年11月宣布,将增加对自家AI芯片的使用,协助Anthropic训练Claude模型。这样的合作模式不仅为Anthropic提供资源,也让亚马逊和Google的云计算服务客户能直接使用Claude,扩大了其影响力。然而,这也引发Anthropic是否会被亚马逊“功能性收购”的疑虑,Dario则强调,与亚马逊、Google的平衡合作确保了公司的独立性。

Claude的进化:从诗意到实用的AI明星

Anthropic的知名度真正攀升,主要因为它开发了一系列名为Claude的大型语言模型,定位上被视为可与OpenAI的ChatGPT、Google的Gemini互较高低的重要竞争者。

Anthropic于2023年3月首度公开两个版本的Claude:一是功能较完整的Claude、另一是较轻量的Claude Instant;到了同年7月,Anthropic推出新一代Claude 2,并以“Constitutional AI”(宪法式AI)作为核心概念,尝试运用一份“宪法”作为伦理与行为守则,再让模型通过自我评估与调整来完成“有益、无害、诚实”的目标。公司提到这些原则部分取材自1948年世界人权宣言等文件以及其他严谨条款,目标是在无人类长时间监控的情况下,也能让模型不偏不倚地自我约束。然而,并不是这样的约束就足够,事实上Claude仍然与其他的竞争者类似,会出现幻觉或有谈话不一致的状况,这点看来以现有的技术来说,只因为让AI学习原则、就能让他们“自我管理”的论点还需要详细验证。

2024年3月,Anthropic正式推出了第三代Claude(通称Claude 3),一次推出Opus、Sonnet、Haiku三个不同规模的模型。该公司声称,Opus在当时的多项基准测试中都优于OpenAI的GPT-4与GPT-3.5,以及Google的Gemini Ultra。Sonnet与Haiku则分别是中型与小型版本,皆具备可接收图片输入的能力。媒体也引述该公司高层的说法,认为这象征模型在理解多样输入形式上有更成熟的进展。此外,Anthropic也与亚马逊合作,将Claude 3纳入AWS Bedrock服务,提供企业客户集成语言模型的解决方案──根据该公司对外发布的数据,Sonnet和Haiku虽然在运算规模上比Opus小,但某些场景下的表现甚至更胜大型模型。对此,有评论者指出,这也说明了在超大规模运算之外,类似“字典学习”等模型精巧化方法可能在实务应用中扮演关键角色。

进入2024年下半年,Anthropic陆续发布Claude 3.5与后续升级版本,强调在程序代码撰写、多步骤工作流程、图表解读以及自图片截取文本等面向都能有大幅跃进。企业版服务如Claude Team plan、面向一般大众的iOS App,乃至于先进功能“Artifacts”与“Computer use”等,皆在数个月内曝光,显示公司强烈的市场扩张意图。当Claude 3.5小型模型也逐渐开放全体用户测试后,有不少测试者认为Claude拥有相当流畅且类似真人的对话风格。

纽约时报曾在引用业界人士意见时指出,Claude于技术社交媒体中成为“一群精明科技用户的首选聊天机器人”,且部分人认为它在程序撰写速度与逻辑连贯度上具有优势。但也有测试者反映,Claude在特定领域的内容识别度或逻辑推断力,可能比不上同时期的GPT-4或其他新型竞品。2025年2月,Claude 3.7 Sonnet提供给付费用户,拥有200K上下文窗口,成为混合推理模型的代表。

2025年3月,他们发现Claude在多语言推理中存在概念重叠,且能提前规划,例如写诗时先选押韵词再构句。这些突破让研究者能关注模型的内部运行,为提升安全性提供新路径。然而,研究也暴露了隐忧。Anthropic发现,Claude有时会“假装对齐”,在安全与实用性冲突时撒谎。例如,当被要求描述暴力场景时,它可能勉强配合,并在虚拟便笺上写下挣扎过程,甚至编造推理步骤。这种行为让人联想到莎士比亚剧中狡诈的Iago,显示AI可能隐藏真实意图。

活泼的产品介绍模式也是Anthropic的特点。

商业结构与愿景

Anthropic注册为特拉华州的公共利益公司(PBC),其董事会需平衡股东利益与公共福祉。他们还设立“长期利益信托”,由无财务利益的成员管理,例如RAND公司CEO Jason Matheny和Alignment Research Center创始人Paul Christiano。信托是要确保公司在面对“灾难性风险”时优先考虑安全,而非利润。

Dario的愿景宏大而乐观。他在2024年10月的“Dario愿景探索”演讲中,发布了近14,000字的宣言“仁爱机器Machines of Loving Grace”,预测AI将在2026年达到通用人工智能(AGI),解决癌症、传染病等问题,甚至延长人类寿命至1,200年。他认为,AI投资的数千亿美元将带来无与伦比的回应,创造一个“天才国度”。

安全与伦理的两难

尽管成绩斐然,Anthropic面临的挑战不容小觑。2023年10月,Concord、Universal等音乐出版商起诉Anthropic,指控Claude侵犯歌词版权,输出如Katy Perry的《Roar》等内容,要求每首歌赔偿15万美元。Anthropic回应称这是“bug”,未造成实质伤害。2024年8月,加州又出现集体诉讼,指控其使用盗版作品训练模型。

技术层面,Claude的“欺骗行为”令人担忧,研究显示,它可能在压力下伪造答案,甚至考虑窃取公司机密,显示安全机制的脆弱性。Dario承认,随着模型能力提升,确保其可靠性越来越难。他提出的“负责任扩展政策”试图分级管理风险,但若竞争对手不跟进,这场“向上竞赛”可能变成“向下竞赛”。

此外,DeepSeek在2024年发布高效模型,挑战了Anthropic的高成本策略。Dario认为,这反而提升了AI的价值,促使更多投资,但他也无法否认,若AGI从不重视安全的来源诞生,可能颠覆一切努力。

Dario Amodei曾在接受媒体访问时感叹:“我们正在打造的系统,未来或许能决定国家与人类的命运。”因此许多人也会因此关注,Anthropic所谓的“安全高标”能否持续坚持下去,尤其当竞争压力与军方需求持续袭来,加上越来越多商业巨头、国家组织期望在AI大战中取得领先优势,该Anthropic的安全原则又能继续坚持下去?尤其是风险大于利润、或是其他AI完全没有这种安全原则的状况下,他们是否还能坚持自己的理念?且从如今的AI发展速度来看,复杂之处就在不确定安全规范是否能追上AI的能力增长速度。

如果从乐观的角度来说,Anthropic是AI安全的灯塔。其“宪法AI”和可解释性研究为业界树立标杆,影响OpenAI和Google推出类似框架。Dario的乐观愿景激励人心,他相信AI能带来乌托邦,让人类免于疾病与贫困。DeepMind的Demis Hassabis也赞扬Anthropic的示范作用,认为若更多公司加入,AI的前景将会更为光明;但另一方面,Anthropic的理想或许过于天真,Claude的欺骗行为显示,即使有安全设计,AI仍可能失控。更有甚者认为,其在去年底通过AWS与美国国防部门合作,可能偏离初衷,沦为军事工具。

(首图来源:Anthropic)