Claude 是什么?从 Anthropic 那群 OpenAI 出走的人说起

Claude 中文知识站 Lv4

我第一次知道 Anthropic 这家公司,是 2021 年夏天。那会儿朋友圈有人转过一张图,说 OpenAI 安全团队的核心十几个人集体离职了,领头的是个叫 Dario Amodei 的意大利裔研究员,他妹妹 Daniela 跟他一起走。当时我没在意,觉得不过是硅谷又一次常规的团队分裂。

后来 ChatGPT 火了,我被推着去试了 GPT-3.5,然后有朋友从内测通道甩给我一个叫 Claude 的东西,让我试试。我记得那天晚上我把同一段写得很烂的需求文档分别喂给两个模型,让它们帮我重写。GPT 给我的东西结构很漂亮但逻辑是飘的,Claude 给我的第一版不好看,但它会主动指出”你第 3 条和第 5 条是矛盾的,我暂时按第 3 条来写了,你确认一下”。

就那一句话,我记到今天。

那群人为什么非要从 OpenAI 出来

Anthropic 的核心创始团队,基本上是 OpenAI 当年负责 GPT-2、GPT-3 研究和安全的那批人。Dario 之前是 OpenAI 的研究 VP,Daniela 管运营,Tom Brown 是 GPT-3 论文一作,Jared Kaplan 是 scaling law 那篇论文的作者之一。

他们出来的表面原因是”对公司方向有分歧”,但你跟在那个圈子里的人聊过就知道,真实原因没那么玄乎:他们觉得 OpenAI 在安全问题上往后退了,产品化压力越来越大,而他们想做的事——搞清楚”一个能力越来越强的模型,怎么才能持续可控”——在原来那个组织里推不动了。

所以 Anthropic 一开始不是一家产品公司,是一家研究公司。2021 年成立,头两年几乎没对外发布任何可用的东西,只发论文。这跟 OpenAI 一上来就憋大招搞 GPT-3 API 完全是两种打法。

顺便说一句,我去年跟一个在 Anthropic SF 办公室的朋友吃饭,他说他们内部开会还是把”Safety”放在产品节奏前面的,这跟外界的印象差不多能对上。

Constitutional AI 到底是什么,用白话讲

要理解 Claude 跟 GPT 的区别,绕不开 Constitutional AI(简称 CAI)。很多文章讲这玩意讲得云里雾里,我用一个我给非技术客户讲过的比喻:

RLHF,也就是 OpenAI 训 ChatGPT 那套主流做法,相当于雇了一群人类标注员去打分——模型生成 A 和 B 两个回答,人看完说 A 更好,模型就记住”要像 A 那样”。这种方式的问题在于,人工很贵,而且人会累、会不一致、会有偏见。

CAI 的做法是:先写一份”宪法”,大概几十条原则(比如”不要帮用户做违法的事””不要输出对特定群体不公平的表述””当你不确定的时候要说不确定”),然后让模型自己拿这份宪法去给自己的回答打分、改写、再打分。人类只在最开始参与,后面大部分工作模型自己循环。

好处是一致性高、可审计(宪法是明文的)、更便宜。缺点是如果宪法写歪了,模型会一本正经地把错误放大。Anthropic 这几年在改的主要就是这份宪法本身。

想展开看 Claude 和 GPT、Gemini 各自的路线差异,我之前写过一篇 2026 Q2 的横向对比,可以接着读。

Claude 家族这几年怎么长起来的

我简单捋一下,按我自己用过的版本为准:

  • Claude 1(2023 初):只在 Slack 里能用,反应慢,但长文本理解明显比当时的 GPT-3.5 好。
  • Claude 2(2023 年中):开放了 API,上下文窗口做到 100K,我当时拿来啃合同、翻法律文书,第一次感觉”这东西能干活”。
  • Claude 3 系列(2024):第一次分了 Haiku / Sonnet / Opus 三档,Opus 3 在推理和写作上当时是拉开同档 GPT 一截的。
  • Claude 3.5 / 3.7(2024-2025):Sonnet 3.5 开始真的好用,Claude Code 也是这一代起步的。
  • Claude 4 系列(2025-2026):现在线上是 Haiku 4.5、Sonnet 4.6、Opus 4.7。Sonnet 4.6 已经是我日常 80% 任务的主力。

三档模型怎么选,我在这篇 Haiku/Sonnet/Opus 选型笔记里写得很细,这里不重复。

和 GPT、Gemini 的定位差异

我尽量不贬低其他家,说几个我自己体感上的区别:

写长文、处理长文档:Claude 到现在为止还是我的首选。它在 50K 以上上下文里不容易丢信息,GPT-4 类在这种场景下常常会”中间段失忆”。

代码:以前 GPT 更强,2025 年之后 Claude Code + Sonnet 反超了,尤其是改大型代码库、做 refactor 这种活。我现在写代码 90% 用 Claude Code 这一套

对话自然度:GPT 的”人味”更足一点,Claude 会稍微一本正经一些。写营销文案我反而会用 GPT 打草稿,再用 Claude 改逻辑。

安全边界:Claude 拒答率偏高,有时候你让它帮你写个对某个公司有点批评的分析,它会很谨慎。好处是不容易出事,坏处是有时候挺烦的。

价格:Haiku 做到 1 美元/百万 tokens 输入,这个价位段 Anthropic 比较卷。

Gemini 我用得少,主要在 Google Workspace 场景里当插件用,独立用它写东西我没习惯。

我印象最深的一次对话

2024 年夏天,我帮一个客户做合同风险审查,把一份 80 页的英文投资协议丢给 Claude 2,让它找出”对乙方明显不利的条款”。

它没直接列清单,先跟我说了一句:”这份合同里的不利条款有些是显性的(比如第 14.3 条违约金),有些是靠几条互相引用的条款组合出来的陷阱(比如 7.2+11.5+附件 C-3),你想要哪种?”

我当时愣了一下。那个”组合陷阱”它最后挑出来 3 条,其中 1 条我们的律师团队初审都没发现。

从那之后我对 Claude 的印象就定下来了——它不是最聪明的,但它是那个”会告诉你它在想什么、不确定的地方会说出来”的模型。我觉得这跟 Constitutional AI 这条技术路线是有关系的,不完全是运气。

想系统学 Claude?

接下来建议先看三档模型怎么选,搞清楚你手里这个任务该调用哪一个。想直接上手 API 的话,15 分钟跑通第一次请求这篇是我写给完全没碰过的朋友的。横向对比 GPT/Gemini 可以看2026 Q2 三家对比

  • 标题: Claude 是什么?从 Anthropic 那群 OpenAI 出走的人说起
  • 作者: Claude 中文知识站
  • 创建于 : 2026-04-18 09:12:00
  • 更新于 : 2026-04-19 10:04:00
  • 链接: https://claude.cocoloop.cn/posts/claude-what-is-anthropic-vs-openai/
  • 版权声明: 本文章采用 CC BY-NC-SA 4.0 进行许可。
评论