Claude / Anthropic

OpenAIで何を重く見ているか — OpenAI

Anthropic の新モデルMythosに関する噂話。Anthropicの論点を受けて、自分が重視する差分だけを前に出した投稿です。表示 12,259 / いいね 60 / いいね率 0.5%。派手な断定ではなく、どの仕事で差が出るかを読むと価値が見えます。

2026-03-29 09:18Claude / Anthropic系数字が伸びた投稿

表示

12,259

ビュー

いいね

60

支持

いいね率

0.5%

反応密度

再共有

7

拡散

Read First

このページの要点

Original Post

元投稿

朱雀 | SUZACQUE @Suzacque / 2026-03-29 09:18

Anthropic の新モデルMythosに関する噂話。飛躍的な質の進化だがサブスク料金やAPI利用量も跳ね上がりそうとのこと。以下、抜粋。3月初旬に流れていた具体的な噂は、その学習実行によって、予想のほぼ2倍の性能を持つモデルが生まれたというものでした。これは今なお未確認です。ただし、Anthropic が Fortune に対して、その新モデルは「段階的改善ではなく質的な飛躍」だと語ったことは確認されています。一般の利用者にとって、これは世界最高性能のモデルが、まもなくはるかに高価な提供コストを伴うようになり、したがって利用料金もずっと高くなるかもしれない、ということを意味します。そうなれば、すでにどの程度補助されているのか分からないレート制限、価格設定、サブスクリプション・プランに強い圧力がかかるでしょう。最先端の知能は、「計測するまでもなく安い」方向へ向かうのではなく、むしろ「人類の大半には手が届かないほど高価」になる方向へ進むのかもしれません。

Quoted Post

引用元

Andrew Curran @AndrewCurran_

Three weeks ago there were rumors that one of the labs had completed its largest ever successful training run, and that the model that emerged from it performed far above both internal expectations and what people assumed the scaling laws would predict. At the time these were only rumors, and no lab was attached to them. But in light of what we now know about Mythos, they look more credible, and the lab was probably Anthropic.

Around the same time there were also rumors that one of the frontier labs had made an architectural breakthrough. If you are in enough group chats, you hear claims like this constantly, and most turn out to be nothing. But if Anthropic found that training above a certain scale, or in a certain way at that scale, produces capabilities that sit far above the prior trendline, then that is an architectural breakthrough.

I think the leaked blog post was real, but still a draft. Mythos and Capybara were both candidate names for the new tier, though Mythos may now have enough mindshare that they end up keeping it. The specific rumor in early March was that the run produced a model roughly twice as performant as expected. That remains unconfirmed. What is confirmed is that Anthropic told Fortune the new model is a 'step change,' a sudden 2x would certainly fit the definition.

We will find out in April how much of this is true. My own view is that the broad shape of this is correct even if some of the numbers are wrong. And if it is substantially accurate, then it also casts OpenAI's recent restructuring in a new light. If very large training runs are about to become essential to staying in the game, then a lot of their recent decisions, like dropping Sora, make even more sense strategically.

For the public, this would mean the best models in the world are about to become much more expensive to serve, and therefore much more expensive to use. That will put pressure on rate limits, pricing, and subscription plans that are already subsidized to some unknown degree. Instead of becoming too cheap to meter, frontier intelligence may be about to become too expensive for most of humanity to afford.

Second-order effects; compute, memory, and energy are about to become much more important than they already are. In the blog they describe the new model as not just an improvement, but having 'dramatically higher scores' than Opus 4.6 in coding and reasoning, and as being 'far ahead' of any other current models. If this is the new reality, then scale is about to become king in a whole new way. It would also mean, as usual, that Jensen wins again.

投稿の核

まず何を言っている投稿か

この投稿の核は、Anthropic の新モデルMythosに関する噂話。飛躍的な質の進化だがサブスク料金やAPI利用量も跳ね上がりそうとのこと という一点にあります。文章量は多くありませんが、何を高く評価し、どこに差があると見ているかはかなり明確です。

とくに OpenAI のようなテーマでは、単に『良い』『すごい』と言うだけでは意味がありません。どの作業で差が出るのか、どの前提でその結論に達したのかまで読めるかが重要です。

この投稿は Andrew Curran の発言を受けて書かれており、元の論点に対して朱雀側の評価軸が重ねられています。単なる紹介ではなく、立場のある読み替えになっているのが特徴です。

反応の理由

なぜこの投稿が反応を集めたか

反応の理由は、まず主張がはっきりしていることです。表示 12,259 / いいね 60 / いいね率 0.5% で、短文としては十分に観測に値する数字です。

もう一つは、Claude / Anthropic系 をめぐる現場感覚に寄っていることです。機能一覧ではなく、実際に使ったときに何が決定的だったかを短く切り出しているため、自分の仕事へ引き寄せやすい形になっています。

前提整理

背景と前提

Claude系の投稿では、コード生成や文章理解の滑らかさが、他モデルとの比較軸としてよく出てきます。単発の派手さよりも、実務で何回続けて使えるかに注目すると違いが見えやすくなります。

このページでは、投稿本文、引用先、反応の数字、関連する自己返信を並べることで、短い投稿を単なる感想で終わらせず、判断材料として読み直せるようにしています。

読み方

気をつけて見たい点

良い第一印象は出やすい一方で、長い作業や厳密な制御では別の弱点が出ることがあります。短い感動だけで結論を固定しない方が整理しやすくなります。

引用投稿を受けた短文は、元の論点をすべて説明しません。元投稿の問題設定と、そこに対して何だけを追加しているのかを分けて眺めると筋が通ります。

持ち帰り

最後に残る論点

同じタスクを複数回まわし、説明の安定性と修正依頼への追従性を見ると差が出ます。

元の論点に同意するかどうかより、OpenAI を評価するときに何だけを残して要約しているかが見えやすいページです。