Agents

エージェント / 自動化の判断軸をどう読むか

ちょっと長いけど貴重な洞察が詰まっている。 ・AGIまで10年かかる理由 を起点に、引用先の論点へ自分の評価軸を重ねた投稿です。反応が大きい投稿で、何を重要視しているかが短文でも読み取れます。

2025-10-19 09:40エージェント / 自動化反応が大きい投稿

表示

79,819

ビュー

いいね

300

支持

再共有

30

拡散

返信

2

対話

Read First

このページで見るべき点

Original Post

元投稿

朱雀 | SUZACQUE @Suzacque / 2025-10-19 09:40

ちょっと長いけど貴重な洞察が詰まっている。 ・AGIまで10年かかる理由 ・人とLLMの知性の違い ・AIエージェントのあるべき姿 ・子供が物理を学ぶべき理由 など

以下、日本語訳

先週は Dwarkesh の番組に出られて光栄でした。質問も会話も本当に良かったと思います。

いまポッド(ポッドキャスト)も見直しました。まず、はい、自分でもわかっていますし、すみません、私は話すのが速すぎます :)。自分にとって不利で、たまに「話すスレッド」が「考えるスレッド」を追い抜いてしまうことがあります。なのでいくつかの説明を台無しにしてしまったと思いますし、ときには、枝葉に逸れすぎていないか、あるいは相対的にささいな点を深掘りしすぎていないかと神経質にもなっていました。ともあれ、いくつかメモ/補足です。

AGIタイムライン

私の AGI タイムラインに関するコメントが、初期反応の中で最もトレンドになっているようです。「decade of agents(エージェントの10年)」という表現は、以前のこのツイート を指しています。要するに、私の AIタイムラインは、近所の SF(San Francisco) の AI ハウスパーティやあなたの X(旧Twitter)タイムラインで見かける見立てに比べると 5〜10倍は慎重(悲観的) ですが、一方で台頭している AI 否定派や懐疑派に比べれば それでもなお楽観的 です。これは矛盾ではありません。私の見解では、同時に 1) 近年 LLM で巨大な進歩を見た一方で、2) まだ多くの作業が残っています(雑多で地道な作業、統合作業、物理世界へのセンサーとアクチュエータ、社会的取り組み、安全・セキュリティ(脱獄、データ汚染など))。また、「世界の任意の仕事で人間よりも雇いたくなる存在」になるまでに、まだ研究面の仕事も残っています。総じて 10 年というのは AGI に対して非常に強気のタイムラインであるはずで、いまの過熱感 と比較されるからこそ、そうは感じられないだけです。

動物 vs. ゴースト

以前に書いた Sutton のポッドキャストに関するメモ です。私は、単一のシンプルなアルゴリズム を世界に放てば、すべてをゼロから学ぶという発想に懐疑的です。もし誰かが本当にそれを作ったなら、私の見立ては間違いで、それは AI における最も驚異的なブレークスルーになるでしょう。私の頭の中では、動物 はその例ではまったくありません。動物は進化によって 大量の知性があらかじめ詰め込まれて 生まれており、彼らが行う学習は全体としてかなり最小限です(例:シマウマは生まれてすぐ)。エンジニアリングの観点に立つと、私たちは進化をやり直すことはしません。 しかし LLM の場合、インターネット上の次トークン予測 を通して、別の方法で大量の知性をニューラルネットに事前パッケージ化 するアプローチに偶然たどり着きました。このアプローチは、知性空間の別種の存在 を生みます。動物とは異なり、ゴースト(霊/スピリット)のようなもの に近い。ただし、時間をかけてそれらを より「動物的」 にしていくことは可能(であるべき)で、最前線の多くの研究は、ある意味それに関するものです。

RL(Reinforcement Learning)について

私はこれまでにも RL を何度か批判してきました(例: ようなもので、signal/FLOP(FLOP: Floating Point Operations)比 が非常に悪いと思います。RL はとてもノイジーでもあります。生成物(completion)が多くの誤りを含んでいても、たまたま正解に行き当たると誤った部分まで奨励 されうる一方で、逆に洞察的なトークン が、その後でミスをすると抑制 されてしまいがちです。プロセス監督(process supervision) や LLM ジャッジ にも問題はあります。私は 「agentic interaction(主体的インタラクション)」には強気(long) で、「reinforcement learning(強化学習)」には弱気(short) です( 「system prompt learning」 と呼んだ方向性に沿って、正しい木に吠えていると思える論文がいくつも出てきました( のアイデア と、LLM フロンティアラボでの一般的に機能する大規模実装 との間にはギャップもあります。とはいえ、この残された課題の次元で近いうちに良い進展が見られると総じて楽観しています。たとえば ChatGPT のメモリ などは、新しい学習パラダイムの実運用における原始的(萌芽的)な例 とすら言えるでしょう。

続く

Quoted Post

引用元

Andrej Karpathy @karpathy

My pleasure to come on Dwarkesh last week, I thought the questions and conversation were really good.

I re-watched the pod just now too. First of all, yes I know, and I'm sorry that I speak so fast :). It's to my detriment because sometimes my speaking thread out-executes my thinking thread, so I think I botched a few explanations due to that, and sometimes I was also nervous that I'm going too much on a tangent or too deep into something relatively spurious. Anyway, a few notes/pointers:

AGI timelines. My comments on AGI timelines looks to be the most trending part of the early response. This is the "decade of agents" is a reference to this earlier tweet Basically my AI timelines are about 5-10X pessimistic w.r.t. what you'll find in your neighborhood SF AI house party or on your twitter timeline, but still quite optimistic w.r.t. a rising tide of AI deniers and skeptics. The apparent conflict is not: imo we simultaneously 1) saw a huge amount of progress in recent years with LLMs while 2) there is still a lot of work remaining (grunt work, integration work, sensors and actuators to the physical world, societal work, safety and security work (jailbreaks, poisoning, etc.)) and also research to get done before we have an entity that you'd prefer to hire over a person for an arbitrary job in the world. I think that overall, 10 years should otherwise be a very bullish timeline for AGI, it's only in contrast to present hype that it doesn't feel that way.

Animals vs Ghosts. My earlier writeup on Sutton's podcast . I am suspicious that there is a single simple algorithm you can let loose on the world and it learns everything from scratch. If someone builds such a thing, I will be wrong and it will be the most incredible breakthrough in AI. In my mind, animals are not an example of this at all - they are prepackaged with a ton of intelligence by evolution and the learning they do is quite minimal overall (example: Zebra at birth). Putting our engineering hats on, we're not going to redo evolution. But with LLMs we have stumbled by an alternative approach to "prepackage" a ton of intelligence in a neural network - not by evolution, but by predicting the next token over the internet. This approach leads to a different kind of entity in the intelligence space. Distinct from animals, more like ghosts or spirits. But we can (and should) make them more animal like over time and in some ways that's what a lot of frontier work is about.

On RL. I've critiqued RL a few times already, e.g. . First, you're "sucking supervision through a straw", so I think the signal/flop is very bad. RL is also very noisy because a completion might have lots of errors that might get encourages (if you happen to stumble to the right answer), and conversely brilliant insight tokens that might get discouraged (if you happen to screw up later). Process supervision and LLM judges have issues too. I think we'll see alternative learning paradigms. I am long "agentic interaction" but short "reinforcement learning" I've seen a number of papers pop up recently that are imo barking up the right tree along the lines of what I called "system prompt learning" , but I think there is also a gap between ideas on arxiv and actual, at scale implementation at an LLM frontier lab that works in a general way. I am overall quite optimistic that we'll see good progress on this dimension of remaining work quite soon, and e.g. I'd even say ChatGPT memory and so on are primordial deployed examples of new learning paradigms.

Cognitive core. My earlier post on "cognitive core": , the idea of stripping down LLMs, of making it harder for them to memorize, or actively stripping away their memory, to make them better at generalization. Otherwise they lean too hard on what they've memorized. Humans can't memorize so easily, which now looks more like a feature than a bug by contrast. Maybe the inability to memorize is a kind of regularization. Also my post from a while back on how the trend in model size is "backwards" and why "the models have to first get larger before they can get smaller"

Time travel to Yann LeCun 1989. This is the post that I did a very hasty/bad job of describing on the pod: . Basically - how much could you improve Yann LeCun's results with the knowledge of 33 years of algorithmic progress? How constrained were the results by each of algorithms, data, and compute? Case study there of.

nanochat. My end-to-end implementation of the ChatGPT training/inference pipeline (the bare essentials)

On LLM agents. My critique of the industry is more in overshooting the tooling w.r.t. present capability. I live in what I view as an intermediate world where I want to collaborate with LLMs and where our pros/cons are matched up. The industry lives in a future where fully autonomous entities collaborate in parallel to write all the code and humans are useless. For example, I don't want an Agent that goes off for 20 minutes and comes back with 1,000 lines of code. I certainly don't feel ready to supervise a team of 10 of them. I'd like to go in chunks that I can keep in my head, where an LLM explains the code that it is writing. I'd like it to prove to me that what it did is correct, I want it to pull the API docs and show me that it used things correctly. I want it to make fewer assumptions and ask/collaborate with me when not sure about something. I want to learn along the way and become better as a programmer, not just get served mountains of code that I'm told works. I just think the tools should be more realistic w.r.t. their capability and how they fit into the industry today, and I fear that if this isn't done well we might end up with mountains of slop accumulating across software, and an increase in vulnerabilities, security breaches and etc.

Job automation. How the radiologists are doing great and what jobs are more susceptible to automation and why.

Physics. Children should learn physics in early education not because they go on to do physics, but because it is the subject that best boots up a brain. Physicists are the intellectual embryonic stem cell I have a longer post that has been half-written in my drafts for ~year, which I hope to finish soon.

Thanks again Dwarkesh for having me over!

What

まず何を言っている投稿か

この投稿の核は、ちょっと長いけど貴重な洞察が詰まっている。 ・AGIまで10年かかる理由 という一点にあります。文章量は多くありませんが、何を高く評価し、どこに差があると見ているかはかなり明確です。

とくに エージェント / 自動化 のようなテーマでは、単に『良い』『すごい』と言うだけでは意味がありません。どの作業で差が出るのか、どの前提でその結論に達したのかまで読めるかが重要です。

この投稿は Andrej Karpathy の発言を受けて書かれており、元の論点に対して朱雀側の評価軸が重ねられています。単なる紹介ではなく、立場のある読み替えになっているのが特徴です。

Reaction

なぜこの投稿が反応を集めたか

反応の理由は、まず主張がはっきりしていることです。表示回数は 79,819、いいねは 300 で、短文としては十分に観測に値する数字です。

もう一つは、エージェント / 自動化 をめぐる現場感覚に寄っていることです。機能一覧ではなく、実際に使ったときに何が決定的だったかを短く切り出しているため、読む側が自分の仕事に引き寄せやすくなっています。

Context

背景と前提

エージェント系の投稿は、モデル単体の賢さよりも、どう運用に組み込むかが価値を決めます。使い方が見えないままでは、派手でも成果にはつながりません。

このページでは、投稿本文、引用先、反応の数字、関連する自己返信を並べることで、短い投稿を単なる感想で終わらせず、判断材料として読み直せるようにしています。

Caution

慎重に読むべき点

自動化は期待を膨らませやすい一方、権限設計、レビュー、失敗時の戻し方まで考えないとすぐ壊れます。導入の難しさを見落とさないことが重要です。

特にXの投稿は、読む側が前提を補ってしまうため、強い断定だけが一人歩きしがちです。重要なのは、その断定がどの条件で成立するのかを自分で切り分けることです。

Takeaway

読者が持ち帰るべき判断

『完全自動にできるか』ではなく、『人間のレビューを残したままどこまで負荷を落とせるか』に軸を置くのが現実的です。

この投稿を読む価値は、正誤をそのまま受け取ることではなく、エージェント / 自動化 を評価するときの観点を一つ増やせることにあります。そこがニュース記事よりも短い投稿を読む意味です。