表示
17,665
ビュー
Codex / GPT
ということはGPT-6が2026年9月までにリリースされる可能性もある。 違う名前で出る可能性が高いけど。 を起点に、引用先の論点へ自分の評価軸を重ねた投稿です。明確に伸びた投稿で、何を重要視しているかが短文でも読み取れます。
表示
17,665
ビュー
いいね
96
支持
再共有
20
拡散
返信
1
対話
Read First
Original Post
朱雀 | SUZACQUE @Suzacque / 2025-10-31 06:42
ということはGPT-6が2026年9月までにリリースされる可能性もある。違う名前で出る可能性が高いけど。
以下、日本語訳
⸻
昨日、私たちはライブ配信を行いました。要約すると以下の通りです。
⸻
私たちは2026年9月までに「自動化されたAI研究インターン(automated AI research intern)」を稼働させ、2028年3月までに「真の自動化されたAI研究者(true automated AI researcher)」を実現するという社内目標を設定しました。 これらの目標を達成できない可能性もありますが、その潜在的影響が極めて大きいため、公に透明性を持って発表することが公益に資すると考えています。
⸻
安全戦略(Safety Strategy)
私たちの安全戦略は以下の5層構造に基づいています: 1.価値整合性(Value alignment) 2.目標整合性(Goal alignment) 3.信頼性(Reliability) 4.敵対的耐性(Adversarial robustness) 5.システム安全性(System safety)
特に「思考連鎖の忠実性(Chain-of-thought faithfulness)」というアプローチに期待していますが、これはやや脆弱であり、明確な境界設定と抽象化が必要です。
⸻
プロダクト戦略
製品面では、真のプラットフォーム化を目指しています。 今後は個人や企業が私たちの基盤上に構築し、価値の大部分を自らの手で獲得できるようにしたいと考えています。 現在はChatGPTやAPIを通じて構築が可能ですが、最終的には巨大なビジネスを支えるAIクラウドを提供したいと考えています。
⸻
計算資源と投資計画
現時点で約30ギガワット(GW)の計算能力を確保しており、**総所有コスト(Total Cost of Ownership)は約1.4兆ドル(約210兆円)**に達します。 今後のモデル性能向上と収益成長を見越し、この規模に納得しています。 さらに一歩進めて、週あたり1ギガワットの新規能力を製造できるAIファクトリーを建設したいと考えています。 ただしそのためには、将来のモデル・収益・技術革新・資金調達に関してより高い確信が必要です。
⸻
組織構造
新しい組織構造は以前よりもはるかにシンプルです。 私たちは「OpenAI Foundation」という非営利団体を設立し、それが「OpenAI Group」という公益目的株式会社(Public Benefit Corporation, PBC)を統括します。 ファウンデーションは当初PBCの26%を保有しますが、PBCの成果が著しい場合は**ワラント(warrant)**により持分を増やせます。 PBCはミッション達成のために必要な資金を市場から調達できる仕組みです。
⸻
ミッション(使命)
非営利団体とPBCの双方に共通する使命は変わりません。
「人工汎用知能(AGI)が人類全体に利益をもたらすようにすること」
⸻
非営利部門の初期投資
非営利団体は初期として**250億ドル(約3.7兆円)**を以下に投資します: •医療と疾病治療(health and curing disease) •AIレジリエンス(AI resilience) → これは技術的安全性だけでなく、経済的影響・サイバーセキュリティ・社会的適応などポストAGI時代への移行を支援する要素を含みます。
以前と異なり、現在の非営利団体は迅速に資金を投入できる体制を持っています。
⸻
科学的展望
2026年には、私たちのAIシステムが小規模な新発見を行えるようになると予想しています。 そして2028年には、大規模な科学的発見が可能になるかもしれません。 これは非常に大きな出来事です。 私たちは、科学とその成果を社会全体に広く分配する制度こそが、人類の生活水準を長期的に向上させる最も重要な要素だと考えています。
⸻
Quoted Post
Yesterday we did a livestream. TL;DR:
We have set internal goals of having an automated AI research intern by September of 2026 running on hundreds of thousands of GPUs, and a true automated AI researcher by March of 2028. We may totally fail at this goal, but given the extraordinary potential impacts we think it is in the public interest to be transparent about this.
We have a safety strategy that relies on 5 layers: Value alignment, Goal alignment, Reliability, Adversarial robustness, and System safety. Chain-of-thought faithfulness is a tool we are particularly excited about, but it somewhat fragile and requires drawing a boundary and a clear abstraction.
On the product side, we are trying to move towards a true platform, where people and companies building on top of our offerings will capture most of the value. Today people can build on our API and apps in ChatGPT; eventually, we want to offer an AI cloud that enables huge businesses.
We have currently committed to about 30 gigawatts of compute, with a total cost of ownership over the years of about $1.4 trillion. We are comfortable with this given what we see on the horizon for model capability growth and revenue growth. We would like to do more—we would like to build an AI factory that can make 1 gigawatt per week of new capacity, at a greatly reduced cost relative to today—but that will require more confidence in future models, revenue, and technological/financial innovation.
Our new structure is much simpler than our old one. We have a non-profit called OpenAI Foundation that governs a Public Benefit Corporation called OpenAI Group. The foundation initially owns 26% of the PBC, but it can increase with warrants over time if the PBC does super well. The PBC can attract the resources needed to achieve the mission.
Our mission, for both our non-profit and PBC, remains the same: to ensure that artificial general intelligence benefits all of humanity.
The nonprofit is initially committing $25 billion to health and curing disease, and AI resilience (all of the things that could help society have a successful transition to a post-AGI world, including technical safety but also things like economic impact, cyber security, and much more). The nonprofit now has the ability to actually deploy capital relatively quickly, unlike before.
In 2026 we expect that our AI systems may be able to make small new discoveries; in 2028 we could be looking at big ones. This is a really big deal; we think that science, and the institutions that let us widely distribute the fruits of science, are the most important ways that quality of life improves over time.
What
この投稿の核は、ということはGPT-6が2026年9月までにリリースされる可能性もある。 違う名前で出る可能性が高いけど。 という一点にあります。文章量は多くありませんが、何を高く評価し、どこに差があると見ているかはかなり明確です。
とくに OpenAI のようなテーマでは、単に『良い』『すごい』と言うだけでは意味がありません。どの作業で差が出るのか、どの前提でその結論に達したのかまで読めるかが重要です。
この投稿は Sam Altman の発言を受けて書かれており、元の論点に対して朱雀側の評価軸が重ねられています。単なる紹介ではなく、立場のある読み替えになっているのが特徴です。
Reaction
反応の理由は、まず主張がはっきりしていることです。表示回数は 17,665、いいねは 96 で、短文としては十分に観測に値する数字です。
もう一つは、Codex / GPT系 をめぐる現場感覚に寄っていることです。機能一覧ではなく、実際に使ったときに何が決定的だったかを短く切り出しているため、読む側が自分の仕事に引き寄せやすくなっています。
Context
この系統の投稿では、モデルの能力差を単なるベンチマークではなく、長い推論やファイル横断の作業に使ったときの体感差として語ることが多いです。読者にとって重要なのは、性能表より先に、どの仕事で差が体感に変わるのかを見ることです。
このページでは、投稿本文、引用先、反応の数字、関連する自己返信を並べることで、短い投稿を単なる感想で終わらせず、判断材料として読み直せるようにしています。
Caution
強いモデル評価は、使い手のワークフローと課題の難しさで印象が大きく変わります。汎用的な正解として読むより、自分の仕事で差が出る作業を特定して確かめる方が価値があります。
特にXの投稿は、読む側が前提を補ってしまうため、強い断定だけが一人歩きしがちです。重要なのは、その断定がどの条件で成立するのかを自分で切り分けることです。
Takeaway
複雑な文章整理、複数ファイルをまたぐ考察、調査の論点整理のような『長く考えさせる仕事』で試すと差が見えやすくなります。
この投稿を読む価値は、正誤をそのまま受け取ることではなく、OpenAI を評価するときの観点を一つ増やせることにあります。そこがニュース記事よりも短い投稿を読む意味です。