【キーワード】電力を浪費しまくる、生成AIで地球が滅ぶ、生成AIは葬れ
【投稿者コメント】
下記の【以下転載】の報告は、「"現実の生成AI"の実力・影響力を冷静に報告したもの」と云える!
そもそも、「OpenAIの論文で、モデルは規模を大きくすればするほど性能が向上し続ける。その改善はべき乗則に従う可能性があり、より大きな言語モデルを構築し、より大規模なデータセットで訓練し続ければ、モデルは驚くほど高性能になっていく」と推論した事が誤りだ!
この世に、「永久機関」などは有り得ないのに、言語モデルの永久的な性能向上を信用した点に問題がある!
やがて、AIの脅威的な進化は、GPT-5で、減速してゆき、この限界を破る手法として、新アプローチの「事後学習」を持ち出してきた。
いわゆる機械学習の一種である強化学習に依って、性能をブラシュアップする手法だ。
だが、「事後学習」に依る改善も限界が視られ、Appleの研究チームは2025年6月に発表した論文で、最新の「LLM」はパズルの複雑さが一定の水準を超えると「性能がゼロに崩壊する」事が確認されたと述べており、o3-miniやClaude 3.7 Sonnetの「思考」モード、DeepSeek-R1と云った「推論モデル」は、「未だ一般化可能な問題解決能力を獲得していない」と論文で述べている。
2025年8月になると、アリゾナ州立大学の研究チームが更に辛辣な見方を示し、AI企業が「推論」と呼ぶものは「訓練データの分布の外側に出た瞬間消えてしまう儚(はかな)い蜃気楼」に過ぎないと述べた。
要するに、事後学習に依る改善は、かつてのスケーリングほどモデルの力を底上げしていない。
こうした「生成AI」の能力開発の鈍化・サチュレート・飽和状態を視ると、2020年のスケーリング則論文の付録の「注意事項」を思い起こす必要がある。そこには、こう記されていた。「現時点では、我々が提案するスケーリング則について理論的な確固たる理解には至っていない。モデルの規模及び計算量とのスケーリング関係については、とりわけ謎が多い」と。
『実際には、スケーリング則は途中までしか機能しなかった。コンピュータに思考を教えると云う営みそのものが、未だ謎に包まれている。だからこそ、「生成AI」への取り組みは、傲慢ではなく慎重な姿勢で進むべきなのだ。』と結論付けている!
『生成AIの誇大宣伝を信じ続ける事は、危険があるとも言える。最近の記事でジトロンは、米国の株式市場価格の約35%─つまり、多くの人が退職後に備えて運用しているポートフォリオの大部分─が、いわゆる「マグニフィセント7」と呼ばれる大手テック企業7社に関係している事を指摘した。ジトロンの分析に依れば、これら企業の過去18カ月間のAI関連の資本的支出は5,600億ドル(約86兆円)に上る一方、AIによる収益は、せいぜい350億ドル(約5兆4,000億円)程度に留まっていると云う。』と警告している。
つまり、生成AIバブルが弾けたら、米国の株式投資に廻した年金資金が枯渇する危険性があると指摘している!
この指摘は米国だけに当てはまらず、日本の年金資金も同様の危険性がある!
『穏健な見方をすれば、今後数年間でAIツールは着実だが緩やかな進歩を続けるだろう。多くの人にとっての用途は、情報検索や、レポート要約、イベント議事案の下書きと云った面倒な作業の効率化など、日常的だが限られた場面に留まるはずだ。プログラミングや学術研究など、一部の分野は劇的に変化するだろう。声優やSNS用コピーライティングなど、ほぼ消滅する可能性のある職業もある。だが、AIが労働市場全体を大きく揺るがす事は無いかもしれない。』と予想している。
◇
ここでは、生成AIの「コスパ(費用対効果)」や「エネルギー効率」には触れていないが、生成AIのLLM作成過程の事前学習や生成後のブラシュアップの事後学習には、データセンターの莫大なサーバー資源と巨大な電源資源を浪費する!
いちデータセンターで数十万規模の都市なみの巨大な電力を浪費するから、新しい「生成AI用データセンター設置に備えて原発を創設する!」と云う様な開発話しも出てくる!
電力の浪費は、生成AIのLLM作成過程に留まらず、PCユーザがネットでの買い物等で、WindowsのAIエージェント機能を一斉に使い出せば、莫大な電力がデータセンターで浪費されてしまう。
買い物や交通機関・ホテル等の予約に、生成AIのAIエージェント機能を利用すれば、簡単に済ませるだろうが、引き換えに、資源量に限界のある電力が枯渇して、高価な電力料金を支払わされるだけだ!
この「生成AIの利便性」と「電力資源の価値」を比較して、どちらが重要かは云うまでもなく、CO2排出規制や省資源を考慮すれば、生成AIの開発や使用には規制が掛かって当然だろう!
【以下転載】
https://wired.jp/article/sz-what-if-ai-doesnt-get-much-better-than-this/
添付図1_SZ MEMBERSHIP

「AIがもうこれ以上余り進化しないとしたら?」
CAL NEWPORT
https://wired.jp/author/cal-newport/
2025.11.26
ILLUSTRATION:SHIRA INBAR
OpenAIのGPT-5は、大規模言語モデルの進歩が行き詰まりつつある可能性を示唆している。スケーリング則の崩壊、事後学習の限界、囁かれるAIバブル─果たして、その先行きに光は差しているのか?
Read more:
Content:
To honor your privacy preferences, this content can only be viewed on the site it originates from
・AIバブルをめぐる、『WIRED』日本版ポッドキャストのエピソードはこちら
https://open.spotify.com/embed-podcast/episode/4fFa7ZXiYauS7Sq15iqSnt
table of contents:
・「この技術革命は止められない」
・AIの脅威的な進化とその減速
・失敗に学ぶ新アプローチ「事後学習」
・実感出来ない「ベンチマークの向上」
・AGIの実現には慎重な姿勢で臨む
今日の人工知能(AI)技術をめぐる熱狂と恐怖の大部分は、2020年1月にさかのぼる事が出来る。OpenAIの研究チームが「Scaling Laws for Neural Language Models(ニューラル言語モデルのスケーリング則)」と云う30頁の報告書を発表した瞬間だ。チームを率いていたのはAI研究者のジャレッド・カプランで、メンバーにはAnthropicの現CEOであるダリオ・アモデイも含まれていた。研究チームが取り組んだのは、かなりテックギーク的な問いだった─言語モデルの規模や訓練の強度を上げると、その性能はどう変化するのか?
当時、機械学習の専門家の多くは、一定の規模を超えると言語モデルは訓練データの答えをそのまま暗記し始め、実用性が低下すると考えていた。だが、OpenAIの論文は、モデルは規模を大きくすればするほど性能が向上し続けると主張した。しかも、その改善はべき乗則に従う可能性がある─つまり、ホッケースティックの様に急激な上昇カーブを描くと云うのだ。
論文の示唆は明快だった。より大きな言語モデルを構築し、より大規模なデータセットで訓練し続ければ、モデルは驚くほど高性能になっていくと云う事だ。論文発表から数カ月後、OpenAIはこのスケーリング則を裏付けるかの様に、前世代のGPT-2の10倍の規模を持ち、性能も飛躍的に向上したGPT-3を公開した。
■「この技術革命は止められない」
突如として、人間と同等以上の能力で幅広いタスクをこなす「汎用人工知能(AGI)」と云う理論上の概念が、手の届く所まで近づいた様に思われた。スケーリング則が正しいのであれば、AI企業はより多くの資金と計算資源を投入する事で、AGIの実現に到達出来るかもしれない、と。
それから1年も経たずに、OpenAIのCEOサム・アルトマンは「Moore’s Law for Everything(あらゆる事にムーアの法則を)」と題したブログ記事を発表した。その中で彼は、「現在、人間が行なっている仕事のますます多く」をAIが担う様になり、資本の所有者に想像を絶するほどの富をもたらすと主張した。「この技術革命は止められない。世界は急速かつ劇的に変化するだろう。そこで生まれる富を分配し、より多くの人々が望む人生を送れる様にする為には、同等に劇的な政策転換が必要になる」
スケーリングに依っていずれAGIに到達するのは必然だ、と云うAI界の信念の強さは幾ら強調してもし過ぎる事はない。22年、AI起業家でありニューヨーク大学の心理学・神経科学名誉教授であるゲイリー・マーカスは、カプランらの論文に異議を唱え、「いわゆるスケーリング則は重力の様な普遍的法則と云うより観察結果に過ぎず、永遠に成り立つとは限らない」と指摘した。これに対する反発は素早く、そして激しかった。「これまで書いたエッセイの中で、あれほど多くの人々、そして著名人達─サム・アルトマン、グレッグ・ブロックマン、ヤン・ルカン、イーロン・マスクなど─から嘲笑されたものはない」と、マーカスは後に振り返っている。
最近、私の取材に対しても、あの発言に依って自分は機械学習の世界から事実上「破門」されたのだと語った。彼の発言からまもなく、ChatGPTはデジタルサービス史上最速で1億人のユーザを獲得した。そして、23年3月、OpenAIがリリースした次世代モデルのGPT-4はスケーリング曲線を更に大きく跳ね上げる性能を示し、Microsoftの研究チームが「Sparks of Artificial General Intelligence(AGI誕生の兆し)」と云う論文を書くほどの衝撃を与えた。その後の1年間で、AI分野へのベンチャー投資額は80%増加した。
■AIの脅威的な進化とその減速
だがその後、進歩は鈍化した様に見えた。OpenAIは2年以上に渡り目玉となる新モデルを発表せず、代わりに専門的なプロダクトのリリースに注力したものの、世間一般には余り知られなかった。
業界内では、AIのスケーリング則がついに限界を迎えつつあるのではないかと云う声も上がり始めた。OpenAIの共同創業者イルヤ・サツキヴァーは、2024年11月にロイターの取材でこう語っている。「10年代はスケーリングの時代でした。けれども、今は又驚きと発見の時代が戻ってきたんです。皆が次なる物を探しています」
当時の『TechCrunch』の記事は、業界の空気をこうまとめた。「今では誰もが認めているようだ。大規模言語モデル(LLM)を事前学習させる際に、計算資源とデータ量を増やしていくだけで全知のデジタル神の様な物が生まれる訳ではない、と云う事を」。だが、こうした冷静な観察は、他のAIリーダ達のセンセーショナルな発言にかき消された。
アモデイは最近、「AIはほぼ全ての知的作業に於いて人間を超え始めている」とアンダーソン・クーパーの番組で語り、Axiosのインタビューでは今後1〜5年の内に初級ホワイトカラー職の半分が「消滅する」可能性があると予測した。25年の夏には、サム・アルトマンとマーク・ザッカーバーグがそろって、自社に依るスーパーインテリジェンス(超知能)の開発完了が近いと主張した。 https://wired.jp/tag/mark-zuckerberg/?page=2
添付図2_SZ MEMBERSHIP
・AIモデル「Claude」で“善良なる天才”の国を作る、Anthropicの挑戦
https://wired.jp/article/sz-anthropic-benevolent-artificial-intelligence/
BY STEVEN LEVY
そして、8月初旬、ついにOpenAIはGPT-5をリリースした。AI能力の次なる大飛躍をもたらすと期待されていたモデルだ。初期のレビューでは幾つかの機能に好意的な反応が見られた。人気テック系YouTuberのMrwhosethebossが、ポケモンを駒に使ったチェスゲームの作成をGPT-5に頼んだ所、業界最先端のコーディングモデルGPT-4o-mini-highを使った時よりもはるかに良い結果が得られたと云う。又、GPT-5は、MrwhosethebossのYouTubeチャンネル用の台本もGPT-4oよりうまく書いた。Mrwhosethebossが特に感心したのは、GPT-5がタスクに応じて最適なモデルを自動的に選んでくれる為、ユーザが手動で選ぶ必要が無いと云う点だった。
だが一方で、YouTubeのサムネイル画像や誕生日パーティーの招待状の生成に関してはGPT-4oの方が明らかに優れており、GPT-5は虚偽の情報を容易に生成してしまう事も判明した。公開から数時間の内に、RedditのChatGPTスレッドには新モデルへの落胆の声が相次ぎ、「有料ユーザにとってさえ、史上最悪のゴミ」とする投稿もあった。その後に開かれたAMA[編註:Ask Me Anything。有名人や専門家がユーザの質問に直接答えるスレッド]では、アルトマンやOpenAIのエンジニア達は、ユーザの不満にひたすら対応する展開となった。マーカスは今回のリリースを「遅すぎ、誇大宣伝されすぎ、期待外れ」と総括した。
添付図3_SZ MEMBERSHIP

・「GPT-5を否定する者は完全に間違っている」とサム・アルトマンは言う
https://wired.jp/article/sz-sam-altman-says-the-gpt-5-haters-got-it-all-wrong/ BY STEVEN LEVY
GPT-5のリリース後、AIに関する大げさな予測を以前の様に、文字通り受け取るのは難しくなり、むしろマーカスの様な批評家達の見解の方が現実的に思える様になっている。この技術は確かに重要だが、私達の生活を劇的に変えるほどの物ではない、とする批評は、AIが今後余り進化しないかもしれないと云う別の近未来像を考慮するよう促している。
OpenAIとしても、本来は2年半も待たずにGPT-5をリリースしたかった。テック系メディア『The Information』に依ると、24年春の時点でアルトマンは社員に、コードネーム「Orion」と呼ばれていた次の主力モデルはGPT-4を大幅に上回る性能になると語っていた。所が秋になる頃には、その成果が期待外れである事が明らかになってきた。『The Information』は同年11月の記事でこう報じている。「Orionの性能は確かに過去のモデルを上回ったものの、クオリティ向上の幅はGPT-3からGPT-4への飛躍に比べればはるかに小さかった」
■失敗に学ぶ新アプローチ「事後学習」
Orionの失敗に依って、AIスケーリング則は、そもそも法則ではなかったのではないかと云う業界内の不安が決定的になった。モデルをひたすら巨大化させても、得られる成果がいずれ逓減するのであれば、テック企業はAI製品を強化する為の新たな戦略を必要とする。そこで辿り着いたのが、「事後学習に依る改善」と呼べるアプローチだ。
主要なLLMは、まず、インターネット上の膨大な情報を取り込む「事前学習」と呼ばれるプロセスを経て賢くなる。一方で、吸収した知識や能力をより効果的に活用出来るように、後から精緻化する事も出来る。事後学習の方法の一つは、機械学習の一種である強化学習を適用して事前学習済みモデルを訓練し、特定の種類のタスクでのパフォーマンスを改善すると云うものだ。又、別の手法として、負荷の高いクエリに対してモデルがより多くの計算時間を割いて応答を生成出来る様にする事も可能だ。
添付図4
・巨大AIモデルの限界は近い─MITが示したAIの次の方向性
https://wired.jp/article/the-ai-industrys-scaling-obsession-is-headed-for-a-cliff/
BY WILL KNIGHT
判りやすくクルマに喩(たと)えてみよう。事前学習は車両そのものを作る工程に当たり、事後学習はそれをチューニングする作業だと言える。スケーリング則の論文でカプランらは、事前学習の規模を拡大すればするほど強力なクルマが生まれると予測していた。GPT-3がセダンだとすれば、GPT-4はスポーツカーになる、と云った具合だ。だが、その進化の流れが鈍化すると、業界は既に作ったクルマの性能を上げる方向に目を向ける様になった。事後学習の技術に依って、エンジニア達はクルマの製造者から整備士へと変わったのだ。
テック業界のリーダ達は、事後学習に依って、かつてのスケーリングと同じ速さで製品が進化する事への期待をすぐに口にした。「私達は新たなスケーリング則の出現を目の当たりにしています」と、MicrosoftのCEOサティア・ナデラは、24年秋のカンファレンスで述べた。ベンチャーキャピタリストのアンジニー・ミダも、これを「第二のスケーリング則の時代」と呼んだ。そして12月、OpenAIは新モデルのo1(オーワン)を発表した。これは、事後学習を用いて段階的な推論やコード生成の能力を強化したものだった。その後次々と発表されたo3-mini、o3-mini-high、o4-mini、o4-mini-high、o3-proも、同社が事後学習技術を独自に組み合わせてチューニングしたモデルだ。
他のAI企業も同様の方向転換を添付図った。Anthropicは2月に発表したClaude 3.7 Sonnetで事後学習に依る改善を導入し、Claude 4シリーズでは、それを開発の中心に据えた。イーロン・マスクのxAIも初めはスケーリング戦略を追い続け、冬に発表したGrok 3では、GPT-4の訓練に使われたとされる計算資源の何倍にもなる10万個と云う驚異的な数のH100 GPUチップを用いて事前学習を行なった。だが、Grok 3は競合他社のモデルを大きく上回る成果を出せず、Grok 4の開発では事後学習のアプローチが採用された。GPT-5も、まさにこの流れの上にある。それは全く新しいモデルと云うより、近年の事後学習型モデルを洗練させて一つに統合する試みなのだ。
■実感出来ない「ベンチマークの向上」
事後学習と云うアプローチに依って、私達はいわゆるAGIへと続く道のりを再び歩き始めたのだろうか? OpenAIがGPT-5を発表した際には、「エイダー・ポリグロット多言語コード編集」や「ERQAマルチモーダル空間推論」などの指標を用いて、それまでのモデルとの差を示す20以上のグラフやチャートが公開された。こうしたベンチマークの中には、実際に有用なAIの進歩を反映している物もある。
GPT-5は、プログラミング関連のベンチマークで以前のモデルよりも高スコアを記録し、初期のレビューでもコード生成の質が向上していると云う評価が多かった。文章もより自然で流暢になり、その点は数値にも現れている。だが、これらの改善は、やはり限定的に感じられる。それまでの生成AIが示したブレイクスルー的な能力の大幅拡張と云うより、むしろソフトウェアのアップデートで見られる様な特定機能の改善に近い印象だ。GPT-4が登場した時には、棒グラフを見なくとも、それが過去のあらゆるモデルを凌駕している事は一目瞭然だった。
ベンチマークの中身そのものが疑わしい場合もある。OpenAIがo1をリリースして以降、AI企業は「段階的推論」の指標で進歩を強調してきた。だが、Appleの研究チームは2025年6月に発表した論文「The Illusion of Thinking(思考の幻想)」で、最新の「LLM」はパズルの複雑さが一定の水準を超えると「性能がゼロに崩壊する」事が確認されたと述べている。o3-miniやClaude 3.7 Sonnetの「思考」モード、DeepSeek-R1と云った推論モデルは「未だ一般化可能な問題解決能力を獲得していない」と論文には記されている。
8月になると、アリゾナ州立大学の研究チームが更に辛辣な見方を示し、AI企業が「推論」と呼ぶものは「訓練データの分布の外側に出た瞬間消えてしまう儚(はかな)い蜃気楼」に過ぎないと述べた。こうしたベンチマークをクリアする事は、例えば、私達が仕事で日常的に行なう問題について思考し、解決する事とは全く別の話だ。「AIを使っている企業が『25年モデルは24年モデルより格段に役立つ』と言っているのは余り聞きません。ベンチマーク上では25年モデルの方が優れていてもね」と、マーカスは私の取材で語った。
事後学習に依る改善は、かつてのスケーリングほどモデルの力を底上げしていないようだ。カムリを改造すれば実用性は高まるかもしれないが、幾ら手を加えてもフェラーリにはならない。
■AGIの実現には慎重な姿勢で臨む
先日私は、マーカスと他の懐疑派の専門家二人に、生成AIが今後数年間で経済に与える影響について予測してもらった。「500億ドル(約7兆7,000億円)規模の市場にはなっても、1兆ドル(約150兆円)市場にはならないでしょう」と語ったのは、テクノロジーアナリストでポッドキャスト「Better Offline」のホストを務めるエド・ジトロンだ。マーカスも同じ意見で、「せいぜいで500億ドル、うまくいっても1,000億ドル市場と云った所でしょう」と述べた。
初期の言語モデルを批判した有名論文の共著者で、言語学教授のエミリー・ベンダーは、こう語る。「AIの今後の影響は、この技術の売り手に依る誇大宣伝にどれだけ多くの経営層が乗せられ、職場をそれに合わせて再編するかに依って左右されます。そうした動きが拡がれば拡がるほど、全ての人にとって状況は悪化します」
こうした見方はこれまで非現実的だと言われてきた。統計学者ネイト・シルバーはジトロンのツイートに対し、「年寄りが雲に向かって怒鳴ってる感じだね」と揶揄した事さえある。私達はテック企業のCEO達が描く壮大な未来像を余りにも容易に信じてきたのかもしれない。その流れは変わりつつある様に見える。
添付図5_SZ MEMBERSHIP

・AIバブルは全てを吹き飛ばす|The Big Story
https://wired.jp/article/sz-ai-bubble-will-burst/
BY BRIAN MERCHANT
AIに対するこうした穏健な見方が正しいのであれば、今後数年間でAIツールは着実だが緩やかな進歩を続けるだろう。多くの人にとっての用途は、情報検索や、レポート要約、イベント議事案の下書きと云った面倒な作業の効率化など、日常的だが限られた場面に留まるはずだ。プログラミングや学術研究など、一部の分野は劇的に変化するだろう。声優やSNS用コピーライティングなど、ほぼ消滅する可能性のある職業もある。だが、AIが労働市場全体を大きく揺るがす事は無いかもしれない。そして、スーパーインテリジェンスの様な誇張された概念は、やがて真剣に受け止められなくなっていくのかもしれない。
AIの誇大宣伝を信じ続ける事は、それ自体に危険があるとも言える。最近の記事でジトロンは、米国の株式市場価格の約35%─つまり、多くの人が退職後に備えて運用しているポートフォリオの大部分─が、いわゆる「マグニフィセント7」と呼ばれる大手テック企業7社に関係している事を指摘した。ジトロンの分析に依れば、これら企業の過去18カ月間のAI関連の資本的支出は5,600億ドル(約86兆円)に上る一方、AIによる収益は、せいぜい350億ドル(約5兆4,000億円)程度に留まっていると云う。「正気を疑いたくなる数字です」とジトロンは語った。
とはいえ、いわゆる穏健派の論者も、人々はAIに対して油断すべきではないと考えている。マーカスは、生成AIに過度な期待を寄せてきたのは誤りだったとしながらも、新たな開発手法が登場すれば、早ければ2030年代にAGIが実現する可能性もあると見ている。たとえ言語モデルが私達の仕事を完全に自動化する事はなくとも、AIへの関心と投資が再び高まる事でより複雑な技術が誕生し、それが自動化に繋(つな)がる可能性もある。それまでの猶予期間を使って、私達は将来起こり得る混乱に備えるべきだ。効果的なAI規制の策定や、デジタル倫理と云う新しい分野の育成などがその手段となるだろう。
2020年のスケーリング則論文の付録には、後の報道で殆ど見落とされていた「注意事項」がある。そこにはこう記されている。「現時点では、我々が提案するスケーリング則について理論的な確固たる理解には至っていない。モデルの規模及び計算量とのスケーリング関係については、とりわけ謎が多い」。実際の所、スケーリング則は途中までしか機能しなかった。コンピュータに思考を教えると云う営みそのものが、未だ謎に包まれている。だからこそ、傲慢ではなく慎重な姿勢で進むべきなのだ。
(Originally published on The New Yorker, translated by Risa Nagao/LIBER, edited by Nobuko Igari)
https://www.newyorker.com/culture/open-questions/what-if-ai-doesnt-get-much-better-than-this
※『WIRED』に依るAGIの関連記事はこちら
https://wired.jp/tag/artificial-general-intelligence/
Related Articles:
・グーグルの「Gemini 3」はAI時代の検索を更に賢く、強力にする
https://wired.jp/article/google-launches-gemini-3-ai-bubble-search/
・メタ、元OpenAIの研究者を又一人「超知能ラボ」に引き抜く
https://wired.jp/article/meta-poaches-openai-researcher-yang-song/
・ミラ・ムラティが見据える、人類とAGIの共存プロトコル
https://wired.jp/article/sz-vol57-mira-murati-the-big-interview/