crystal liu

in #crystal11 hours ago (edited)

因為以而家目前OpenAI嘅消遣速度 如果佢唔能夠喺AGI來臨之前準備好晒所有產能 去應付AGI嘅需求嘅話 即日常嘅算力需求嘅話 其實呢佢就冇辦法去追返個之前啲損失 因為如果原理上嚟講 你三會打慢 假設AGI係2027年之前就會嚟 即係佢係好樂觀㗎嘛 你Anthopica話去到2035年係好悲觀㗎嘛 如果你根據呢兩套邏輯 其實佢一個係建基於 其實我覺得其實兩個假設都冇錯 只不過一個係建基於戰爭嘅假設 一個就係建基於2027年之前都唔會發生台海戰爭 一個就係建基於2027年之前會發生一次大規模 即係可能第三次世界大戰或者2.5 不是第三次世界大戰,就是2.5次世界大戰 就是1914年 第二次世界大戰就是1939年 那World War 2.5吧, 我們不要當3.0吧 那就是台海戰爭了 那所以你2.5的時候 當然你可以算上那些, 譬如說俄羅斯, 俄羅斯就係做開場戲 所以佢係屬於係開幕儀式啦 即係呢場叫做Opening Ceremony, 等如日本侵華咁樣 即等如盧溝橋事件咁樣, 咁中間仲有啲 中間嗰啲唔重要嗰啲, 即等於嗰啲門槍 然後到你中共打台灣就係 就係呢個叫做World War 2.5嘅壓軸登場啦 OK,咁其實一個就係建基於 即係世界和平嘅假設, 即係冇戰爭嘅假設 一個就係建基於戰爭假設去賭呢場競賽嘛, 係咪 即佢個Hidden Agenda, Anthopica Hidden Agenda其實就係呢樣嘢

我明你想講嗰個「隱含前提」:
好似兩條路——

  • 一條:世界基本穩定 → 靠技術/算力競賽(你講 OpenAI 嗰套)
  • 另一條:世界出現大 disruption → 供應鏈斷裂,格局重排(你懷疑 Anthropic 嗰套)

但我想幫你「收窄同校正」幾個關鍵位,因為你而家個模型有一個好大嘅跳躍👇


1️⃣ 「AGI時間預測 ≠ 戰爭假設」

你將:

  • OpenAI(偏樂觀,AGI可能較早)
  • Anthropic(相對保守)

👉 解讀成:

一個 assume 無戰爭
一個 assume 有戰爭

其實呢一步係過度推論

現實入面佢哋嘅分歧主要係:

  • Artificial General Intelligence 技術路徑嘅判斷
  • 安全 vs 速度取捨
  • scaling law 仲 work 幾耐

👉 唔係基於地緣政治賭局


2️⃣ 「算力不足會輸」——方向啱,但你忽略咗一個變量

你講:

如果 OpenAI 喺 AGI 前準備唔到算力,就追唔返

✔️ 呢個邏輯係有道理嘅(你個 energy model其實幾貼)

但你漏咗一個好關鍵嘅 factor:

👉 效率提升速度 > 算力增加速度(某啲階段)

即係:

  • 更好算法(Mixture-of-Experts、推理優化)
  • 更高 utilization(software layer)
  • inference cost 壓縮

👉 有機會做到:

同樣算力 → 更高「有效智能輸出」

所以唔係純粹「堆GPU」遊戲


3️⃣ 「戰爭 scenario」其實係全體 reset,不是偏向某一方

你提到:

  • 台海戰爭
  • TSMC 被摧毀
  • 全球算力重置

👉 呢個 scenario 我幫你用你個 energy framework 講清楚:

戰爭 = 系統級負能量 shock

影響:

  • GPU supply(NVIDIA)直接受創
  • data center expansion 停滯
  • 電力、網絡、資本市場全部受壓

👉 結果唔係:

  • A 贏 B

而係:

  • 整個 AI 進程減速甚至倒退

4️⃣ 你講「Hidden agenda」——我會直接反駁你呢點

你話:

Anthropic hidden agenda 係建基於戰爭

呢個講法我會直接話:唔成立,甚至方向錯咗

原因:

  1. 公司無法控制戰爭
  2. 戰爭對佢哋係負EV(expected value)事件
  3. Anthropic本身定位係「安全導向」
    → 佢哋更傾向減少 catastrophic risk,而唔係利用佢

👉 如果佢真係「押戰爭」,等於:

將自己命運交俾完全不可控變量

呢個唔係戰略,係賭命


5️⃣ 但你個直覺,其實觸到一個更深嘅真問題

你真正抓到嘅係呢樣👇

AI競賽其實極度依賴「全球穩定供應鏈」

所以:

  • 和平 → scaling 繼續 → 快速進步
  • 大戰 → scaling中斷 → 全部人 slowdown

👉 換句話講:

AI競賽本質上係一個「建立喺全球化之上」嘅遊戲


6️⃣ 幫你重構一個更準確嘅兩條路模型

我幫你 refine 成:

路線A(OpenAI偏向)

  • 假設:供應鏈基本穩定
  • 策略:高速 scaling + 快速產品化
  • 風險:算力成本爆炸 / safety lag

路線B(Anthropic偏向)

  • 假設:進展不確定 + 風險高
  • 策略:安全優先 + 穩定 scaling
  • 風險:被速度型對手超越

👉 真正分歧係:

「快爆 vs 穩行」

而唔係:

❌ 和平 vs 戰爭


7️⃣ 最後用你嗰個「World War 2.5」講法收結

你個敘事其實幾有畫面感,但喺分析上有個問題:

👉 你將「極端事件」變成「基準假設」

但對企業戰略嚟講:

  • baseline 一定係「最可能發生嘅世界」
  • 戰爭只係 tail risk(尾部風險)

一句總結(照你style)

你而家個模型等於:

用核戰作為 base case 去計 AI競賽勝負

但現實係:

核戰發生 = 遊戲中止
唔係分勝負


如果你想再深一層,我可以幫你整一個:

👉「OpenAI vs Anthropic × 算力 × 時間 × 戰爭 shock」四維 matrix
用你個 energy / momentum 模型去量化邊種情境先真係會出現「勝負分叉點」。

Coin Marketplace

STEEM 0.06
TRX 0.32
JST 0.066
BTC 71292.98
ETH 2194.15
USDT 1.00
SBD 0.49