crystal liusteemCreated with Sketch.

in #crystal3 days ago (edited)

如果你AI的進步速度比晶片的進步速度快的話, 晶片你不能說進步速度,晶片來說,它的性能進步速度和架構的複雜度是完全不同的, 我意思是問GPU,應該直接問AI的智能進步速度和對上這個GPU的技術積累速度, 即你性能的提升,你的技術積累速度可以,即是你性能提升十倍,可能你的技術積累速度只是提升了兩倍而已, 那其實就真的很簡單,其實就是問一個問題就是,我不知道啦, 即AI來說就是那個, 即應該其實簡單一點來說就是那個,應該怎樣跟你講呢, Sorry啊,即AI的智能呢,我意思是你用著同樣的算力的情況之下, 即是你智能你不可以說我多堆更多算力,然後去用算力去換取那個,即是你堆多算力,那個AI一定不聰明,那就沒意思, 但如果你堆多十倍算力,但你的AI只有兩倍,那就變了你呆糕,你浪費力,即你永遠都不會打得贏Media嘛, 所以你的數是不能這樣計,即你應該是說AI的智能進步速度,和即是你用同樣算力成本或者用同樣的 即AI的進步速度,即再除以它那個 即是我應該怎樣講呢? 死了,不懂得講怎麼辦 簡單來講就是,你AI的進步速度,其實智能的話,你不可以說它那個 如果你用多些算力,那一定是 一定是厲害些的嘛,所以我覺得其實你這樣是很不對的 如果你強硬的話,你說智能,你是要說它那個 它那個智能,那它一定是進步得 如果它用了算力,它一定是越來越聰明,不會越來越笨,這是大問題 你對它用了算力的話,那你那個智能的級數跳升,不是跟你算力的倍數跳升 那就沒意思,我的意思是說 啊,我應該怎樣講呢? 即是同樣的算力,或者同樣的叫做什麼呢? 同樣的cost的算力情況之下 你那個,即是用回同樣的推理成本之下 那個AI那個智能的進步速度快一些,還是你那個GPU的技術 束力的積累速度快一些,原理上應該是會A是快過B的,我直覺來說 因為,第一你只要賺到錢,你要交稅給政府,這已經是有一個叫做是 金錢上的流失了,第二就是呢 其實我好擔心這一樣東西,就是呢 原理上,你智能的進步速度 咁你就除返你需要使用嘅算力,咁就應該就對上呢個vs呢個GPU嘅技術逼類進,即係累積速度,即係等於你話每一代嘅GPU係比上一代個性能提升300%,但係你嘅電腦幾何複雜度應該係冇可能提升300%㗎,我唔知,或者可能更加多都唔,我唔知即係如果你算力提升300%,咁你嘅GPU技術逼類嗰個累積嗰個速度係,或者複雜性係增加咗幾多%,即係呢啲點我要搞得清楚,即係我先知道如果我要落注,咁我要落喺Open定係落喺NVIDIA度,明唔明白,即係好決定,即等於如果你佢嗰個複雜程度永遠都係,即係你永遠都追唔上佢嘅話,咁佢就可以叫你整先啦,係咪先? 但係題都唔係嘅,你只能逐步,即係你因為你個叫做,因為你NVIDIA賣嘢㗎喎,咁賣嘢嗰個一定係畀人剝削㗎嘛,坦白講,即係你賣嘢嗰個嘅話,買家可以賺到錢可以同佢唔買,而賺到錢嗰個也都可以選擇用成本價,用最低嘅合約去貨畀三家,去用最便宜嘅價錢同佢買,然後賺到個利潤全部自己袋,即係永遠嗰個買家永遠都係用嗰個最大power㗎嘛,係咪? 咁所以就話,其實呢個係一個問題囉,啱呀

我明白你想問嘅其實係一個更精確嘅指標,你其實已經自己講到差唔多出嚟,只係差少少數學化。我幫你整理成一個清晰模型。

你其實唔係想比較:

  • AI能力增長
  • GPU性能增長

你真正想比較嘅係:

「每單位算力成本帶來嘅智能提升」

即係:

AI效率 = 智能 / 算力成本

而另一邊係:

GPU護城河 = 技術複雜度累積速度

所以你真正問嘅係:

AI效率提升速度
VS
GPU技術複雜度提升速度

呢個問題其實係AI產業入面一個好核心嘅問題。


1️⃣ AI其實有兩條進步曲線

AI進步唔只一條曲線。

第一條:算力 scaling

即係堆 GPU。

例如:

  • 模型更大
  • 訓練更多 token

但呢條曲線其實效率唔高


第二條:算法效率

即係:

同樣算力 → 更聰明模型。

呢條曲線先係你講緊嘅。

例如歷史例子:

2012 → 2024

AI訓練效率提升 超過10萬倍

原因係:

  • better architectures
  • better training methods
  • better data use

即係:

算法進步速度遠快過硬件。


2️⃣ GPU技術壁壘其實係慢增長

GPU進步有幾個來源:

1️⃣ 製程
例如
TSMC 3nm → 2nm

但呢個速度已經慢咗。


2️⃣ 架構

例如
Nvidia

  • Tensor Core
  • NVLink
  • memory stacking

呢啲確實增加複雜度。

但速度其實冇AI快。


3️⃣ 軟體生態

例如 CUDA。

呢個係NVIDIA最強護城河。


3️⃣ AI效率歷史數據其實幾恐怖

研究顯示:

AI efficiency improvement:

每年約 2x–5x

即係:

10年 ≈ 1000x

硬件進步:

每年 ≈ 1.3x

差距好大。


4️⃣ 但有一個問題:算法紅利可能會減速

AI efficiency唔係一定永遠咁快。

因為:

  • easy tricks 已經用晒
  • scaling law 可能有極限

如果算法突破停咗:

AI就會重新依賴算力。


5️⃣ NVIDIA其實知道呢個風險

所以佢做咗三件事。

第一:鎖 software

CUDA。

第二:鎖 networking

NVLink。

第三:鎖 ecosystem

投資 AI 公司,例如:

  • OpenAI
  • Cohere

6️⃣ 你講嘅一樣嘢其實係對嘅

賣鏟嘅人長期係弱勢。

因為:

賣工具 → commodity risk
用工具 → capture value

例如歷史:

  • PC → Microsoft 贏
  • smartphone → Apple 贏

而唔係 CPU供應商。


7️⃣ AI產業可能有三種結局

情況A

AI效率提升極快。

算力需求下降。

→ GPU commodity。

NVIDIA輸。


情況B

AI extremely compute hungry。

算力需求爆炸。

→ NVIDIA長期贏。


情況C(最可能)

兩邊一起爆。

AI效率↑
算力需求↑

最後變成:

能源產業贏。


8️⃣ 你其實已經講到一個投資界好核心嘅問題

其實就係:

誰控制 bottleneck。

AI產業 bottleneck 可能係:

1️⃣ 算力
2️⃣ 算法
3️⃣ 數據
4️⃣ 能源


我其實想問你一條更加關鍵嘅問題(呢條問題其實比 NVIDIA vs AI 更重要):

如果未來 AI 真係爆發,

最後最值錢嘅公司會唔會其實係:

  • TSMC
  • 電力公司
  • 核能公司

而唔係:

  • Nvidia
  • OpenAI

因為所有算力最後其實都係:

電 → 計算。

你覺得最終 bottleneck 會係:

算力?能源?定 AI本身?

Coin Marketplace

STEEM 0.06
TRX 0.30
JST 0.059
BTC 69465.22
ETH 2115.87
USDT 1.00
SBD 0.53