crystal liu
如果你AI的進步速度比晶片的進步速度快的話, 晶片你不能說進步速度,晶片來說,它的性能進步速度和架構的複雜度是完全不同的, 我意思是問GPU,應該直接問AI的智能進步速度和對上這個GPU的技術積累速度, 即你性能的提升,你的技術積累速度可以,即是你性能提升十倍,可能你的技術積累速度只是提升了兩倍而已, 那其實就真的很簡單,其實就是問一個問題就是,我不知道啦, 即AI來說就是那個, 即應該其實簡單一點來說就是那個,應該怎樣跟你講呢, Sorry啊,即AI的智能呢,我意思是你用著同樣的算力的情況之下, 即是你智能你不可以說我多堆更多算力,然後去用算力去換取那個,即是你堆多算力,那個AI一定不聰明,那就沒意思, 但如果你堆多十倍算力,但你的AI只有兩倍,那就變了你呆糕,你浪費力,即你永遠都不會打得贏Media嘛, 所以你的數是不能這樣計,即你應該是說AI的智能進步速度,和即是你用同樣算力成本或者用同樣的 即AI的進步速度,即再除以它那個 即是我應該怎樣講呢? 死了,不懂得講怎麼辦 簡單來講就是,你AI的進步速度,其實智能的話,你不可以說它那個 如果你用多些算力,那一定是 一定是厲害些的嘛,所以我覺得其實你這樣是很不對的 如果你強硬的話,你說智能,你是要說它那個 它那個智能,那它一定是進步得 如果它用了算力,它一定是越來越聰明,不會越來越笨,這是大問題 你對它用了算力的話,那你那個智能的級數跳升,不是跟你算力的倍數跳升 那就沒意思,我的意思是說 啊,我應該怎樣講呢? 即是同樣的算力,或者同樣的叫做什麼呢? 同樣的cost的算力情況之下 你那個,即是用回同樣的推理成本之下 那個AI那個智能的進步速度快一些,還是你那個GPU的技術 束力的積累速度快一些,原理上應該是會A是快過B的,我直覺來說 因為,第一你只要賺到錢,你要交稅給政府,這已經是有一個叫做是 金錢上的流失了,第二就是呢 其實我好擔心這一樣東西,就是呢 原理上,你智能的進步速度 咁你就除返你需要使用嘅算力,咁就應該就對上呢個vs呢個GPU嘅技術逼類進,即係累積速度,即係等於你話每一代嘅GPU係比上一代個性能提升300%,但係你嘅電腦幾何複雜度應該係冇可能提升300%㗎,我唔知,或者可能更加多都唔,我唔知即係如果你算力提升300%,咁你嘅GPU技術逼類嗰個累積嗰個速度係,或者複雜性係增加咗幾多%,即係呢啲點我要搞得清楚,即係我先知道如果我要落注,咁我要落喺Open定係落喺NVIDIA度,明唔明白,即係好決定,即等於如果你佢嗰個複雜程度永遠都係,即係你永遠都追唔上佢嘅話,咁佢就可以叫你整先啦,係咪先? 但係題都唔係嘅,你只能逐步,即係你因為你個叫做,因為你NVIDIA賣嘢㗎喎,咁賣嘢嗰個一定係畀人剝削㗎嘛,坦白講,即係你賣嘢嗰個嘅話,買家可以賺到錢可以同佢唔買,而賺到錢嗰個也都可以選擇用成本價,用最低嘅合約去貨畀三家,去用最便宜嘅價錢同佢買,然後賺到個利潤全部自己袋,即係永遠嗰個買家永遠都係用嗰個最大power㗎嘛,係咪? 咁所以就話,其實呢個係一個問題囉,啱呀
我明白你想問嘅其實係一個更精確嘅指標,你其實已經自己講到差唔多出嚟,只係差少少數學化。我幫你整理成一個清晰模型。
你其實唔係想比較:
- AI能力增長
- GPU性能增長
你真正想比較嘅係:
「每單位算力成本帶來嘅智能提升」
即係:
AI效率 = 智能 / 算力成本
而另一邊係:
GPU護城河 = 技術複雜度累積速度
所以你真正問嘅係:
AI效率提升速度
VS
GPU技術複雜度提升速度
呢個問題其實係AI產業入面一個好核心嘅問題。
1️⃣ AI其實有兩條進步曲線
AI進步唔只一條曲線。
第一條:算力 scaling
即係堆 GPU。
例如:
- 模型更大
- 訓練更多 token
但呢條曲線其實效率唔高。
第二條:算法效率
即係:
同樣算力 → 更聰明模型。
呢條曲線先係你講緊嘅。
例如歷史例子:
2012 → 2024
AI訓練效率提升 超過10萬倍。
原因係:
- better architectures
- better training methods
- better data use
即係:
算法進步速度遠快過硬件。
2️⃣ GPU技術壁壘其實係慢增長
GPU進步有幾個來源:
1️⃣ 製程
例如
TSMC 3nm → 2nm
但呢個速度已經慢咗。
2️⃣ 架構
例如
Nvidia
- Tensor Core
- NVLink
- memory stacking
呢啲確實增加複雜度。
但速度其實冇AI快。
3️⃣ 軟體生態
例如 CUDA。
呢個係NVIDIA最強護城河。
3️⃣ AI效率歷史數據其實幾恐怖
研究顯示:
AI efficiency improvement:
每年約 2x–5x
即係:
10年 ≈ 1000x
硬件進步:
每年 ≈ 1.3x
差距好大。
4️⃣ 但有一個問題:算法紅利可能會減速
AI efficiency唔係一定永遠咁快。
因為:
- easy tricks 已經用晒
- scaling law 可能有極限
如果算法突破停咗:
AI就會重新依賴算力。
5️⃣ NVIDIA其實知道呢個風險
所以佢做咗三件事。
第一:鎖 software
CUDA。
第二:鎖 networking
NVLink。
第三:鎖 ecosystem
投資 AI 公司,例如:
- OpenAI
- Cohere
6️⃣ 你講嘅一樣嘢其實係對嘅
賣鏟嘅人長期係弱勢。
因為:
賣工具 → commodity risk
用工具 → capture value
例如歷史:
- PC → Microsoft 贏
- smartphone → Apple 贏
而唔係 CPU供應商。
7️⃣ AI產業可能有三種結局
情況A
AI效率提升極快。
算力需求下降。
→ GPU commodity。
NVIDIA輸。
情況B
AI extremely compute hungry。
算力需求爆炸。
→ NVIDIA長期贏。
情況C(最可能)
兩邊一起爆。
AI效率↑
算力需求↑
最後變成:
能源產業贏。
8️⃣ 你其實已經講到一個投資界好核心嘅問題
其實就係:
誰控制 bottleneck。
AI產業 bottleneck 可能係:
1️⃣ 算力
2️⃣ 算法
3️⃣ 數據
4️⃣ 能源
我其實想問你一條更加關鍵嘅問題(呢條問題其實比 NVIDIA vs AI 更重要):
如果未來 AI 真係爆發,
最後最值錢嘅公司會唔會其實係:
- TSMC
- 電力公司
- 核能公司
而唔係:
- Nvidia
- OpenAI
因為所有算力最後其實都係:
電 → 計算。
你覺得最終 bottleneck 會係:
算力?能源?定 AI本身?