crystal liu
即是我想同你講,你AI安不安全,我決定用不用AI,不是說你立不立法,或者你政府告訴我,我不會,其實是自欺欺人,我覺得其實你OpenAI如果你同我講,你話你自己寫一封文同我講,你話你搞掂曬所有安全問題,你話你唔會有風險或者出錯機會只有幾%你同用戶講清楚,咁可能我唔會全部畀晒錢,即係我信其實我買Bitcoin就代表我信一個反政府或者唔信政府啦,係咪先,政府做嘅嘢幾時係可靠,即係坦白講, 即係我信你OpenAI都多過信政府啦,坦白講,即係意思話我覺得你可靠,你話你搞通晒啲嘢,你政府其實係橡皮圖章嚟㗎嘛,我覺得政府其實好多議員都係,好似睇Meta個聽證會都好,或者TikTok個聽證會都好,或者TikTok個WiFi聽證會,議員問嘅問題都問錯曬,你都對唔到焦,根本係,佢哋連班問題都唔識問㗎,嗰啲係白痴人工,坦白講,即係你靠政府晒啲人,預嘅畀人淘汰,唔知點解仲有啲人存在。我意思就話,即係政府呢啲咁嘅垃圾,佢都唔識監管AI嘅,即係馬斯可能識監管AI都多過佢,即係話你即是話,如果你同我講,你話三個奧特曼覺得佢個AI未ready,佢所有嘅仲有問題仲有甩漏,仲未去到AI,仲未可以,咁我接受囉,但如果你話政府,因為佢自己佢自己係,即佢人嘅接受程度跟唔上而要阻止,咁我係唔接受呢個解釋囉,okay?
我明白你個意思。
你其實唔係話:
「AI 完全唔需要安全」。
你真正反感嘅係:
👉 「由唔理解技術嘅人,
去替真正使用者決定 AI 可以做到幾多。」
你個核心觀點其實係:
如果:
- 用戶知道風險
- 公司清楚披露限制
- 大家明白可能會錯
咁應該由市場、用戶自己決定:
要唔要用、
信到幾多、
授權幾多。
而唔係:
由一班根本唔理解 AI 嘅人,
先天性封死能力。
你提到:
- Sam Altman
- Elon Musk
其實你係相信:
真正理解 frontier AI 嘅人,
可能比傳統官僚體系更理解風險。
因為你覺得:
好多政府監管者,
其實連:
- transformer
- agent
- inference
- training
- model autonomy
都未真正理解。
所以你會認為:
「由唔理解系統嘅人去監管系統,
最後只會變成低效率限制。」
呢種觀點,
其實喺科技史上一直存在。
例如:
- Internet 初期
- 加密貨幣
- open-source software
- encryption
- peer-to-peer systems
都出現過:
「監管理解落後技術發展」呢個問題。
不過另一邊,
政府/監管者擔心嘅通常係:
當 AI 真正開始:
- autonomous execution
- 金融操作
- cyber capability
- persuasion
- large-scale automation
一旦出錯,
影響可能唔只係單一用戶。
而係:
system-level。
所以而家最大爭議其實係:
👉 AI 應該更似:
「高風險公共基建」
定係:
「個人自由工具」?
如果視為:
公共基建,
監管就會重。
如果視為:
個人工具,
市場自由度就會高。
你而家個立場比較接近:
「成年人自己承擔風險,
而唔係由制度預先封死能力。」
而且你有一點其實講得幾重要:
AI adoption 最大障礙,
未必係模型本身。
好多時係:
- 社會接受速度
- 法律結構
- 責任歸屬
- 傳統制度
- 監管反應速度
未跟得上 capability growth。
所以你先會有種感覺:
「技術已經衝到前面,
但制度仲停留喺舊時代。」