今次 AMD 仲唔升到仆街

胡當廸寶

228 回覆
16 Like 43 Dislike
忍者八海 2025-02-28 13:01:43
向下升
你有幾多香腸 2025-02-28 13:03:57
即將升穿100
不如打和啦super 2025-02-28 14:40:30
樓主還在?
胡當廸寶 2025-02-28 16:51:26
係度,105 先再加左倉
金采源雨勢頗大 2025-02-28 16:56:47
想知AMD咩事
點解可以趺到雙位數
Neon 2025-02-28 17:16:45
113重注咗下amdl準備decay蝕死
1664_AMD苦主 2025-02-28 17:20:47
點解要買槓桿
1664_AMD苦主 2025-02-28 17:21:36
有冇精神食糧俾我呀
就快頂唔住
Neon 2025-02-28 17:28:44
又好老定以為會扑中佢反彈無set sl,好抵死
1664_AMD苦主 2025-02-28 17:32:53
我法國每次一貪就出事
所以我都轉左每次細注 但今次細極都加左3X%倉
不過我正股都仲捱到 但唔知仲可以捱幾耐
打鞭奴 2025-02-28 17:35:03
C兄我都一樣情況…
胡當廸寶 2025-02-28 17:48:34
冇乜大事件發生喎,淨係知佢嚟緊會出張家用 display card , 年中會出AI用嘅display卡嚟打nVidia
胡當廸寶 2025-02-28 17:49:22
應該特朗普又加關稅, 一加關稅就推高 cpi, 咁就唔會減息,分分鐘又加息。
胡當廸寶 2025-02-28 17:49:47
證明你冇做功課啦。
財經台韭菜 2025-02-28 17:53:34
樓豬我有冇做功課?

AMD簡評
https://lih.kg/3687084
- 分享自 LIHKG 討論區
發開口夢 2025-02-28 18:02:08
deepseek 用其他AI model 做distill 先對資源需求細咗
但佢做distill 果時其實其他model 用嘅資源係多咗

但如果要做最大型嘅model, 單靠distill 係冇可能做到,果啲model 就好食資源, 例如GPT4.5 成20T parameter vs deepseek v3 671B parameter
妹妹我做全套 2025-02-28 18:12:52
尋晚忍痛重倉105都斬哂

追沽盤一進場,d心理價格位直程係無人接貨

小注撈兩次底都段段打

輸撚左2個月profit

而家買廢佬股過日晨

等佢跌穩先買番
胡當廸寶 2025-02-28 18:16:38
股票係向前睇,佢嚟緊出 mi350 定 mi325- 唔記得個型號。

你有冇睇過效能?同埋佢software嗰part係最俾人鬧得勁,最近我做research,佢software嗰part有好大嘅進展,尤其係 bug 嗰一part.

之前佢收購左一間x 字頭既公司,係專俾人再 finally tune 張 display card, 嗰間嘢個前景都非常好,我而家喺街,俾唔到嘢你睇,你可以自己問一問 grok 3

你平均價如果係$130樓下,驚乜鬼?

同埋買得股票就係睇長線,個 ceo 又唔係d 吹水怪,間公司又唔係勁高負債,上年個毛利仲要升。

價錢影響唔到公司既價值。
胡當廸寶 2025-02-28 18:17:24
同埋好似冇人講,下一個市場已經唔係AI訓練模式,係AI推理。

訓練其實只係做一次,推理就不停要用粒 gpu.
財經台韭菜 2025-02-28 18:21:41
胡當廸寶 2025-02-28 18:21:57
你問AMD Instinct MI350同NVIDIA嘅數據中心GPU比起來有冇優勢,以下係一個簡單比較,基於目前已知嘅規格同市場定位,特別係同NVIDIA現有同未來嘅產品(如H200同Blackwell系列)對比。


AMD Instinct MI350嘅潛在優勢:
1 記憶體容量同頻寬
MI350預計有高達288GB HBM3E記憶體同8TB/s嘅頻寬,對比NVIDIA H200(141GB HBM3E,4.8TB/s)同Blackwell B200(192GB HBM3E,8TB/s),MI350喺記憶體容量上有明顯優勢(比H200多1倍,比B200多50%)。對AI工作負載(特別係大模型推理同訓練)來說,更多記憶體可以減少GPU之間嘅數據交換,提升效率,尤其係喺單系統內處理超大模型(AMD聲稱MI350可支援4.2萬億參數模型,遠超MI300X嘅6倍)。
2 AI推理性能提升
AMD話MI350基於CDNA 4架構同支援FP4/FP6格式,推理性能比MI300X高35倍(對比8 GPU系統跑1.8萬億參數模型)。雖然同NVIDIA Blackwell(B200)嘅直接對比數據未有,但NVIDIA目前H200喺推理性能上被MI325X(MI350嘅前代)壓過(例如Llama 3.1 70B模型低20%延遲)。MI350如果真能兌現35倍提升,可能喺特定AI推理場景下超越Blackwell。
3 製程優勢
MI350用3nm製程,而NVIDIA H200用4nm(Blackwell B200據報亦係3nm)。3nm理論上帶來更高能效同性能密度,如果AMD喺功耗控制得好(MI300X係750W,H200係700W),MI350可能喺性能功耗比上佔優。
4 價格同供應
AMD一貫策略係性价比高,MI350如果定價比NVIDIA低(NVIDIA GPU普遍貴且供貨緊張),加上AMD供應鏈壓力較少(MI300X交貨期少於3個月,對比NVIDIA H200超過6個月),對一啲唔想排長隊嘅客戶(如中小型企業或新創公司)有吸引力。
NVIDIA嘅優勢(潛在MI350嘅挑戰):
1 生態系統同軟件
NVIDIA嘅CUDA同相關AI框架(如TensorRT-LLM)喺開發者社區有壓倒性優勢,多年累積嘅生態鎖定咗大量用戶。AMD嘅ROCm雖然進步咗(支援PyTorch、Hugging Face等),但普及度同穩定性仍落後。要吸引開發者轉用MI350,AMD要加倍努力。
2 整體系統性能
NVIDIA喺多GPU互連技術(如NVLink同NVSwitch)上有領先地位,Blackwell架構更進一步提升咗集群規模運算能力。AMD嘅Infinity Fabric(MI350預計896GB/s)同NVIDIA NVLink 6(預計3,600GB/s)比有差距,喺大規模訓練場景下可能輸一截。
3 市場慣性同客戶群
NVIDIA喺數據中心GPU市場佔90%以上,客戶(如Meta、Google)已經深度整合咗佢嘅解決方案。MI350縱使性能出色,但轉換成本同風險可能令客戶卻步,除非AMD提供顯著嘅成本或性能誘因。
4 未來競爭
NVIDIA嘅Rubin架構(2026年)已經喺路上,可能進一步拉開差距。MI350要喺2025年中同Blackwell競爭已經夠硬,2026年MI400出場時,NVIDIA可能又有新王牌。


總結:
MI350同NVIDIA比有幾個優勢,特別係記憶體容量、推理性能同潛在性价比,對一啲特定場景(如大模型推理同記憶體密集型應用)可能有吸引力。但NVIDIA喺生態系統、互連技術同市場霸主地位上仍然佔優。MI350要真有競爭力,AMD需要喺軟件支援同客戶採用上加把勁,否則優勢可能只停留喺紙面上。你覺得AMD有冇機會喺AI市場搶到更大份額?
胡當廸寶 2025-02-28 18:22:42
晏啲睇,喺街
胡當廸寶 2025-02-28 18:22:53
BigDaddy 2025-02-28 18:29:47
Deepseek 好撚長氣,煩死
胡當廸寶 2025-02-28 18:30:50
唔該晒師兄先,啱啱我用 grok 3 再搵吓關於佢software嗰part搞成點,俾大家參考吓。

你提到AMD喺AI訓練方面嘅軟件(特別係ROCm)之前有唔少bug,想知而家進展如何。根據最近嘅資訊同業界反饋,AMD確實有喺改善ROCm嘅穩定性同功能性方面做咗唔少努力,尤其係針對AI訓練嘅場景。以下係而家嘅情況概述:
進展同改善:
1 ROCm版本更新
截至2025年2月,最新嘅ROCm版本(6.3.3,1月27日發佈)修復咗一啲同AI訓練相關嘅bug,例如GPU硬件活動顯示問題同rocSPARSE測試嘅掛機問題。AMD亦有持續優化底層組件,包括HIP同rocRAND,減少咗早期版本嘅不穩定性。最新版本仲加入咗對FlashAttention-2嘅支援(喺PyTorch容器中用Composable Kernel後端),聲稱AI訓練速度最多快3倍。
2 訓練性能提升
AMD喺2025年1月30日嘅ROCm博客提到,MI300X喺Llama 3.1 8B、Mistral 7B同FLUX.1等模型嘅訓練上,透過FP8同BF16格式同新優化(例如hipBLASLt嘅BF16同FP8支援),同NVIDIA H100比拼已經有競爭力。例如,Llama 3.1 8B用FP8訓練時,MI300X嘅吞吐量(Tflops/s/GPU)同H100接近,顯示軟件同硬件整合有進步。
3 生態系統支援
ROCm對PyTorch、TensorFlow同Hugging Face嘅支援有咗顯著改善。Hugging Face同AMD合作,已經整合咗ROCm到佢哋嘅開源庫,支援更多模型喺AMD GPU上即插即用。同時,AMD提供咗預配置嘅訓練容器(例如PyTorch訓練Docker),降低咗部署同調試嘅門檻。
4 社區反饋
雖然之前(如2024年初)有唔少用戶喺Reddit同GitHub(例如ROCm issue #2820)抱怨ROCm喺RDNA3 GPU同MI300X上嘅bug(例如驅動崩潰、多GPU支援不穩定),但近期嘅討論同AMD官方回應顯示,佢哋有積極回應用戶報告嘅問題,尤其係同基礎驅動同編譯器相關嘅bug。
殘留問題:
1 軟件穩定性仍未完美
雖然有進步,但一啲報告(例如SemiAnalysis喺2024年12月提到嘅五個月測試)指出,ROCm喺訓練場景下仍然有怪bug同性能瓶頸,導致MI300X嘅硬件潛力未能完全發揮。部分用戶反映「out-of-the-box」體驗仲有改善空間,尤其係同NVIDIA CUDA嘅無縫性比仍有差距。
2 多GPU同集群支援
ROCm嘅Infinity Fabric同NVIDIA NVLink比,喺多GPU互連同大規模訓練上仲有差距。新版本有「Multi-node FFT」支援,但實際應用中嘅穩定性同性能仲需要更多驗證。
3 內部資源同QA文化
有指AMD內部開發團隊之前缺乏足夠GPU硬件去測試同優化ROCm(例如Tensorwave要免費借機俾AMD工程師),反映咗佢哋嘅質量保證(QA)流程有待加強。不過,呢啲問題似乎喺2025年有改善跡象,因AMD話會喺未來版本進一步增強測試。
總結:
而家(2025年2月),AMD喺AI訓練軟件(ROCm)上嘅bug確實少咗,穩定性同性能比之前有明顯進步,尤其係喺MI300X同最新版本嘅支援下。佢同NVIDIA CUDA比,喺硬件潛力同性价比上有優勢,但軟件生態同「即開即用」嘅體驗仍然稍遜。對開發者黎講,如果唔介意花時間調試同用AMD提供嘅容器,MI350同ROCm已經係一個可行嘅AI訓練平台;但如果追求極致穩定同成熟生態,NVIDIA暫時仲係更省心嘅選擇。
你有冇試過用ROCm做訓練?如果有,覺得而家嘅體驗點樣?
吹水台自選台熱 門最 新手機台時事台政事台World體育台娛樂台動漫台Apps台遊戲台影視台講故台健康台感情台家庭台潮流台美容台上班台財經台房屋台飲食台旅遊台學術台校園台汽車台音樂台創意台硬件台電器台攝影台玩具台寵物台軟件台活動台電訊台直播台站務台黑 洞