一粒M2 ultra AI能力等於8張rtx 4090 ,apple 屌打nvidia
醉愛甜心
170
回覆
18 Like
200 Dislike
第 1 頁
第 2 頁
第 3 頁
第 4 頁
第 5 頁
第 6 頁
第 7 頁
YauS
2023-07-04 13:11:03
有講過咩?
YauS
2023-07-04 13:13:26
本身4090都唔係設計來跑AI 點比
lIIlIllIlIIIl
2023-07-04 13:25:45
講緊PCIe 4.0 x16 bandwidth已經去到單條DDR4-3000嘅level
你用消費級底板如果插多路就只可以分到x8甚至x4咪bottleneck
如果專業級多路底板有多路x16, 幾多塊4090就有幾多個x16
180連登仔
2023-07-04 13:45:53
有一集有輕輕提過係香港,呢集佢食個包零食好似就係yuu 牌
唔會長期留香港係我個人估計,佢有個女,為咗佢個女長遠發展,最後應該都會走,同埋佢個專業要走唔難
之前Twitter 都有follow 開啲內地IT專才,好多黎左香港幾年後,最後都係走左去歐美/澳洲
家有小暴徒
2023-07-04 13:48:46
你知唔知咩係arm
lIIlIllIlIIIl
2023-07-04 14:10:23
CUDA係底層嘢,AI幫唔到你
最多可以寫套嘢出嚟,用OpenCL去做CUDA做嘅部份
YauS
2023-07-04 14:10:27
chip-to-chip都係64GB/s 唔係問題 H100就唔會有NVLink
醉愛甜心
2023-07-04 14:16:08
吾知,你講解下
醉愛甜心
2023-07-04 15:00:04
理論上每個token 生成都讀成個模型一次,130gb 除64 ,8張4090識飛都好都只係每秒兩個tokens
醉愛甜心
2023-07-04 15:01:45
香港只係留到磚才
醉愛甜心
2023-07-04 15:03:17
買Mac studio 頂幾張
醉愛甜心
2023-07-04 15:21:44
DAN_DAN
2023-07-04 15:27:59
問題係A100唔止行LLM
•加藤恵•
2023-07-04 15:40:11
Mac仲可以剪片
壹氧化貳氫
2023-07-04 15:42:13
好撚尷尬
你而家買電腦定買期貨?
醉愛甜心
2023-07-04 16:20:02
M2 ultra 都唔只行LLM
,
業餘玩下ai 姐,又唔係玩高精度hpc
醉愛甜心
2023-07-04 16:24:05
慳電
醉愛甜心
2023-07-04 16:25:40
個channel 原本都係nv 教嫁喎
依e餓哦
2023-07-04 16:26:04
bandwidth 之外重要講 latency ....
朽木難雕
2023-07-04 16:29:03
你仲撚尷尬啦
你嘅世界只係得打機?
DAN_DAN
2023-07-04 16:35:36
業餘會買a100
職業都唔會用自己錢買
醉愛甜心
2023-07-04 17:00:15
醉愛甜心
2023-07-04 17:46:42
https://buzzorange.com/techorange/2021/04/06/ai-memory-wall-bair/
家有小暴徒
2023-07-04 18:03:31
搵左成日仲係無實戰benchmark係度講理論
你引篇文咪講
>在頻寬受限的問題上, CPU 的性能要比 GPU 好得多,但是與 GPU 相比, CPU 的峰值計算能力要小一個數量級左右。
E家m2u同4090比咪同一個情況
佢都唔敢講明邊樣快D
你仲1打8當自己ip man?
第 1 頁
第 2 頁
第 3 頁
第 4 頁
第 5 頁
第 6 頁
第 7 頁
吹水台
自選台
熱 門
最 新
手機台
時事台
政事台
World
體育台
娛樂台
動漫台
Apps台
遊戲台
影視台
講故台
健康台
感情台
家庭台
潮流台
美容台
上班台
財經台
房屋台
飲食台
旅遊台
學術台
校園台
汽車台
音樂台
創意台
硬件台
電器台
攝影台
玩具台
寵物台
軟件台
活動台
電訊台
直播台
站務台
黑 洞