https://twitter.com/JustineTunney/status/1641881145104297985
痴撚線



原本要用40GB GPU RAM再加64 GB system RAM嘅30B model
(30B model亦都係Facebook原本份paper話同GPT-3一樣performance嘅model)
宜家唔使用GPU不突止,重要普通system RAM淨係要用6GB就得









事件證明:
1. 各大企業嘅ML researcher其實唔識傳統programming所要求嘅efficiency
2. 所謂large language model要用成個數據中心嘅硬件先run到可能其實只不過係多年來嘅extremely poorly optimised code嘅後果