平時有留意開local llm既人,有冇諗過自己對AI認知已經高過一般人好多

debugger;

82 回覆
42 Like 41 Dislike
龍捲瘋 2025-01-27 21:44:04
但佢新hardware都準備緊
兼職陰陽師 2025-01-27 21:48:44
極北鷲 2025-01-27 21:50:03
記得之前呢到有人自己train左個lihkg dataset既llm不過我冇down到
localhole.1069 2025-01-27 21:54:08
唔識AI technical野,點樣build好正常
但作為一個business用家都好應該知道LLM原理,LLM做到乜同有乜限制
邊個model勁啲,benchmark點睇,有咩AI tools/use case可以用

見到啲人用Poe仲用緊個內建Assistant真係唔知講咩好
應作如是觀~ 2025-01-27 22:31:25
Apple 升緊
721掉頭走 2025-01-27 22:44:26
贏95%嘅人
daisy2000 2025-01-27 22:45:23
你講掉轉咗,應該係前者話地球係平,後者話係圓
power_off 2025-01-28 00:02:11
lm
三百萬美金 2025-01-28 00:02:52
點撚樣layman扮專家法?

Model個名,本身就係system preamble有嘅野。連名都錯,咁佢system preamble 有啲乜撚野?係咪淨係整咗防火長城,連自己個名都無?

如果係咁,咁睇怕好多野都無整,應該好易jailbreak,我想睇下有咩有趣野
兼職陰陽師 2025-01-28 00:26:03
focus返喺「抄」嗰到先
如果用其他llm嘅output做 training就叫「抄」嘅話咁應該冇乜邊間係冇「抄」

至於抄Architecture我諗除咗派商業間諜入OpenAI偷之外應該都冇咩可能抄到

所以究竟係點樣斷正呢?
EKi 2025-01-28 00:59:53
就算做 IT 都好多唔同領域
唔同範疇就無咩野好比較
兼職陰陽師 2025-01-28 01:13:55
我明大家一見到支製AI,梗係第一時間assume咗佢係垃圾/抄/造假先
問題佢直頭放晒paper同model weight出嚟
想入佢都入唔到啦
power_off 2025-01-28 02:57:27
ひむらKEN 2025-01-28 03:02:30
佢自己唔洗勁,佢部機夠勁俾人行就得
依家有邊部家用機行到192gb vram ? 得佢有
大棍巴 2025-01-28 09:16:12
要睇Nvidia 俾幾大 bandwidth DIGITS, Mac始終個GPU慢,PP唔夠快。
debugger; 2025-01-28 09:19:19
local llm既展推測得2xx gb/s
美股價值分析師 2025-01-28 09:20:18
唔駛識ai,你只要識中國人就得
極北鷲 2025-01-28 09:37:58
192gb vram都唔算係 家用 啦
靈魂打手 2025-01-28 10:08:11
畀錢又如何,啲錢最後都去唔到版權人手上
連龍頭大佬openai都畀人告緊
成個行業根本冇版權可言
不如打和啦super 2025-01-28 10:18:09
佢D CODE OPENSOURCE 姐

但佢開發成本+硬件成本,你會確認到咩? 只可以佢講你就信架咋WO,點樣驗證到佢每一個MODEL既開發成本同用幾多張卡,TOTAL 成本又幾多同用幾多張卡? 佢話係OPENAI既1/20成本,就一定係?
綿花球小騙球 2025-01-28 10:42:33
噢那你不就好棒棒?
三鋒 2025-01-28 10:45:06
唔見得樓主對AI 有幾大認知 只係同一般用家咁當工具都只係用啫
試下自己train 一個LLM 出黎玩下吧,train LLM 對硬件需求好高
九宮 2025-01-28 12:58:23
唔明點解Nvdia會跌
個model又係n記d卡train
D人係咪擔心美國再進一步限制n記出口?
但中國玩得倒AI model,都係n記贏
極北鷲 2025-01-28 13:07:21
可能係因為deepseek話佢用緊華為chip去train
但事實你知我知
FHM 2025-01-28 13:11:58
調轉咁講啦
佢跌根本就係割韭菜
但畀人拎去做外宣
吹水台自選台熱 門最 新手機台時事台政事台World體育台娛樂台動漫台Apps台遊戲台影視台講故台健康台感情台家庭台潮流台美容台上班台財經台房屋台飲食台旅遊台學術台校園台汽車台音樂台創意台硬件台電器台攝影台玩具台寵物台軟件台活動台電訊台直播台站務台黑 洞