話說最近真係將self hosted AI帶入工作上
極北鷲
267 回覆
82 Like
41 Dislike
香港生果日報
2025-01-21 17:43:02
完全唔識
10蚊跟機
2025-01-21 17:47:52
要有人地api既peformance可能每月電費都唔只幾千usd
大棍巴
2025-01-28 11:37:18
終於有Qwen 2.5 VL
我地institute 可能會deploy佢
https://www.reddit.com/r/LocalLLaMA/s/OKkUEcySOn
港女洋腸夢
2025-01-28 11:41:34
自己部電腦最高只可以run 到14b model
直接課金Cody 最抵,9美金無限call claude 3.5
當然依家仲有另外一個選擇就係deepseek r1, cline + continue 都係非常之平
極北鷲
2025-01-28 12:25:57
deepseek r1做到autocomplete/fill-in-middle?
我自己未試玩,但睇人講佢唔係specialized in fill-in-middle,想autocomplete就繼續用qwen coder
港女洋腸夢
2025-01-28 12:28:20
未試過用R1,但試過用v3 ,但係有啲慢,autocomplete 唔使用大model,個人覺得3b / 7b qwen 2.5 coder效果已經好好
極北鷲
2025-01-28 12:46:55
極北鷲
2025-01-28 14:35:09
其實呢d multimodal model用咩backend行?定直接call python script?
極限哥(已極限)
2025-01-28 14:58:26
多9如
有openAI又驚人地知道你d野
唔L好用gmail唔L好用iphone啦
Apple知你d野呀
Self host多舊魚
大棍巴
2025-01-28 15:00:18
我都未run過multimodal LLM,不過應該都係咁run?
主要視乎個frontend點feed,我估Cline呢啲將來會support到。
極北鷲
2025-01-28 15:21:36
我見deepseek個janus都係直接call python script
J.V
2025-01-28 15:44:31
係cline 用R1, 佢會不停loop死自己同自己係咁講, cline會收唔到個結果
港女洋腸夢
2025-01-28 15:58:23
竟然係咁,係咪淨係cline 用r1先有呢個問題?嗰陣我用V3個體驗還可以
就係佢嗰個context length 64k真係少左d
大棍巴
2025-01-28 19:05:09
可能冇train到tool calling,Cline要有fine tune過一堆function先會work。通常遲啲都會有人搞,當然如果自己有(足夠)GPU都可以自己搞。
大棍巴
2025-01-29 11:38:25
有關VLM model hosting:
https://www.reddit.com/r/LocalLLaMA/s/R90YbCJMWR
終極ON9平井桃
2025-01-30 20:33:53
cline 正
不過 RooCode 更加正
用法:
首先 Architect Mode 用 OpenRouter 嘅 DeepSeek R1 先問問題
出 Idea + Plan
之後 Code Mode 用 VsCode LM API 嘅 Sonnet 食 之前嘅結果
出 code
咁樣嘅話應該係最平,出嚟嘅結果都係最好
===============
不過有冇人知道如果有 UI design 的話 (figma / image)
點樣畀 AI 寫好 ?
大棍巴
2025-03-06 08:26:45
Alibaba QwQ 32B full release
https://x.com/Alibaba_Qwen/status/1897361654763151544
幾啱self host
第 1 頁
第 2 頁
第 3 頁
第 4 頁
第 5 頁
第 6 頁
第 7 頁
第 8 頁
第 9 頁
第 10 頁
第 11 頁
吹水台
自選台
熱 門
最 新
手機台
時事台
政事台
World
體育台
娛樂台
動漫台
Apps台
遊戲台
影視台
講故台
健康台
感情台
家庭台
潮流台
美容台
上班台
財經台
房屋台
飲食台
旅遊台
學術台
校園台
汽車台
音樂台
創意台
硬件台
電器台
攝影台
玩具台
寵物台
軟件台
活動台
電訊台
直播台
站務台
黑 洞