連登語言模型 LiLM,用AI回應連登貼文
阿里是多德
279
回覆
1013 Like
37 Dislike
第 1 頁
第 2 頁
第 3 頁
第 4 頁
第 5 頁
第 6 頁
第 7 頁
第 8 頁
第 9 頁
第 10 頁
第 11 頁
第 12 頁
靈魂打手
2024-07-14 20:30:32
放 huggingface
乳后竹荀
2024-07-14 20:37:25
可唔可以估1Q題
估馬仔
2024-07-14 20:38:41
grab data / login 果陣無野block?
eg captcha
阿里是多德
2024-07-14 20:40:54
用 header + proxy 佢 block 唔到,試出嚟
阿里是多德
2024-07-14 20:41:13
我試下
阿里是多德
2024-07-14 20:43:22
做落唔煩 係要用好多時間試錯
@siuyeong
2024-07-14 20:49:19
巴打投放咗幾多成本落去?
阿里是多德
2024-07-14 20:51:11
prototype 大概幾個鐘,之後試唔同嘢就 >20 個鐘
@siuyeong
2024-07-14 20:52:09
真心佩服
如果整到webapp畀大家玩就開心仔
WE_CONNECT
2024-07-14 20:56:15
兼職陰陽師
2024-07-14 20:56:49
122gb rom
咪L痴線喇
2024-07-14 20:58:03
諗起it9 劇情
有無得頭5個留言帶風向?
阿里是多德
2024-07-14 21:04:50
個 host 會好貴,平啲嘅話又會 run 得好慢
尻唔易柒
2024-07-14 21:05:10
差唔多喇
個parameter用b咁計
阿里是多德
2024-07-14 21:05:36
有得諗
@siuyeong
2024-07-14 21:05:54
具體啲係要幾多錢一個月或一年?
可能有連登仔夾錢玩
阿里是多德
2024-07-14 21:08:35
我有睇過,呢個 RAM 數嘅機喺 Amazon host 大概 $8000/month
@siuyeong
2024-07-14 21:09:58
CLS
如果巴打有啲成本更平嘅方法就好
阿里是多德
2024-07-14 21:13:49
quantize 咗個模型可以降低 inference 嘅 Memory 落 40GB 以下嘅,但準確度會低咗,同埋個 host 嘅 GPU 要夠勁,我部機 76 核用哂都 inference 得好慢
見字飲水
2024-07-14 21:32:00
連登頭十幾個reply 好多都係PR/大陸狗秒回
個forum 都越嚟越少真係土生土長嘅香港人上,揀頭20個reply 去train講埋啲殘體字一啲都唔出奇
插咗碌鳩落海
2024-07-14 21:36:35
save低先
好好嘅summary
WE_CONNECT
2024-07-14 21:39:31
哈哈,係,真心同意,樓主真係唔好浪費時間用LIHKG dataset train
IlI
2024-07-14 21:46:05
一回覆多少少,就會用「不過……」、「但係……」,東張西望式轉話題或平衡觀點
第 1 頁
第 2 頁
第 3 頁
第 4 頁
第 5 頁
第 6 頁
第 7 頁
第 8 頁
第 9 頁
第 10 頁
第 11 頁
第 12 頁
吹水台
自選台
熱 門
最 新
手機台
時事台
政事台
World
體育台
娛樂台
動漫台
Apps台
遊戲台
影視台
講故台
健康台
感情台
家庭台
潮流台
美容台
上班台
財經台
房屋台
飲食台
旅遊台
學術台
校園台
汽車台
音樂台
創意台
硬件台
電器台
攝影台
玩具台
寵物台
軟件台
活動台
電訊台
直播台
站務台
黑 洞