OpenAI終將又Open返次:推出新Open-weight mode gpt-oss

大棍巴

21 回覆
7 Like 1 Dislike
大棍巴 2025-08-06 05:12:18
https://openai.com/open-models/
Apache 2.0 license ,亦support tool calling
Performance及得上o4-mini



https://huggingface.co/openai/gpt-oss-120b
大棍巴 2025-08-06 05:23:48
元善見 2025-08-06 05:25:00
搶ecosystem/搶training data
借左聾耳陳隻耳 2025-08-06 06:26:09
要有幾勁既顯示卡先推得郁
大棍巴 2025-08-06 06:34:44
今次唔洗幾勁,20B嗰個應該16GB GPU/Mac都好易run到。

120B就要用幾張3090/一張Pro 6000/H100或大memory M4 Pro/Max
DAN_DAN 2025-08-06 06:36:28
mac studio 512GB
大棍巴 2025-08-06 08:17:13
而家係睇緊之後用Qwen 235B 2507定gpt-oss 120B好。
前者好似各方面都強啲,但gpt-oss係5B activation,有埋reasoning都快好多
DAN_DAN 2025-08-06 08:21:03
排緊隊買spark,而家大把model玩

聽日上openrouter 開工試一試coding 能力先,可能可以做planning agent 去慳返d Anthropics 同Gemini pro quota

apple個mix AI model未搞好而家人地已經搞掂曬幾時local幾時行cloud
大棍巴 2025-08-06 08:25:34
Apple不如真係用open-weight model算啦,再唔係就同OpenAI買個,唔洗搞到而家真係model又冇人又走佬
J.V 2025-08-06 08:36:35
認真, 唔好太大期望
local coding要做到claude 咁應該仲有排追
同埋投資落去hardware同電費既錢夠你sub claude 10年有突

除非你係公司好intensive 咁用
天才小釣手 2025-08-06 10:31:29
Sam哥都終於找數
首富幾時放Grok2出嚟
明明三 2025-08-06 12:26:34
搵部廢 notebook 都行到20B A3
DAN_DAN 2025-08-06 12:58:50
我有d application 要offline 行
J.V 2025-08-06 13:18:59
咁睇用來做D 乜
唔難果D而家Local llm夠做有突

coding 就真係比較難, 而家比較接近claude既local 只有kimi k2, glm 4.5
但都講緊要起返個8百g - 2T 既ram / vram先run到
DAN_DAN 2025-08-06 13:20:59
oss真係試左再comment 下

無用夠半日都好難有實戰體驗
大棍巴 2025-08-06 17:29:00
喺部M4 Max 128GB到,啱啱掟左1000行Python code俾個gpt-oss 120B MXFP4行下,都真係幾慢。
50秒先process完個prompt,跟住個TPS慢慢跌,去到gen左1-1.5k output,平均得返10 t/s。
Zero context tg 就有50 t/s。

喺Mac攞來做簡單嘢都ok,長少少都係唔多掂,雖然10 tps average唔係真係咁不勘
長啲都係正正經經用返Nvidia
大棍巴 2025-08-07 00:28:47
繼續講下測試。
喺屋企得張5090,唯有玩gpt-oss 20B,個效果出奇地好。寫snake game,加AI,加cannon殺AI都係zero shot。相比之下用Qwen3 Coder 30B就做唔到。
TPS有140-170 t/s。
關你膠事 2025-08-07 18:48:31
竟然20B都做到one-shot pass,但而家啲Coding Agents都未夾到 Harmony Response Format,我有啲期待用Harmony夾agentic coding嘅in-context multi steps thinking嘅輸出可以好多,而家Github Copilot或者Claude Code果啲SOTA models做得幾好,但Local coding LLM有時可能受agent所限,更有機會唔睇doc唔睇library function去自己作啲code出黎之後要花時間fix。

啱啱先由Devstral轉會用Qwen3 Coder 30B,主要係快同埋context可以拉大少少,起碼SOTA subscription冇晒quota果陣都仲有得寫吓。
大棍巴 2025-08-07 19:40:54
你local用咩tool?
RooCode我覺得已經做得幾好,有to-do list,識得好似Claude咁edit完再自己review,而且識check syntax error。
關你膠事 2025-08-08 00:09:28
我都係用Roo code,已經比Continue好用,但遇著細嘅Local LLM都係周不時會fail on calling tools,或者會亂咁衝唔睇existing implementation,所以我都係要叫佢1. 唔好write files 直到我話得 2. 迫佢explain changes with detailed codes example,如果唔係改完先再debug就好谷氣。

呢排啲新models好多都有tool calling template問題,要等一等update先可以攞黎落場用。

但點都好,有Local LLM都係比自己諗一輪再手寫爽,始終有一輪對話等我都對個context清楚少少先開始。
手一黏便緊(UTC+9 2025-08-08 12:01:44
唔知點解 純cpu ollama行gpt-oss 20b慢eg. qwen3 coder 30b好多
吹水台自選台熱 門最 新手機台時事台政事台World體育台娛樂台動漫台Apps台遊戲台影視台講故台健康台感情台家庭台潮流台美容台上班台財經台房屋台飲食台旅遊台學術台校園台汽車台音樂台創意台硬件台電器台攝影台玩具台寵物台軟件台活動台電訊台直播台站務台黑 洞