LangChain 練習求教

努力做個IT狗

26 回覆
8 Like 3 Dislike
努力做個IT狗 2023-10-30 10:50:40
想自學LangChain,目前想試下用自己選擇的foundation model 寫個咁的webapp出來
1. Story Gen
入prompt 出response
2. Chat history
用KV store , 可能用Redis
3. Prompt Craft
同OpenAI一樣俾人入Customize Instruction
4. Intelligent Agent
用Agent , 加Maths tools / wikepedia search info
5. Streaming Text
加steaming, 唔洗等哂成個result先出response
6. Retrieval-Augmented Generation (RAG)
用vector database (應該用pinecone)

大概用Python, streamlit, redis, pinecone, langchain, hugging face model (llama2),
localhost 搞掂先再試aws bedrock配lamda 果啲

咁樣睇落有無問題?
素食狗狗 2023-11-02 08:31:23
無問題
天氣之子 2023-11-08 21:41:06
巴打 想問下點樣call OpenAI API
王心凌(已切) 2023-11-08 21:43:53
唔洗用LangChain啦, 用琴日出嘅assistants同埋過幾日後出嘅GPTs就整到
天氣之子 2023-11-08 21:51:19
有冇方法可以香港call 到 我有條open ai api key
努力做個IT狗 2023-11-08 23:31:32
天氣之子 2023-11-08 23:35:39
巴打我知呀 但我唔肯定關唔關 香港事
我call 過幾次Open AI 個API 都係出error
又唔似係我條api key 有問題
定係網頁版就要vpn python call api 就唔洗
努力做個IT狗 2023-11-08 23:37:19
我見未有得玩,遲啲等佢推出就研究下
LangChain都有用 cloud-hosted llm (open ai) 同self-host 始終有唔到,你可以自選free model 或者用private data train佢又唔怕feed比open AI

仲有scalability 的問題,如果要containerise 啲llm, 等佢識自己scale up/down
或者萬一Open AI down咗,咁production點算,要有backup/ alternative switch 去replica
努力做個IT狗 2023-11-08 23:39:00
我試過無error 我係3.5 turbo
佢出咩error message?
Diligent 2023-11-16 17:33:14
想知巴打今日仲call唔call到openai api? 本身都用緊langchain 但今日突然block咗
Inori 2023-11-16 23:07:35
今日係香港出嘅request 都畀cloudflare用403 block unsupported countries 嘅access

Diligent 2023-11-16 23:52:37
努力做個IT狗 2023-11-17 01:30:45
好奶凍 2023-11-17 04:01:15
睇你想唔想練埋devops, 如果你淨係想focus on Llm/Langchain 你個stack 可以換哂in memory or disk storage 咁無咁貴
0x英國巴打 2023-11-17 07:54:10
langChain 都收收地皮
努力做個IT狗 2023-11-17 12:48:51
點樣收皮法
Inori 2023-11-17 20:38:46

不過去返樓主你個flow, store chat history 可以用Postgres /mysql呢啲sql db都其實夠用, 唔一定要redis, 反而係你可以係wiki search agent 到加個vector store去save低個search results, 下次有人search差唔多嘅嘢嗰陣直接係個store到出result畀llm, 咁就可以唔使call 咁多次wiki or any search tool api.
H07252 2023-11-18 02:54:18
近排試緊llmware griptape
禾輋蛋包飯 2023-11-18 18:36:31
Call openai個到係client side定server side?
碌鳩古早味 2023-11-23 05:42:39
想再llm optimise d可以睇下tensorrt-llm / exllama2 / llamacpp

https://github.com/NVIDIA/TensorRT-LLM
reddit好多人推exllama2, 不過個人經驗tensorrt llm performance好d
非典型廢柴 2023-11-23 06:17:00
Lm
吹水台自選台熱 門最 新手機台時事台政事台World體育台娛樂台動漫台Apps台遊戲台影視台講故台健康台感情台家庭台潮流台美容台上班台財經台房屋台飲食台旅遊台學術台校園台汽車台音樂台創意台硬件台電器台攝影台玩具台寵物台軟件台活動台電訊台直播台站務台黑 洞