今天給大家分享一個開源的大語言模型ChatGLM-6B。
十幾天的時間,就收獲了近 1w 個 star。
ChatGLM-6B 是一個開源的、支持中英雙語的對話語言模型,基于 General Language Model (GLM) 架構,具有 62 億參數。結合模型量化技術,用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存)。ChatGLM-6B 使用了和 ChatGPT 相似的技術,針對中文問答和對話進行了優化。經過約 1T 標識符的中英雙語訓練,輔以監督微調、反饋自助、人類反饋強化學習等技術的加持,62 億參數的 ChatGLM-6B 已經能生成相當符合人類偏好的回答。
大家都可以裝在自己的電腦上運行下試試。獨顯最小顯存6G,CPU電腦也可以跑,但很慢。
項目目前只開源了模型和推理代碼,并沒有開源模型的訓練。
運行項目,只需兩個
第一步,下載源碼
git clone https://github.com/THUDM/ChatGLM-6B.git
- 1.
執行pip install -r requirements.txt 安裝依賴
第二步,運行項目
Python/ target=_blank class=infotextkey>Python web_demo.py
- 1.
執行后,會自動下載模型文件,大概 4G 左右。
如果是GPU?運行,默認情況下, 模型運行顯存至少 13G,如果顯存不夠,可以修改下 web_demo.py
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
- 1.
- 2.
將上述代碼的THUDM/chatglm-6b?改為THUDM/chatglm-6b-int4?,即:改用 int4 量化后的模型,只要是顯存大于6g就可以順利運行。
如果報 CPU 內存不足,把其他軟件關一關,尤其是瀏覽器。
運行成功后, 會自動跳轉瀏覽器頁面,這時候就可以像ChatGPT一樣使用了。
下面是我本地運行的結果,大家可以看看與ChatGPT的差異
自我認知
寫提綱
寫郵件
寫代碼
角色扮演
項目運行還是很簡單的,大家可以跑跑試試。
如果大家覺得本文對你有用就點個 在看 鼓勵一下吧,我會持續分享優秀的 Python+AI 項目。