ChatGPT在國內經常會遇到各種網絡問題,而且一旦失去網絡連接就無法使用。此外,Chatgpt是需要付費的。在2023年,GPT將迎來發展元年,我相信未來每個人都應該有自己的Chatgpt大模型,而不僅僅是大型機構才能擁有。
未來,對于Chatgpt大模型所需的計算能力,應該是人人都能負擔得起的,就像現在的個人電腦一樣。在這里,我主要講解如何利用Facebook開源的LLAMA 7B大模型和llama.cpp開源代碼,在macbook Pro M1上構建一個能夠運行的AI助手。
下面我們來逐步講解。
第一步:下載 7B 的大模型
使用命令行方式下載
curl -o ggml-alpaca-7b-q4.bin -C - <https://gateway.estuary.tech/gw/ipfs/QmQ1bf2BTnYxq73MFJWu1B7bQ2UD6qG7D7YDCxhTndVkPC>
或是直接使用瀏覽器打開,下載完成后文件改名為 ggml-alpaca-7b-q4.bin:
<https://gateway.estuary.tech/gw/ipfs/QmQ1bf2BTnYxq73MFJWu1B7bQ2UD6qG7D7YDCxhTndVkPC>
第二步:下載llama.cpp
llama.cpp工程是基于Facebook的llama開源項目進行改進的。它通過使用C++進行推理,降低了資源需求,同時保持了高速處理的特點。
請使用 git clone 方式下載代碼,以便以后輕松更新。當前項目更新速度較快。
git clone <https://github.com/ggerganov/llama.cpp.git>
第三步:編繹llama.cpp
進入llama.cpp,運行如下命令
make
如果沒有報錯則表示編繹成功了。
在目錄下會生成如下幾個可執行文件:main、quantize。其中,main是啟動會話的程序,而quantize目前不需要使用。
第四步:將 ggml-alpaca-7b-q4.bin 放到llama.cpp/models目錄下 第五步:完成一個啟動腳本start.sh
先看看 main 能接受哪些參數:
(base) ? llama.cpp git:(master) ? ./main -h
usage: ./main [options]
options:
-h, --help show this help message and exit
-i, --interactive run in interactive mode
-ins, --instruct run in instruction mode (use with Alpaca models)
-r PROMPT, --reverse-prompt PROMPT
in interactive mode, poll user input upon seeing PROMPT (can be
specified more than once for multiple prompts).
--color colorise output to distinguish prompt and user input from generations
-s SEED, --seed SEED RNG seed (default: -1)
-t N, --threads N number of threads to use during computation (default: 4)
-p PROMPT, --prompt PROMPT
prompt to start generation with (default: empty)
--random-prompt start with a randomized prompt.
-f FNAME, --file FNAME
prompt file to start generation.
-n N, --n_predict N number of tokens to predict (default: 128)
--top_k N top-k sampling (default: 40)
--top_p N top-p sampling (default: 0.9)
--repeat_last_n N last n tokens to consider for penalize (default: 64)
--repeat_penalty N penalize repeat sequence of tokens (default: 1.3)
-c N, --ctx_size N size of the prompt context (default: 512)
--ignore-eos ignore end of stream token and continue generating
--memory_f16 use f16 instead of f32 for memory key+value
--temp N temperature (default: 0.8)
-b N, --batch_size N batch size for prompt processing (default: 8)
-m FNAME, --model FNAME
model path (default: models/llama-7B/ggml-model.bin)
我們主要使用交互模式,并將可預測的令牌數設置為512,因此請按以下命令操作:
./main -m ./models/ggml-alpaca-7b-q4.bin --color -ins -r "Me:" -n 512
啟動后的界面如下:
開始使用:
先提一個問題:“how to Implementing Gradient Ascent with Python/ target=_blank class=infotextkey>Python?”
生成的答案如下,相比chatgpt有點簡陋。
畢竟模型只有7B的參數,如果換到65B,應該效果會好很多。不過已經非常好了,相信未來繼續優化后會更好。