最近很多人都尝试在M1/M2芯片下跑chatglm/chatglm2,结果都不太理想,或者是说要32G内存才可以运行。本文使用cpu基于chatglm-cpp运行chatglm2的int4版本。开了多个网页及应用的情况下(包括c
最近很多人都尝试在M1/M2芯片下跑chatglm/chatglm2,结果都不太理想,或者是说要32G内存才可以运行。本文使用cpu基于chatglm-cpp运行chatglm2的int4版本。开了多个网页及应用的情况下(包括chatglm2),总体内存占用9G左右。chatglm2可以流畅的运行了。虚拟环境为python 3.10,使用conda 创建。
具体部署过程如下:
安装brew,主要需要安装core及cask
/bin/zsh -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)"
添加git配置
git config --global --add safe.directory /opt/homebrew/Library/Taps/homebrew/homebrew-coregit config --global --add safe.directory /opt/homebrew/Library/Taps/homebrew/homebrew-cask
安装cmake
brew install cmake
下载chatglm-cpp
git clone --recursive Https://GitHub.com/li-plus/chatglm.cpp.git && cd chatglm.cpp
转换chatglm2模型(模型下载THUDM/chatglm2-6b at main,依赖安装)
python3 convert.py -i THUDM/chatglm2-6b -t q4_0 -o chatglm2-ggml.bin
build main
cmake -B buildcmake --build build -j
命令行调用
./build/bin/main -m chatglm2-ggml.bin -p 你好 --top_p 0.8 --temp 0.8 # ChatGLM2-6B# 你好👋!我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。
安装chatglm-cpp
pip install -U chatglm-cpp
运行WEB_demo.py
cd examples && Python web_demo.py -m ../chatglm-ggml.bin
来源地址:https://blog.csdn.net/wxl781227/article/details/131623655
--结束END--
本文标题: Mac(M1Pro)下运行ChatGLM2
本文链接: https://lsjlt.com/news/401303.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-01-21
2023-10-28
2023-10-28
2023-10-27
2023-10-27
2023-10-27
2023-10-27
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0