创建容器 docker run -d --name glm -v /dp/docker/file/glm:/dp/glm -p 8100:8200 --privileged=true centos:7 /usr/sbin/init 登录容器 docker exec -it -u root glm /
git clone https://github.com/ggerganov/llama.cpp 编译llama.cpp 使用GPU执行【推荐】: cd llama.cpp make LLAMA_CUBLAS=1 使用CPU执行【安装简单】: cd llama.cpp make&nbs
安装 curl https://ollama.ai/install.sh | sh 下载模型 ollama pull llama2-chinese 运行模型 ollama run llama2-chinese 查看已下载的模型 ollama list 查看所有支持的模型 https://o
docker run -d --name chat -v /dp/docker/file/glm:/usr/local/glm -p 8501:8501 -p7860:7860 -p 7861:7861 -p7862:7862 --privileged=true
把MaxKB嵌入到现在系统中提供在线问答服务 先安装MaxKB docker run -d --name=maxkb -p 18080:8080 -v /dp/docker/file/maxkb/data:/var/lib/postgresql/data --privileged=true
git clone https://github.com/langgenius/dify.git dify/docker 参考环境变量避免端口冲突 https://docs.dify.ai/v/zh-hans/getting-started/install-sel
创建容器 docker run -d --name centos-glm -v /dp/docker/file/glm:/usr/local/glm -p 820:22 -p 8501:8501 --privileged=true centos:7 /usr/sbin/initdocker run