创建容器 docker run -d --name glm -v /dp/docker/file/glm:/dp/glm -p 8100:8200 --privileged=true centos:7 /usr/sbin/init 登录容器 docker exec -it -u root glm /
git clone https://github.com/ggerganov/llama.cpp 编译llama.cpp 使用GPU执行【推荐】: cd llama.cpp make LLAMA_CUBLAS=1 使用CPU执行【安装简单】: cd llama.cpp make&nbs
安装 curl https://ollama.ai/install.sh | sh 下载模型 ollama pull llama2-chinese 运行模型 ollama run llama2-chinese 查看已下载的模型 ollama list 查看所有支持的模型 https://o
docker run -d --name chat -v /dp/docker/file/glm:/usr/local/glm -p 8501:8501 -p7860:7860 -p 7861:7861 -p7862:7862 --privileged=true
把MaxKB嵌入到现在系统中提供在线问答服务 先安装MaxKB docker run -d --name=maxkb -p 18080:8080 -v /dp/docker/file/maxkb/data:/var/lib/postgresql/data --privileged=true
1、搭建工作流 2、知识库检索 3、llm-prompt设置 4、开场设置,问题引用是否开启 5、文本转语音播报 6、后续问题推荐 7、标准答案设置 8、嵌入自己网站
调用DeepSeek模型时,发现Ollama服务无响应输出。通过系统日志和版本比对,最终定位为Ollama版本过低导致的新模型兼容性问题。 docker部署的ollama版本有可能过低 尽量用ubuntu因为centos版本有点低 先创建一个centos docker run -d --name
docker run -d --name ubuntu -p 21434:11434 ubuntu:latest /bin/bash 更新环境 apt install sudo sudo apt update sudo apt upgrade sudo apt install
RAGFlow 本地知识库 Dify 工作流编排和 Agent Ollama 部署LLM和Embedding DeepSeek 自然语言理解与生成 在同一台机器上同时启动 Ragflow 和 Dify。 首先是要修改冲突的端口号,例如这两个应用都
创建容器 docker run -d --name centos-glm -v /dp/docker/file/glm:/usr/local/glm -p 820:22 -p 8501:8501 --privileged=true centos:7 /usr/sbin/initdocker run