搜索 提交
  • AI

  • docker环境CPU运行Llama 3 8B大模型和对话客户端

    创建容器 docker run -d --name glm -v /dp/docker/file/glm:/dp/glm -p 8100:8200 --privileged=true centos:7 /usr/sbin/init 登录容器 docker exec -it -u root glm /
  • 部署llama.cpp

    git clone https://github.com/ggerganov/llama.cpp 编译llama.cpp 使用GPU执行【推荐】: cd llama.cpp make LLAMA_CUBLAS=1 使用CPU执行【安装简单】: cd llama.cpp make&nbs
  • Ollama部署本地中文环境大模型

    安装 curl https://ollama.ai/install.sh | sh 下载模型 ollama pull llama2-chinese 运行模型 ollama run llama2-chinese 查看已下载的模型 ollama list 查看所有支持的模型 https://o
  • docker centos7部署Langchain-Chatchat + 通义千问实现本地知识库

    docker run -d --name chat -v /dp/docker/file/glm:/usr/local/glm -p 8501:8501  -p7860:7860 -p 7861:7861  -p7862:7862  --privileged=true
  • MaxKB+ollama+通义千问搭建本地知识库

    把MaxKB嵌入到现在系统中提供在线问答服务 先安装MaxKB docker run -d --name=maxkb -p 18080:8080 -v /dp/docker/file/maxkb/data:/var/lib/postgresql/data --privileged=true
  • 本地docker部署dify,搭建智能客服嵌入网站

    1、搭建工作流 2、知识库检索 3、llm-prompt设置 4、开场设置,问题引用是否开启 5、文本转语音播报 6、后续问题推荐 7、标准答案设置 8、嵌入自己网站
  • centos部署ollama

    调用DeepSeek模型时,发现Ollama服务无响应输出。通过系统日志和版本比对,最终定位为Ollama版本过低导致的新模型兼容性问题。 docker部署的ollama版本有可能过低 尽量用ubuntu因为centos版本有点低 先创建一个centos docker run -d --name
  • ubuntu部署ollama

    docker run -d --name ubuntu -p 21434:11434  ubuntu:latest /bin/bash 更新环境 apt install sudo sudo apt update sudo apt upgrade sudo apt install
  • 整合RAGFlow、Dify、Ollama、DeepSeek

    RAGFlow 本地知识库 Dify 工作流编排和 Agent  Ollama 部署LLM和Embedding DeepSeek 自然语言理解与生成 在同一台机器上同时启动 Ragflow 和 Dify。 首先是要修改冲突的端口号,例如这两个应用都
  • docker centos7部署Langchain-Chatchat + chatglm3-6b 实现本地知识库

    创建容器 docker run -d --name centos-glm -v /dp/docker/file/glm:/usr/local/glm -p 820:22 -p 8501:8501 --privileged=true centos:7 /usr/sbin/initdocker run
第一页 上一页 下一页 最后页