搜索 提交
  • AI

  • docker环境CPU运行Llama 3 8B大模型和对话客户端

    创建容器 docker run -d --name glm -v /dp/docker/file/glm:/dp/glm -p 8100:8200 --privileged=true centos:7 /usr/sbin/init 登录容器 docker exec -it -u root glm /
  • 部署llama.cpp

    git clone https://github.com/ggerganov/llama.cpp 编译llama.cpp 使用GPU执行【推荐】: cd llama.cpp make LLAMA_CUBLAS=1 使用CPU执行【安装简单】: cd llama.cpp make&nbs
  • Ollama部署本地中文环境大模型

    安装 curl https://ollama.ai/install.sh | sh 下载模型 ollama pull llama2-chinese 运行模型 ollama run llama2-chinese 查看已下载的模型 ollama list 查看所有支持的模型 https://o
  • docker centos7部署Langchain-Chatchat + 通义千问实现本地知识库

    docker run -d --name chat -v /dp/docker/file/glm:/usr/local/glm -p 8501:8501  -p7860:7860 -p 7861:7861  -p7862:7862  --privileged=true
  • MaxKB+ollama+通义千问搭建本地知识库

    把MaxKB嵌入到现在系统中提供在线问答服务 先安装MaxKB docker run -d --name=maxkb -p 18080:8080 -v /dp/docker/file/maxkb/data:/var/lib/postgresql/data --privileged=true
  • 本地部署dify

    git clone https://github.com/langgenius/dify.git dify/docker  参考环境变量避免端口冲突 https://docs.dify.ai/v/zh-hans/getting-started/install-sel
  • docker centos7部署Langchain-Chatchat + chatglm3-6b 实现本地知识库

    创建容器 docker run -d --name centos-glm -v /dp/docker/file/glm:/usr/local/glm -p 820:22 -p 8501:8501 --privileged=true centos:7 /usr/sbin/initdocker run
第一页 上一页 下一页 最后页