部署dify集成chatglm3搭建本地知识库调通


部署dify集成chatglm3搭建本地知识库调通dify 搭建:项目地址:https://github.com/langgenius/dify先拉取他的代码,因为docker目录下面有对应的配置,git clone 或者下载zip然后解压都行,看自己1.进入到对应的docker目录2.直接使用命令

部署oneapi集成chatglm3的api服务,同时基于chatweb-next测试调通


部署oneapi集成chatglm3的api服务,同时基于chatweb-next调通,为了使用dify做知识库1.需要先部署chatglm3的api模式(1)进入该文件夹openai_api_demo文件夹,里面包含启动服务的openai_api.py,还有测试你的服务是否正常的openai_ap

本地搭建chatglm3


本地部署搭建chatglm3准备本地环境1.本地安装anaconda下载地址:https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/?C=M&O=D根据时间倒序,然后下载Windows系统的版本:2.按照此博客安装anaconda参考博客