ragflow+ollama安装部署

一、服务器需要部署docker环境(具体参考此网站上的docker安装部署文档)

二、安装ragflow

1、通过docker和git,安装ragfow,git clone https://gitee.com/infiniflow/ragflow.git

这里需要注意,直接git安装,会用到80和443端口,如果服务器上有使用nginx或apache等,会导致端口冲突

2、可以从阿里云39.108.157.240服务器/root/目录下,打包ragflow文件夹,迁移到新部署的服务器上,直接进行compose部署,cd到/root/ragflow/docker/目录下,执行docker compose -f docker-compose.yml up -d进行安装(阿里云上的ragflow,yml配置文件做过处理,规避了80和443端口)

3、compose之前,要修改docker配置,vi /etc/docker/daemon.json,改为以下内容后,重启systemctl restart docker

{
"builder": {
"gc": {
"defaultKeepStorage": "20GB",
"enabled": true
}
},
"experimental": false,
"features": {
"buildkit": true
},
"live-restore": true,
"registry-mirrors": [
"https://docker.211678.top",
"https://docker.1panel.live",
"https://hub.rat.dev",
"https://docker.m.daocloud.io",
"https://do.nark.eu.org",
"https://dockerpull.com",
"https://dockerproxy.cn",
"https://docker.mirrors.ustc.edu.cn",
"https://docker.awsl9527.cn/"
]
}

三、安装ollama

1、创建ollama目录,mkdir /home/ollama

2、从阿里云39.108.157.240服务器/home/soft/目录下,迁移ollama压缩包和ollama.sh启动脚本

3、ollama压缩包,解压缩到部署服务器的/home/ollama/目录下

4、ollama启动脚本,放在部署服务器的/home/目录下

5、启动,./ollama.sh start

6、安装模型,先执行命令export OLLAMA_HOST=x.x.x.x(服务器内网IP),再执行/home/ollama/bin/ollama run shaw/dmeta-embedding-zh:latest,进行模型下载安装

7、完成后,执行/home/ollama/bin/ollama list,可以查看ollama下的模型情况