在CentOS 7.9上,我如何用Ollama+DeepSeek-R1+RAGFlow搭建了一个完全离线的AI知识库(保姆级避坑指南)
在CentOS 7.9上构建离线AI知识库OllamaDeepSeek-R1RAGFlow实战全记录最近在帮一家金融机构搭建内部知识库时遇到了一个棘手的需求所有AI组件必须完全离线运行且要部署在已经服役5年的CentOS 7.9服务器上。经过两周的折腾终于成功用OllamaDeepSeek-R1RAGFlow搭建了一套稳定的解决方案。本文将分享整个过程中的关键步骤和那些官方文档没提到的坑特别适合需要在隔离环境中部署AI知识库的开发者。1. 环境准备与避坑指南CentOS 7.9虽然稳定但在这个场景下却成了双刃剑。我的测试机配置如下硬件配置CPU: Intel Xeon E5-2680 v4 (支持AVX2)内存: 64GB DDR4存储: 2TB SSD (建议预留至少500GB空间)无独立GPU特别注意如果使用虚拟机务必检查虚拟化层是否透传了AVX指令集。我曾在KVM上浪费一天时间才发现这个问题。关键检查命令grep -q avx /proc/cpuinfo echo AVX支持正常 || echo CPU不支持AVX系统环境配置清单关闭SELinux临时方案setenforce 0 sed -i s/SELINUXenforcing/SELINUXpermissive/g /etc/selinux/config防火墙放行必要端口firewall-cmd --permanent --add-port11434/tcp # Ollama默认端口 firewall-cmd --permanent --add-port80/tcp # RAGFlow Web界面 firewall-cmd --reload安装基础依赖yum install -y epel-release yum install -y git wget curl tmux htop2. Ollama部署的隐藏陷阱官方安装脚本在CentOS 7.9上会遭遇三个典型问题2.1 网络下载优化原始安装脚本直接从国外服务器下载速度极慢。我的解决方案是# 使用国内镜像加速 curl -fsSL https://ollama.com/install.sh | \ sed s|https://ollama.com/download/|https://mirror.example.com/ollama/|g install.sh chmod x install.sh ./install.sh实际踩坑某些镜像站的SSL证书可能有问题需要额外处理curl -kfsSL https://mirror.example.com/ollama/install.sh -o install.sh2.2 服务监听配置Ollama默认只监听127.0.0.1导致容器无法访问。修改方法cat EOF /etc/systemd/system/ollama.service.d/override.conf [Service] EnvironmentOLLAMA_HOST0.0.0.0:11434 EOF systemctl daemon-reload systemctl restart ollama验证监听状态netstat -tulnp | grep 114342.3 模型下载技巧DeepSeek-R1模型大小约25GB离线环境需要提前下载# 在有网络的机器上拉取模型 ollama pull deepseek-r1 # 导出模型文件 ollama export deepseek-r1 deepseek-r1.tar # 离线导入 ollama import deepseek-r1.tar3. RAGFlow部署的兼容性问题3.1 Docker版本冲突CentOS 7.9默认的Docker 1.13不兼容RAGFlow必须升级# 卸载旧版本 yum remove docker docker-client docker-client-latest docker-common docker-latest docker-latest-logrotate docker-logrotate docker-engine # 安装新版Docker yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo yum install -y docker-ce docker-ce-cli containerd.io systemctl enable --now docker3.2 Docker Compose特殊处理官方推荐的v2.29版本在CentOS 7.9上有兼容性问题建议使用v2.24curl -L https://github.com/docker/compose/releases/download/v2.24.7/docker-compose-$(uname -s)-$(uname -m) -o /usr/local/bin/docker-compose chmod x /usr/local/bin/docker-compose3.3 网络配置调整修改RAGFlow的docker-compose.yml解决网络连通问题# 在services部分添加 services: ragflow: extra_hosts: - host.docker.internal:host-gateway如果仍不生效可以手动指定IPextra_hosts: - host.docker.internal:172.17.0.14. 系统集成与性能调优4.1 资源监控方案由于AI服务资源占用大建议部署监控# 安装基础监控工具 yum install -y sysstat # 启动资源记录 sar -u -r -n DEV 1 /var/log/system_stats.log 4.2 服务自启动配置确保所有服务能随系统启动# Docker自启动 systemctl enable docker # Ollama自启动 systemctl enable ollama # RAGFlow自启动在项目目录下 (crontab -l 2/dev/null; echo reboot /usr/local/bin/docker-compose -f /path/to/ragflow/docker-compose.yml up -d) | crontab -4.3 性能优化参数在/etc/sysctl.conf中添加# 提高系统最大文件描述符数 fs.file-max 100000 # 增加TCP连接数 net.ipv4.ip_local_port_range 1024 65535 net.ipv4.tcp_max_syn_backlog 3240000应用配置sysctl -p5. 验证与测试5.1 服务健康检查# 检查Ollama curl http://localhost:11434/api/tags # 检查RAGFlow容器 docker ps | grep ragflow # 检查端口监听 ss -tulnp | grep -E 11434|805.2 知识库上传测试通过Web界面(http://服务器IP)上传测试文档时注意PDF文件建议使用General解析器表格数据选择Table解析器问答类文档用QA解析器效果最佳5.3 查询压力测试使用ab工具模拟并发查询ab -n 100 -c 10 http://localhost/api/v1/query -p query.json -T application/json其中query.json内容示例{ question: 年度报告中的关键指标是什么, knowledge_base_id: your_kb_id }6. 故障排查手册6.1 常见错误代码错误代码可能原因解决方案502 Bad GatewayOllama服务未启动检查systemctl status ollamaConnection refused防火墙阻止确认端口11434和80已开放CUDA out of memory显存不足减小模型batch_size参数6.2 日志查看技巧# Ollama日志 journalctl -u ollama -f # RAGFlow容器日志 docker logs -f ragflow_app_1 # 系统资源监控 watch -n 1 free -h; df -h; top -bn1 | head -206.3 性能瓶颈分析使用htop观察如果CPU持续100%考虑限制Ollama线程数export OMP_NUM_THREADS$(nproc --all)内存不足时调整Swappiness值echo 10 /proc/sys/vm/swappiness经过这次部署最大的体会是在老旧系统上部署最新AI工具就像在古董车上安装自动驾驶系统——需要大量的适配工作但一旦跑通那种成就感无与伦比。建议所有关键步骤都记录操作日志因为很可能需要反复尝试多次。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2490442.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!