# 宇光同行AI chat平台故障排除指南 ## 了解宇光同行AI chat平台架构 宇光同行AI chat平台系统旨在简化客户端(您的浏览器)和Ollama API之间的交互。该设计的核心是一个后端反向代理,用于增强安全性和解决CORS问题。 - **工作原理**:宇光同行AI chat平台设计通过特定路由与Ollama API进行交互。当从WebUI向Ollama发出请求时,它不会直接发送到Ollama API。最初,请求通过`/ollama`路由发送到宇光同行AI chat平台后端。从那里,后端负责将请求转发到Ollama API。这种转发是通过使用`OLLAMA_BASE_URL`环境变量中指定的路由来完成的。因此,在WebUI中对`/ollama`的请求实际上等同于在后端对`OLLAMA_BASE_URL`的请求。例如,WebUI中对`/ollama/api/tags`的请求相当于后端中的`OLLAMA_BASE_URL/api/tags`。 - **安全优势**:这种设计防止了Ollama API直接暴露给前端,保护系统免受潜在的CORS(跨源资源共享)问题和未经授权的访问。要求身份验证才能访问Ollama API进一步增强了这一安全层。 ## 宇光同行AI chat平台:服务器连接错误 如果您遇到连接问题,通常是因为WebUI docker容器无法在容器内部访问127.0.0.1:11434(host.docker.internal:11434)上的Ollama服务器。使用docker命令中的`--network=host`标志可以解决这个问题。请注意,端口从3000更改为8080,结果链接为:`http://localhost:8080`。 **Docker命令示例**: ```bash docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main ``` ### Ollama响应缓慢的错误 宇光同行AI chat平台默认为Ollama设置了5分钟的响应超时时间。如果需要,可以通过环境变量AIOHTTP_CLIENT_TIMEOUT调整此时间,该变量以秒为单位设置超时时间。 ### 常见连接错误 **确保Ollama版本是最新的**:始终先检查您是否使用了最新版本的Ollama。访问[Ollama官方网站](https://ollama.com/)获取最新更新。 **故障排除步骤**: 1. **验证Ollama URL格式**: - 运行Web UI容器时,确保正确设置了`OLLAMA_BASE_URL`(例如,对于不同的主机设置,使用`http://192.168.1.1:11434`)。 - 在宇光同行AI chat平台中,导航到"设置" > "常规"。 - 确认Ollama服务器URL正确设置为`[OLLAMA URL]`(例如,`http://localhost:11434`)。 按照这些增强的故障排除步骤,应该能有效解决连接问题。如需进一步帮助或有任何疑问,欢迎在我们的社区Discord上联系我们。