宇光同行AI chat平台系统旨在简化客户端(您的浏览器)和Ollama API之间的交互。该设计的核心是一个后端反向代理,用于增强安全性和解决CORS问题。
工作原理:宇光同行AI chat平台设计通过特定路由与Ollama API进行交互。当从WebUI向Ollama发出请求时,它不会直接发送到Ollama API。最初,请求通过/ollama路由发送到宇光同行AI chat平台后端。从那里,后端负责将请求转发到Ollama API。这种转发是通过使用OLLAMA_BASE_URL环境变量中指定的路由来完成的。因此,在WebUI中对/ollama的请求实际上等同于在后端对OLLAMA_BASE_URL的请求。例如,WebUI中对/ollama/api/tags的请求相当于后端中的OLLAMA_BASE_URL/api/tags。
安全优势:这种设计防止了Ollama API直接暴露给前端,保护系统免受潜在的CORS(跨源资源共享)问题和未经授权的访问。要求身份验证才能访问Ollama API进一步增强了这一安全层。
如果您遇到连接问题,通常是因为WebUI docker容器无法在容器内部访问127.0.0.1:11434(host.docker.internal:11434)上的Ollama服务器。使用docker命令中的--network=host标志可以解决这个问题。请注意,端口从3000更改为8080,结果链接为:http://localhost:8080。
Docker命令示例:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
宇光同行AI chat平台默认为Ollama设置了5分钟的响应超时时间。如果需要,可以通过环境变量AIOHTTP_CLIENT_TIMEOUT调整此时间,该变量以秒为单位设置超时时间。
确保Ollama版本是最新的:始终先检查您是否使用了最新版本的Ollama。访问Ollama官方网站获取最新更新。
故障排除步骤:
OLLAMA_BASE_URL(例如,对于不同的主机设置,使用http://192.168.1.1:11434)。[OLLAMA URL](例如,http://localhost:11434)。按照这些增强的故障排除步骤,应该能有效解决连接问题。如需进一步帮助或有任何疑问,欢迎在我们的社区Discord上联系我们。