程序员圈疯传的Open-WebUI:一开源插件实现DeepSeek本地模型的全网搜索!
时间:2025-2-11 18:50 作者:Anglei 分类: 大数据AI
前言
之前写的文章,让大家能够使用腾讯云提供的免费 API 接口调用来使用 deepseek r1 和 v3 模型,但是本地的大模型没办法联网搜索获得最新的知识,这确实是一个比较难受的点,但是有很多人问我,该怎么样才能够让本地部署的模型能够支持联网,所以有了这篇教程。
介绍
本地需要联网的话,可以使用一个叫 Open-WebUI 的开源程序。
Github 官方仓库地址是: https://github.com/open-webui/open-webui 。
这里我先展示一下最终的搜索效果,能够看到 deepseek 能够通过联网搜索来获得最新的互联网信息。
DOCKER部署方式
使用默认配置进行安装
如果Ollama已经在您的电脑上,请使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果Ollama位于不同的服务器上,请使用以下命令:
要连接到另一台服务器上的Ollama,请将OLLAMA_BASE_URL更改为该服务器的URL,如果是11434端口,则无需加端口,如果是其它端口,则需要带上端口号,比如http://192.168.1.110:32001:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Open-WebUI 配置
基础配置
接下来,我们打开浏览器访问 http://192.168.1.118:3000
联网搜索配置
接下来就是让我们自己的模型能够联网搜索的配置,点击左侧的 “联网搜索”,选择启用联网搜索,搜索引擎这里选 duckduckgo ,因为使用其他的搜索引擎需要相应的 API key 才能,使用 duckduckgo, 能够免费的进行联网搜索,但是需要保证网络(可能需要魔法)。
第三方API配置
上述配置完成后就可以调用本地ollama下载的模型进行问答了,另外,我们也可以使用第三方的API配置,进行问答,配置如下:
选择“设置” -> “外部连接” -> 填入腾讯云相关的 API 接口地址和自己申请到的 API KEY。
第三方的API不难找,腾讯云、阿里云、讯飞、deepseek都有可以使用的API接口,大家自行发掘吧!

本文完结,相关标签: Ollama deepseek open-webui webui duckduckgo
推荐阅读:
![]() 路过(0) |
![]() 雷人(1) |
![]() 握手(3) |
![]() 鲜花(0) |
![]() 鸡蛋(0) |