前言 Open WebUI(原 Ollama WebUI)是一款开源、可自托管、支持完全离线的大语言模型(LLM)交互 Web 平台,主打私有化部署与隐私安全,提供跟AI大模型的流畅对话体验。 2 搭建过程(1)本地部署在centos上通过如下命令启动docker:
systemctl start docker 该命令用于启动系统中的 Docker 服务,执行完成后,可通过 systemctl status docker 查看运行状态,确认服务启动成功。如果 Docker 未设置开机自启,也可以使用 systemctl enable docker 命令配置开机自动启动,避免服务器重启后需要手动再次启动服务。
配置镜像源
vi /etc/docker/daemon.json { "registry-mirrors": ["点击下载"]} 添加国内镜像源可以显著提升容器镜像拉取速度,避免因网络问题导致下载缓慢或失败。配置完成后,需要执行 systemctl daemon-reload 和 systemctl restart docker 使配置生效。
下载open-webui
docker run -d

-p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 这条命令会以后台模式启动 Open WebUI 容器,将本地 3000 端口映射到容器内部 8080 端口,方便外部访问。同时挂载数据卷,保证配置、对话记录等数据持久化存储,容器重启后不会丢失。--restart always 确保容器异常退出或服务器重启时能够自动恢复。执行后等待镜像拉取完成,容器启动成功即可进入下一步。 (2)访问页面打开open-webui的网址,使用如下网址和端口访问:
点击下载
填写名称、电子邮箱、密码等信息

首次访问会自动进入注册界面,这是系统的管理员账号创建流程。电子邮箱可以使用任意有效格式,无需真实验证,主要用于账号标识和后续登录管理。密码建议设置复杂度较高的组合,提升平台安全性,防止未授权访问。点击确认,开始使用 (3)配置点击配置,填写ollama相关的连接地址和端口 在ollma中下载你想要的模型 在open-webui中查看,就能看到你下载的大模型 (4)开始使用通过直接输入你想要做的事情
例如:帮我写一个烟花绽放的html脚本,烟花自动升向空中,并绽放开来,烟花是五颜六色的,要考虑色彩搭配 输入指令后,系统会调用已加载的大模型进行推理生成,响应速度取决于模型大小和服务器性能。生成的内容支持复制、导出,同时支持多轮对话上下文记忆,可连续追问和补充需求,满足代码编写、文案生成、问题解答等多种场景使用。其实这就是一个ollama大模型的使用页面,不过这个我感觉挺好用的,接下来,我将继续研究用这个搭建一个属于自己的AI Agent。
THE END
- 本文链接:
- https://zxki.cn/wzym/55662.html
- 版权声明:本站提供的一切软件、教程和内容信息仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络收集整理,如果您喜欢该程序和内容,请支持正版,购买注册,得到更好的正版服务。我们非常重视版权问题,如有侵权请邮件与我们联系处理。敬请谅解!
请登录后发表评论
注册
停留在世界边缘,与之惜别