Lobechat 特性介绍
项目地址:https://github.com/lobehub/lobe-chat
特性:
开源
多模型服务商支持,支持接入各种主流平台API,包括免费平台 huggingface、groq、Google 等,从而我们可以免费使用各种大模型 chatgpt gemini deepseek llama3.3 mixtral gemma 等
支持多模态,文本处理 文生图 语音会话 语音合成 文件上传,视觉识别
支持本地大语言模型 ollama,本地部署 llama3.3 qwen2.5 等大模型后进行API对接
可扩展插件系统,助手市场功能,各种设置好的AI助手供选择,也可以自定日常使用的AI助手
支持 本地/远程数据库模式
支持多用户管理
移动端适配
这些特性,意味着我们用户可以方便的部署私人的AI平台,通过一个平台使用各种模型,自定义日常使用的AI助手,妥妥的生产力工具
Ollama 本地模型管理工具简介
ollama 是一个开源的本地大型语言模型管理工具,多平台支持,简单易用。
项目地址:https://github.com/ollama/ollama
模型仓库:https://ollama.com/search
热门免费模型:deepseek-ri llama3.3 phi4 mistral gemma qwen 等
模型硬件配置要求:
CPU :建议4核以上,13B模型建议至少使用8核CPU
内存:建议8G以上,8GB运行7B模型,16GB运行13B模型,32GB运行33B模型。实测3B模型需要2.8GB内存。
GPU(可选): 运行 Ollama 不需要 GPU,但它可以提高性能,尤其是运行较大的模型。如果您有 GPU,可以使用它来加速 定制模型的训练。
硬盘:存储模型需要空间,具体看模型大小。
部署思路
这个系列给大家做三个视频,一是免费云端部署,二是本地部署,三是各种免费平台API的获取。服务器部署和本地部署各有优缺点:
- 免费云端部署,优点:白嫖的服务器方便,更多的利用免费API;缺点,白嫖的服务器配置均较低,不方便使用 OLLAMA本地模型
- 本地部署,优点:自己的机器CPU 内存 显卡等配置较高,部署在本地的ollama可以运行更大模型; 缺点:占用设备,费电,部署多2个步骤,安装显卡相关及设置内网穿透
- 免费API获取,服务商包括:
- huggingface
- groq
- Goolge
- OpenAI
这篇先带大家在免费云端部署。
部署
VPS 本次使用谷歌云免费服务器,为了方便展示 Ollama,选了4 vCPU + 16 GB memory + 50GB硬盘 的配置,如果不需要使用Ollama 配置及硬盘可以更低些。
域名:ai.heybro.party
IP: 34.127.116.80
系统:Debian 12
防火墙规则:入站规则,允许所有
安装docker 及 docker-compose
1 | 切换到root用户 |
部署 lobe-chat 及 ollama
1 | vi docker-compose.yml |
按i
进入编辑模式,将如下代码复制粘贴进去后保存(按ESC键后 输入wq: 回车)
1 | authur: augustdoit |
运行
1 | docker compose up -d |
打开浏览器,地址栏输入IP:3210 就可以进入lobe-chat,我这里是34.127.116.80:3210
lobechat 设置及API对接
设置 应用设置 语言模型
所有主流的模型服务商均支持对接
OPENAI 目前是打开的状态,我们展开
API Key 这里输入 API Key
API 代理地址:若有代理地址可以填上,若没有保持默认
模型列表:输入完API Key 连通后,我们可以获取模型列表,在这里设置需要的模型
连通性检查:输入完API Key 后 可以检查连通性。
设置好后,检查下开关是否开启。
OpenAI接入完成后再给大家演示2个模型供应商,包括 google、groq
对接完成后就可以使用了,演示
测试模型
GPT-4o-mini 文字处理
Gemini 1.5pro latest 分析图片 GPU使用数据.jpg
知识库 当前部署书模式为客户端数据模式,无法使用文件管理功能。需要服务端数据库部署模式 这里先不讲,最后会补充。
随机性 默认1
限制历史消息数量
语音
插件 插件市场
token使用统计
助手市场
这里有很多设置好的AI助手供我们挑选,可以搜索,可以创作。
搜索 网页内容总结专家
添加助手并对话
先切换下模型
总结 https://github.com/lobehub/lobe-chat/blob/main/README.zh-CN.md
其他设置
演示一遍
Ollama 本地模型管理工具 配置低不推荐
模型安装
模型库查找需要的模型 https://ollama.com/library
可以筛选 可以搜索,默认是按照热度排序的。
deepseek-ri 新标签页打开 翻译下 第一代推理模型,性能与OpenAI-o1相当
提供 1.5b 7b 70b 671b 我们可以选择,同时可以看到模型本身大小 1.5b 是 1.1GB,右侧就是安装代码。因为VPS的配置不高,我们不选择大模型,我们选择1.5b
1 | 进入到 ollama 容器中 |
安装完成后进入终端对话模式,可以测试下
hello introduce yourself
CTRL+D 或者 输入 /bye
关闭对话
我们回到容器库再安装一个 qwen2.5 ,之后再对接到lobe-chat
1 | ollama run qwen2.5:1.5b |
对接 lobechat
回到lobechat 设置-应用设置-语言模型 找到Ollama
开启
服务地址 保持默认 http://34.127.116.80:11434 目前最新版lobe-chat有 bug
检查下连通性
模型列表:输入完API Key 连通后,我们可以获取模型列表,在这里设置需要的模型
设置完成后,发起对话进行测试
进阶 绑定域名添加SSL证书
提前准备域名并解析好 我这里使用的域名 ai.heybro.party 34.127.116.80
1 | 回到终端,退出Ollama容器 |
保存 按ESC键 输入wq: 回车进行保存
1 | 检查下配置文件 |
接下来就可以域名访问了 浏览器输入 ai.heybro.party
注意 切换设备/或者添加了域名证书后 之前设置的API信息会丢失,需要重新设置,我们可以设置好之后通过配置导出来备份,切换设备后再导入。