deepseek 免费云端部署 绑定域名 对接免费API

Lobechat 特性介绍

官网:https://lobehub.com/zh

项目地址:https://github.com/lobehub/lobe-chat

特性:

  • 开源

  • 多模型服务商支持,支持接入各种主流平台API,包括免费平台 huggingface、groq、Google 等,从而我们可以免费使用各种大模型 chatgpt gemini deepseek llama3.3 mixtral gemma 等

  • 支持多模态,文本处理 文生图 语音会话 语音合成 文件上传,视觉识别

  • 支持本地大语言模型 ollama,本地部署 llama3.3 qwen2.5 等大模型后进行API对接

  • 可扩展插件系统,助手市场功能,各种设置好的AI助手供选择,也可以自定日常使用的AI助手

  • 支持 本地/远程数据库模式

  • 支持多用户管理

  • 移动端适配

这些特性,意味着我们用户可以方便的部署私人的AI平台,通过一个平台使用各种模型,自定义日常使用的AI助手,妥妥的生产力工具

Ollama 本地模型管理工具简介

ollama 是一个开源的本地大型语言模型管理工具,多平台支持,简单易用。

项目地址:https://github.com/ollama/ollama

官网:https://ollama.com/

模型仓库:https://ollama.com/search

热门免费模型:deepseek-ri llama3.3 phi4 mistral gemma qwen 等

模型硬件配置要求:

  • CPU :建议4核以上,13B模型建议至少使用8核CPU

  • 内存:建议8G以上,8GB运行7B模型,16GB运行13B模型,32GB运行33B模型。实测3B模型需要2.8GB内存。

  • GPU(可选): 运行 Ollama 不需要 GPU,但它可以提高性能,尤其是运行较大的模型。如果您有 GPU,可以使用它来加速 定制模型的训练。

  • 硬盘:存储模型需要空间,具体看模型大小。

部署思路

这个系列给大家做三个视频,一是免费云端部署,二是本地部署,三是各种免费平台API的获取。服务器部署和本地部署各有优缺点:

  • 免费云端部署,优点:白嫖的服务器方便,更多的利用免费API;缺点,白嫖的服务器配置均较低,不方便使用 OLLAMA本地模型
  • 本地部署,优点:自己的机器CPU 内存 显卡等配置较高,部署在本地的ollama可以运行更大模型; 缺点:占用设备,费电,部署多2个步骤,安装显卡相关及设置内网穿透
  • 免费API获取,服务商包括:
    • huggingface
    • groq
    • Goolge
    • OpenAI

这篇先带大家在免费云端部署。

部署

VPS 本次使用谷歌云免费服务器,为了方便展示 Ollama,选了4 vCPU + 16 GB memory + 50GB硬盘 的配置,如果不需要使用Ollama 配置及硬盘可以更低些。

域名:ai.heybro.party

IP: 34.127.116.80

系统:Debian 12

防火墙规则:入站规则,允许所有

安装docker 及 docker-compose

1
2
3
4
5
6
7
8
9
10
#切换到root用户
sudo -i
apt install curl wget vim
#安装docker
curl -fsSL https://get.docker.com -o get-docker.sh
sh get-docker.sh
systemctl start docker
systemctl enable docker
#安装 docker-compose
apt-get install docker-compose -y

部署 lobe-chat 及 ollama

1
vi docker-compose.yml

i进入编辑模式,将如下代码复制粘贴进去后保存(按ESC键后 输入wq: 回车)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
# authur: augustdoit
services:
lobe-chat:
image: lobehub/lobe-chat
container_name: lobe-chat
restart: always
ports:
- '3210:3210'
ollama:
image: ollama/ollama
container_name: ollama
volumes:
- /ollama:/root/.ollama
ports:
- '11434:11434'
environment:
- OLLAMA_ORIGINS=*
- ENABLED_OLLAMA=1
- OLLAMA_PROXY_URL=http://127.0.0.1:11434
- OLLAMA_HOST=0.0.0.0:11434

运行

1
docker compose up -d

打开浏览器,地址栏输入IP:3210 就可以进入lobe-chat,我这里是34.127.116.80:3210

lobechat 设置及API对接

设置 应用设置 语言模型

所有主流的模型服务商均支持对接

OPENAI 目前是打开的状态,我们展开

API Key 这里输入 API Key

API 代理地址:若有代理地址可以填上,若没有保持默认

模型列表:输入完API Key 连通后,我们可以获取模型列表,在这里设置需要的模型

连通性检查:输入完API Key 后 可以检查连通性。

设置好后,检查下开关是否开启。

OpenAI接入完成后再给大家演示2个模型供应商,包括 google、groq

对接完成后就可以使用了,演示

测试模型

GPT-4o-mini 文字处理

Gemini 1.5pro latest 分析图片 GPU使用数据.jpg

知识库 当前部署书模式为客户端数据模式,无法使用文件管理功能。需要服务端数据库部署模式 这里先不讲,最后会补充。

随机性 默认1

限制历史消息数量

语音

插件 插件市场

token使用统计

助手市场

这里有很多设置好的AI助手供我们挑选,可以搜索,可以创作。

搜索 网页内容总结专家

添加助手并对话

先切换下模型

总结 https://github.com/lobehub/lobe-chat/blob/main/README.zh-CN.md

其他设置

演示一遍

Ollama 本地模型管理工具 配置低不推荐

模型安装

模型库查找需要的模型 https://ollama.com/library

可以筛选 可以搜索,默认是按照热度排序的。

deepseek-ri 新标签页打开 翻译下 第一代推理模型,性能与OpenAI-o1相当

提供 1.5b 7b 70b 671b 我们可以选择,同时可以看到模型本身大小 1.5b 是 1.1GB,右侧就是安装代码。因为VPS的配置不高,我们不选择大模型,我们选择1.5b

1
2
3
4
5
6
#进入到 ollama 容器中
docker exec -it ollama bash
#查看 Ollama 常用命令
ollama -h
#安装需要的模型,模型库已经提供了
ollama run deepseek-r1:1.5b

安装完成后进入终端对话模式,可以测试下

hello introduce yourself

CTRL+D 或者 输入 /bye 关闭对话

我们回到容器库再安装一个 qwen2.5 ,之后再对接到lobe-chat

1
ollama run qwen2.5:1.5b

对接 lobechat

回到lobechat 设置-应用设置-语言模型 找到Ollama

开启

服务地址 保持默认 http://34.127.116.80:11434 目前最新版lobe-chat有 bug

检查下连通性

模型列表:输入完API Key 连通后,我们可以获取模型列表,在这里设置需要的模型

设置完成后,发起对话进行测试

进阶 绑定域名添加SSL证书

提前准备域名并解析好 我这里使用的域名 ai.heybro.party 34.127.116.80

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
#回到终端,退出Ollama容器 
exit
#安装nginx
apt install nginx certbot python3-certbot-nginx -y
#编辑往网站配置文件
vi /etc/nginx/sites-available/lobechat

#复制粘贴如下字段 注意替换域名 我这里使用的域名 ai.heybro.party
server {
listen 80;
server_name ai.heybro.party;
return 301 https://$server_name$request_uri;
}
server {
listen 443 ssl;
server_name ai.heybro.party;
ssl_certificate /etc/letsencrypt/live/ai.heybro.party/fullchain.pem;
ssl_certificate_key /etc/letsencrypt/live/ai.heybro.party/privkey.pem;
# Configurações de segurança SSL recomendadas
ssl_protocols TLSv1.2 TLSv1.3;
ssl_prefer_server_ciphers on;
ssl_ciphers ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GCM-SHA384;
location / {
proxy_pass http://localhost:3210;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection 'upgrade';
proxy_set_header Host $host;
proxy_cache_bypass $http_upgrade;
}
}

保存 按ESC键 输入wq: 回车进行保存

1
2
3
4
5
6
7
8
9
10
11
12
13
# 检查下配置文件
nginx -t
# 软连接
sudo ln -s /etc/nginx/sites-available/lobechat /etc/nginx/sites-enabled/
sudo rm /etc/nginx/sites-enabled/default
#申请SSL证书 注意更改为自己的域名
sudo systemctl stop nginx
sudo certbot certonly --standalone -d ai.heybro.party
#随便输入个邮箱 [email protected]
#输入Y
#输入N
#重新启动 nginx
sudo systemctl start nginx

接下来就可以域名访问了 浏览器输入 ai.heybro.party

注意 切换设备/或者添加了域名证书后 之前设置的API信息会丢失,需要重新设置,我们可以设置好之后通过配置导出来备份,切换设备后再导入。