亲爱的粉丝朋友们好啊!今天熊猫又来介绍好玩有趣的Docker项目了,喜欢的记得点个关注哦!
引言
相信不少人最近都尝试过了本地部署DeepSeek了,网上的教程也是非常之多,什么电脑本地部署、NAS上Docker部署,甚至用手机部署1.5b的模型,相信只要是日常使用AI比较多的小伙伴都已经自己尝试过了。
DeepSeek不过,虽说DeepSeek提供了各种参数的模型,算力不够也能玩玩,甚至手机也能玩,但我猜应该还是有人在用官方的服务,不过有一说一,虽说DeepSeek官网体验蛮不错的,且APP也非常简洁,甚至让我觉得这居然是个国产软件,但也就是因为太简洁了,很多对于大模型来说很有用的功能没有。例如AI的人设设定、插件支持以及提示词设置等等,这些能很大程度的简化我们使用AI的过程,同时也能增加AI的无限可能性。
API暂时维护所以这时候我们就需要用到第三方的LLM平台,通过它们来让DeepSeek拥有很多功能,例如对接个人知识库、插件支持、AI助手预设以及大模型集成等等,但DeepSeek官方的API最近一直提示维护升级,所以熊猫今天介绍DeepSeek-V3 R1大模型逆向API项目,通过Docker部署。
特性:
- 支持高速流式输出
- 多轮对话
- 联网搜索
- R1深度思考
- 零配置部署
- 多路token支持
部署机
本次部署用到的为极空间Z423旗舰版,之所以选择极空间其实还有个原因是free-api本身还有其他大模型的逆向项目,而熊猫也一直是部署在这上面的,同时对应的One API项目也在极空间上,所以很大程度集中式的管理会更为方便。
容器项目因为Z423旗舰版本身出厂内存就有32G,所以在即便熊猫目前已经部署了非常多的容器项目,同时还有虚拟机在运行,内存使用率依然能稳定在50%以下,这也是为什么熊猫经常使用Z423旗舰版部署容器的原因,毕竟折腾这些容器和虚拟机,内存可是非常关键的因素。
设备状态Free-API部署
DeepSeek V3 Free的部署非常简单,因为其项目本身就是一个提供接口的功能,所以不需要去设置容器文件的本地化,也不需要多高的性能,只需要映射其端口即可。不过在部署前,请注意自己的极空间网络环境,提前设置好镜像加速地址。
加速器配置设置好镜像加速之后我们来到仓库界面,搜索镜像vinlic/deepseek-free-api
并下载,如果搜索不到,直接用自定义拉取也可以。
镜像下载之后先不着急部署,这时候我们需要去获取Token,进入DeepSeek随便发起一个对话,然后F12打开开发者工具,从Application > LocalStorage中找到userToken
中的value值,这将作为Authorization的Bearer Token值:Authorization: Bearer TOKEN
随后在部署Docker时我们在环境变量中新增变量DEEP_SEEK_CHAT_AUTHORIZATION
,将其值填入我们刚刚获取的token。
端口上我们需要映射8000端口,例如熊猫这里设置为8704。
端口设置最后点击应用启动容器,这时候逆向的API也就获取成功了。
One API部署
虽说API已经逆向获取成功了,但这时候还不能直接用,我们还需要用One API项目来转为OpenAI接口。该项目的部署也不难,还是一样在仓库界面搜索镜像justsong/one-api
,下载之后双击创建容器。
在文件夹路径这里,为了保证本地持久化运行以及容器重启数据不丢失,我们需要映射容器路径/data。
路径映射最后映射容器端口3000,例如熊猫这里填的为3300。
端口映射点击应用启动容器,这时候One API也就部署成功了。
如何使用API
API和承载API的工具都部署好了,这时候我们只需要去One API设置好就行。浏览器输入Http://极空间IP:3300进入One API项目界面,初始用户名为root,密码为123456,登陆之后点击渠道这个选项。
API设置可以看到熊猫这里已经部署有智谱和千问了,我们点击下方的添加新的渠道,类型设置为OpenAI,名称设置为DeepSeek,模型就选择填入相关模型即可。
渠道设置最后在下面密钥这里填入我们获取的token值,在代理这里填写我们部署的API逆向工程项目地址,例如熊猫的地址为http://极空间IP:8704,设置好之后点击提交。
提交渠道渠道设置好之后回到渠道界面可以点击测试,能看到API的响应时间,因为最近DeepSeek也是在风口浪尖,所以响应速度比起刚开始慢了不少。因为熊猫这里模型比较多,如果想要只使用Deepseek,就需要设置好优先级。
响应测速要使用它也很简单,随便选择一个LLM平台,可以是ChatGPT Next Web、BotGem、OpenCat或者LobeChat,只要是支持OpenAI接口的都可以,这里熊猫选择的为之前自部署的LobeChat。
LMM平台在模型设置这里找到OpenAI设置项, API的代理地址就是我们部署的One API项目,而API Key直接在One API项目中的令牌里去复制即可,设置好之后可以检查一下是否连通。
模型设置最后回到AI聊天界面,首先验明一下模型的身份。
身份验证通过LobeChat,我们能够直接赋予DeepSeek多种身份。在LobeChat的发现界面中,你可以浏览到众多预设的AI助手,并可直接套用。
预设助手写在最后
目前也是用了好几天的Deepseek了,比起国内其他一种AI模型它的确要优秀不少,通过API的形式也能让其对接到LLM平台,从而实现更为方便和快捷的使用,这几天的使用个人感觉非常不错。
以上便是本期的全部内容了,如果你觉得还算有趣或者对你有所帮助,不妨点赞收藏,最后也希望能得到你的关注,咱们下期见!三连
本地部署还没来得及搞 🙄
你这NAS部署都来了
真快啊