tx

熊猫不是猫QAQ

平平无奇小熊猫
736,716
本地算力不够?一键获取爆火的DeepSeek大模型API,完美对接LLM 本地算力不够?一键获取爆火的DeepSeek大模型API,完美对接LLM

亲爱的粉丝朋友们好啊!今天熊猫又来介绍好玩有趣的Docker项目了,喜欢的记得点个关注哦!

引言

相信不少人最近都尝试过了本地部署DeepSeek了,网上的教程也是非常之多,什么电脑本地部署、NAS上Docker部署,甚至用手机部署1.5b的模型,相信只要是日常使用AI比较多的小伙伴都已经自己尝试过了。

DeepSeekDeepSeek

不过,虽说DeepSeek提供了各种参数的模型,算力不够也能玩玩,甚至手机也能玩,但我猜应该还是有人在用官方的服务,不过有一说一,虽说DeepSeek官网体验蛮不错的,且APP也非常简洁,甚至让我觉得这居然是个国产软件,但也就是因为太简洁了,很多对于大模型来说很有用的功能没有。例如AI的人设设定、插件支持以及提示词设置等等,这些能很大程度的简化我们使用AI的过程,同时也能增加AI的无限可能性。

API暂时维护API暂时维护

所以这时候我们就需要用到第三方的LLM平台,通过它们来让DeepSeek拥有很多功能,例如对接个人知识库、插件支持、AI助手预设以及大模型集成等等,但DeepSeek官方的API最近一直提示维护升级,所以熊猫今天介绍DeepSeek-V3 R1大模型逆向API项目,通过Docker部署。

特性:

  • 支持高速流式输出
  • 多轮对话
  • 联网搜索
  • R1深度思考
  • 零配置部署
  • 多路token支持
项目页项目页

部署机

本次部署用到的为极空间Z423旗舰版,之所以选择极空间其实还有个原因是free-api本身还有其他大模型的逆向项目,而熊猫也一直是部署在这上面的,同时对应的One API项目也在极空间上,所以很大程度集中式的管理会更为方便。

容器项目容器项目

因为Z423旗舰版本身出厂内存就有32G,所以在即便熊猫目前已经部署了非常多的容器项目,同时还有虚拟机在运行,内存使用率依然能稳定在50%以下,这也是为什么熊猫经常使用Z423旗舰版部署容器的原因,毕竟折腾这些容器和虚拟机,内存可是非常关键的因素。

设备状态设备状态

Free-API部署

DeepSeek V3 Free的部署非常简单,因为其项目本身就是一个提供接口的功能,所以不需要去设置容器文件的本地化,也不需要多高的性能,只需要映射其端口即可。不过在部署前,请注意自己的极空间网络环境,提前设置好镜像加速地址。

加速器配置加速器配置

设置好镜像加速之后我们来到仓库界面,搜索镜像vinlic/deepseek-free-api并下载,如果搜索不到,直接用自定义拉取也可以。

镜像拉取镜像拉取

镜像下载之后先不着急部署,这时候我们需要去获取Token,进入DeepSeek随便发起一个对话,然后F12打开开发者工具,从Application > LocalStorage中找到userToken中的value值,这将作为Authorization的Bearer Token值:Authorization: Bearer TOKEN

token获取token获取

随后在部署Docker时我们在环境变量中新增变量DEEP_SEEK_CHAT_AUTHORIZATION,将其值填入我们刚刚获取的token。

image.pngimage.png

端口上我们需要映射8000端口,例如熊猫这里设置为8704。

端口设置端口设置

最后点击应用启动容器,这时候逆向的API也就获取成功了。

One API部署

虽说API已经逆向获取成功了,但这时候还不能直接用,我们还需要用One API项目来转为OpenAI接口。该项目的部署也不难,还是一样在仓库界面搜索镜像justsong/one-api,下载之后双击创建容器。

One API部署One API部署

在文件夹路径这里,为了保证本地持久化运行以及容器重启数据不丢失,我们需要映射容器路径/data。

路径映射路径映射

最后映射容器端口3000,例如熊猫这里填的为3300。

端口映射端口映射

点击应用启动容器,这时候One API也就部署成功了。

如何使用API

API和承载API的工具都部署好了,这时候我们只需要去One API设置好就行。浏览器输入Http://极空间IP:3300进入One API项目界面,初始用户名为root,密码为123456,登陆之后点击渠道这个选项。

API设置API设置

可以看到熊猫这里已经部署有智谱和千问了,我们点击下方的添加新的渠道,类型设置为OpenAI,名称设置为DeepSeek,模型就选择填入相关模型即可。

渠道设置渠道设置

最后在下面密钥这里填入我们获取的token值,在代理这里填写我们部署的API逆向工程项目地址,例如熊猫的地址为http://极空间IP:8704,设置好之后点击提交。

提交渠道提交渠道

渠道设置好之后回到渠道界面可以点击测试,能看到API的响应时间,因为最近DeepSeek也是在风口浪尖,所以响应速度比起刚开始慢了不少。因为熊猫这里模型比较多,如果想要只使用Deepseek,就需要设置好优先级。

响应测速响应测速

要使用它也很简单,随便选择一个LLM平台,可以是ChatGPT Next Web、BotGem、OpenCat或者LobeChat,只要是支持OpenAI接口的都可以,这里熊猫选择的为之前自部署的LobeChat。

LMM平台LMM平台

在模型设置这里找到OpenAI设置项, API的代理地址就是我们部署的One API项目,而API Key直接在One API项目中的令牌里去复制即可,设置好之后可以检查一下是否连通。

模型设置模型设置

最后回到AI聊天界面,首先验明一下模型的身份。

身份验证身份验证

通过LobeChat,我们能够直接赋予DeepSeek多种身份。在LobeChat的发现界面中,你可以浏览到众多预设的AI助手,并可直接套用。

预设助手预设助手

写在最后

目前也是用了好几天的Deepseek了,比起国内其他一种AI模型它的确要优秀不少,通过API的形式也能让其对接到LLM平台,从而实现更为方便和快捷的使用,这几天的使用个人感觉非常不错。

以上便是本期的全部内容了,如果你觉得还算有趣或者对你有所帮助,不妨点赞收藏,最后也希望能得到你的关注,咱们下期见!三连三连

版权声明 ▶ 本文作者:panda
▶ 本文链接:https://panda995.xyz/network/5270.html
▶ 本网站的文章部分内容可能来源于网络,仅供大家学习与参考,如有侵权,请联系站长进行核实删除。
▶ 转载本站文章需要遵守:商业转载请联系站长,非商业转载请注明出处!!
仅有 1 条评论
user 编辑评论信息
插入图片

隐私评论
  1. @
    Andy烧麦 一天前
    Windows 10 · 火狐浏览器 134 · 湖北省武汉市 电信

    本地部署还没来得及搞 🙄
    你这NAS部署都来了
    真快啊