引言
大模型目前是很多行业在靠近的趋势,而随着大家对于个人数据的越来越重视,NAS也逐渐走进了很多普通家庭,就像个人PC逐步进入普通用户一样。而随着NAS的普及,作为一个终端设备,那么用户自然是要发挥它的最大价值了,于是很多用户便将大模型基于NAS部署在本地。
而作为本地AI的部署设备,那么性能上自然不能差,铁威马F6-424 Max搭载了i5-1235U处理器,拥有10核12线程的处理能力,最大睿频能达到4.4Ghz,加上支持64G的DDR5内存扩展,性能上用来部署一些个人使用的本地7b或者14b的小模型完全足够了。
性能上自然是无需多虑了,那么接下来要考虑的就是平台问题了,目前大家熟知的一些平台不少,主流用的比较多的应该就是Ollama和Cherry Studio,其中前者支持全平台部署,不过其功能相对专业,适合开发者自行进行深度定制,而后者目前不支持Docker部署。
项目部署
那么在这两者之间有没有那么一款又支持Docker部署,还支持开原模型管理的呢?还真有,AingDesk,一款多功能的开源免费AI助手,支持本地模型的部署以及第三方API、支持MCP和智能体、支持构建知识库、支持分享他人协作以及不需要自行配置的联网搜索。
而要在NAS上部署也非常简单,铁威马的Docker Manager支持容器堆栈部署,只需要将AingDesk的compose代码复制修改即可。
♾️ text 代码:如果发现无法拉取镜像或者下载镜像没有速度,也可以将其镜像名换一下,加上腾讯云的镜像源进行下载(docker.cnb.cool/aingdesk/aingdesk)
耐心等待镜像下载并根据Compose文件进行容器创建,如映射和端口没有问题,那么最后Docker Manager会显示项目运行中。
项目使用
项目部署成功之后我们浏览器输入铁威马IP:端口号就能访问项目了,首次需要我们设置用户名和密码。
登陆之后就能看到AingDesk的主界面了,左上方是对话列表,右边一整个都是对话区,首次登录会有新手指引,同时会弹出是否安装本地Ollama的提示。
到这里界面就和Ollama差距不大了,这时候直接使用下载的大模型即可。
AingDesk除了支持Ollama中的模型下载,除此之外也支持MCP服务器的添加,甚至在项目中也已经预设模版,直接点击就能下载。
前段时间gemma3非常火热,因为目前熊猫暂时没有给F6-424 Max增加内存,所以这里也只是下载了一个4b的模型,模型大小3.11G。
这里可以看到,问了一些问题,CPU的利用率在17%,内存则是飙升到了75%,但依然是没有占满使用率。
为了探究一下1235U的到底如何,这里熊猫又特地下载了deepseekR1的8b模型。
切换到deepseek的8b模型,CPU的占用来到了20%左右,而内存则是飙升到了90%。

因为内存仅有8G,所以这里也就没再去做更多的测试了,感兴趣的可以自行去测试。
写在最后
将大模型基于NAS本地,一方面避免了云端AI的审查,另一方面也算是有了随时随地能用的本地AI,结合AingDesk的知识库和联网搜索,NAS的用法又多了很多。
以上便是本次分享的全部内容了,如果你觉得还算有趣或者对你有所帮助,不妨点赞收藏,最后也希望能得到你的关注,咱们下期见!