WPS接入DeepSeek本地大模型全攻略
WPS函数专家
经过一晚上的折腾,我成功接入了本地大模型,并把它嵌入到了WPS中!
下面我们聊一下完整的过程吧!阅读原文
01 | 安装工具
首先我们需要到 https://ollama.com/ 网站,按照下图下载一个部署本地大模型的工具,然后直接安装即可,默认C盘,想要安装其他盘要折腾一下!
但是也不难,只要 指定一下安装路径 也就是 /DIR 参数,首次尝试可以不折腾,也可以看的详细视频!
安装中,在CMD命令窗口 输入 ollama -v 出现版本号说明成功了!
02 | 一键部署大模型!
在OLLAMA 官网的首页,点击Models,搜索自己需要的模型,选择合适的版本,复制一下命令如下图!
DOS命令中输入粘贴回车,即可下载并安装对应的大模型,等待进度100%即可!
下面我们装备给他安装一个聊天的可视化工具,不然你只能在这个DOS时代的黑色框框中对话了,且无法上传文件,联网等!
03 | 部署可视化工具
这里我们选择新手容易使用的chatbox,官网直接下载安装,这个就没有任何需要设置的地方,直接一步到位!
点击设置,选择模型提供方 为 OLLAMA API,其他默认,选择一下安装好的模型!
配置好后就可以直接聊天啦!下面是功能图解,主要方便的是支持上车各种附件和联网搜索!
以上其实已经非常方便了,但是一直有同学问我如何把这玩意直接接入到办公软件,所以我也做了一下,算是完美闭环吧!
04 | 接入办公软件
这里我以接入WPS办公软件为例,如果你之前接入过其他大模型,那么OLLAMA也是接口兼容的OPENAI的API模式的,所以你只需要修改两个地方即可!
一个是模型名称,一个是请求的网址,我们部署本地模型默认网址和端口都一样
当然以上是兼容模型,也可以用OLLAMA自己的API,也就是/api/chat接口! 更多接口可以参考官网的文档!
https://github.com/ollama/ollama/blob/main/docs/api.md
如果官方自己的开发的接口,注意结果在 .message.content 中
推荐新手,可以直接用目前网上deepseek官方调用的api的代码,直接按上面说明,修改网址和模型名称即可,最简单,篇幅关系,更多细节,我在视频中再展开详细说明一下!
最后来看一下效果,和之前一样,本地还是才有右击菜单的方式调用,方便快捷,选择内容,右击即可!
我是E精精,一个专注办公自动化的“懒鬼”,关注我,带你一起探索、学习AI在办公生活中的应用。
创作者俱乐部成员
创作者俱乐部成员
创作者俱乐部成员