WPS接入DeepSeek本地大模型全攻略

E精精

WPS函数专家

经过一晚上的折腾,我成功接入了本地大模型,并把它嵌入到了WPS中!

下面我们聊一下完整的过程吧!阅读原文

01 | 安装工具

首先我们需要到 https://ollama.com/ 网站,按照下图下载一个部署本地大模型的工具,然后直接安装即可,默认C盘,想要安装其他盘要折腾一下!

但是也不难,只要 指定一下安装路径 也就是 /DIR 参数,首次尝试可以不折腾,也可以看的详细视频!

安装中,在CMD命令窗口 输入 ollama -v 出现版本号说明成功了!

02 | 一键部署大模型!

在OLLAMA 官网的首页,点击Models,搜索自己需要的模型,选择合适的版本,复制一下命令如下图!

DOS命令中输入粘贴回车,即可下载并安装对应的大模型,等待进度100%即可!

下面我们装备给他安装一个聊天的可视化工具,不然你只能在这个DOS时代的黑色框框中对话了,且无法上传文件,联网等!

03 | 部署可视化工具

这里我们选择新手容易使用的chatbox,官网直接下载安装,这个就没有任何需要设置的地方,直接一步到位!

点击设置,选择模型提供方 为 OLLAMA API,其他默认,选择一下安装好的模型!

配置好后就可以直接聊天啦!下面是功能图解,主要方便的是支持上车各种附件和联网搜索!

以上其实已经非常方便了,但是一直有同学问我如何把这玩意直接接入到办公软件,所以我也做了一下,算是完美闭环吧!

04 | 接入办公软件

这里我以接入WPS办公软件为例,如果你之前接入过其他大模型,那么OLLAMA也是接口兼容的OPENAI的API模式的,所以你只需要修改两个地方即可!

一个是模型名称,一个是请求的网址,我们部署本地模型默认网址和端口都一样

当然以上是兼容模型,也可以用OLLAMA自己的API,也就是/api/chat接口! 更多接口可以参考官网的文档!

https://github.com/ollama/ollama/blob/main/docs/api.md

如果官方自己的开发的接口,注意结果在 .message.content

推荐新手,可以直接用目前网上deepseek官方调用的api的代码,直接按上面说明,修改网址和模型名称即可,最简单,篇幅关系,更多细节,我在视频中再展开详细说明一下!

最后来看一下效果,和之前一样,本地还是才有右击菜单的方式调用,方便快捷,选择内容,右击即可!

我是E精精,一个专注办公自动化的“懒鬼”,关注我,带你一起探索、学习AI在办公生活中的应用。

江苏省
浏览 1042
1
11
分享
11 +1
7
1 +1
全部评论 7
 
打卡
· 浙江省
回复
 
· 新疆
1
回复
 
打卡
· 陕西省
回复
 
许国权

创作者俱乐部成员

收藏收藏
· 浙江省
回复
 
闵鑫

创作者俱乐部成员

谢谢分享,学习
· 湖北省
回复
 
厉害了同学
· 云南省
回复
 
王禹成

创作者俱乐部成员

学习
· 云南省
回复