Loading
CherryStudio结合本地部署大模型使用
轩灵博客 - 学习新技能,提升自我从这里开始

CherryStudio结合本地部署大模型使用

轩灵
2天前发布 /正在检测是否收录...

AI摘要:## 摘要 本文介绍了如何在CherryStudio中添加本地部署的ollama大模型。首先找到ollama的模型设置,apikey可填可不填。由于是本地部署,绑定ip为127.0.0.1,端口为11434,地址填写[http://127.0.0.1:11434/v1/**](http://127.0.0.1:11434/v1/**)。

回顾文章

CherryStudio使用本地部署大模型

前期文章已经介绍ollama本地部署大模型,下面就介绍如何使用CherryStudio添加本地部署大模型使用。

  • 根据如下截图找到ollama的模型设置,apikey随便填写或者不填写,因为本地使用ollama部署大模型,默认绑定ip端口是127.0.0.1:11434,这里的地址填写http://127.0.0.1:11434/v1/切记这里的v1后面要添加/

    1.png

  • 填写好地址之后要添加模型,在你的CMD窗口运行ollama list查看模型名称

    2.png

  • 直接复制模型名称填写到如下截图中第一个框就行,后面的信息会自动给你添加

    3.png

  • 上面步骤做好之后,就可以跟本地大模型进行对话了

结语

使用本地大模型可以保障数据的安全,对话信息都在本地电脑上进行,有兴趣的小伙伴可以进一步探索

本文共 242 个字数,平均阅读时长 ≈ 1分钟
喜欢就支持一下吧
点赞 62 分享 赞赏
评论 抢沙发
取消 登录评论
SSL
下载海报