Loading
首页
文章分类
技术教程
知识积累
新闻日报
知识分享
今日新闻
其他页面
网站统计
友情链接
高清壁纸
虎牙直播
关于轩灵
热门文章
VS2019避免全部安装至C盘
2023-04月17号更新v2
中兴F450光猫破解隐藏模式让路由器拨号
影子系统出现BAD_SYSTEM_CONFIG_INFO蓝屏问题
WPS专业版密钥经常提示过期解决方案
标签搜索
windows
linux
python
centos
centos7
网络技术
android
win11
windows 11
游戏
系统重装
Deepseek
ai
安卓
系统
Ubuntu
docker
windows server
vmware
esxi
发布
登录
注册
找到
2
篇与
DeepSeek R1
相关的结果
2025-04-05
CherryStudio结合本地部署大模型使用
回顾文章 使用ollama本地部署DeepSeek大模型教程 CherryStudio使用本地部署大模型 前期文章已经介绍ollama本地部署大模型,下面就介绍如何使用CherryStudio添加本地部署大模型使用。 根据如下截图找到ollama的模型设置,apikey随便填写或者不填写,因为本地使用ollama部署大模型,默认绑定ip端口是127.0.0.1:11434,这里的地址填写http://127.0.0.1:11434/v1/(切记这里的v1后面要添加/) 1.png图片 填写好地址之后要添加模型,在你的CMD窗口运行ollama list查看模型名称 2.png图片 直接复制模型名称填写到如下截图中第一个框就行,后面的信息会自动给你添加 3.png图片 上面步骤做好之后,就可以跟本地大模型进行对话了 结语 使用本地大模型可以保障数据的安全,对话信息都在本地电脑上进行,有兴趣的小伙伴可以进一步探索
默认分类
技术
分享
知识积累
# Deepseek
# ai
# DeepSeek R1
# CherryStudio
轩灵
2025-04-05
0
130
62
2025-03-06
用LM Studio快速在本地运行 DeepSeek R1 模型
该模型在数学、代码和自然语言推理等任务上表现卓越,性能直接对标OpenAI的o1正式版,同时以开源形式向全球开发者开放,并使用MIT协议开源,支持免费商用,无需申请授权,为LLM大模型开源世界又补给了满满一仓库弹药。由于DeepSeek容易遭到国外大量的攻击,导致大部分用户用不了DeepSeek,所以我来教大家如何部署本地DeepSeek R1,无需联网即可免费使用 1.webp图片 本教程教大家用LM studio部署DeepSeek R1本地部署 1.下载并安装 LM studio LM stuido官网:https://lmstudio.ai/ 2.webp图片 进入LM Studio的官方网站后,可以在页面上找到"Download"或类似的下载按钮。 点击下载按钮后,浏览器会开始下载LM Studio的安装包。 下载完成后,双击安装包进行安装。在安装过程中,按照提示完成安装步骤。 DeepSeek R1 模型下载 隐藏内容,请前往内页查看详情 LM studio常见问题 Cannot read properties of undefined (reading 'pullReport')' 可能是我们关闭了AVX2,进入Bios里面打开就可以了 模型加载失败 确保模型名称正确。 检查网络连接,确保能够访问模型仓库。 GPU 不支持 检查 CUDA 和驱动是否安装正确。 确保 Ollama 版本支持 GPU。 性能问题 尝试减少批量大小或使用更小的模型变体。 确保硬件资源充足。 祝大家使用本地模型愉快
默认分类
技术
分享
知识积累
# Deepseek
# ai
# LM Studio
# DeepSeek R1
轩灵
2025-03-06
0
41
8