Loading
用LM Studio快速在本地运行 DeepSeek R1 模型
轩灵博客 - 学习新技能,提升自我从这里开始

用LM Studio快速在本地运行 DeepSeek R1 模型

轩灵
6天前发布 /正在检测是否收录...

AI摘要:该模型在多任务表现卓越,对标OpenAI且开源免费商用。因DeepSeek易受攻击致多数用户无法使用,特教部署本地DeepSeek R1教程,含下载LM studio等步骤。

该模型在数学、代码和自然语言推理等任务上表现卓越,性能直接对标OpenAI的o1正式版,同时以开源形式向全球开发者开放,并使用MIT协议开源,支持免费商用,无需申请授权,为LLM大模型开源世界又补给了满满一仓库弹药。

由于DeepSeek容易遭到国外大量的攻击,导致大部分用户用不了DeepSeek,所以我来教大家如何部署本地DeepSeek R1,无需联网即可免费使用
1.webp

本教程教大家用LM studio部署DeepSeek R1

本地部署

1.下载并安装 LM studio

  1. LM stuido官网:https://lmstudio.ai/

2.webp

  1. 进入LM Studio的官方网站后,可以在页面上找到"Download"或类似的下载按钮。

点击下载按钮后,浏览器会开始下载LM Studio的安装包。
下载完成后,双击安装包进行安装。在安装过程中,按照提示完成安装步骤。

DeepSeek R1 模型下载

LM studio常见问题

  1. Cannot read properties of undefined (reading 'pullReport')'
    可能是我们关闭了AVX2,进入Bios里面打开就可以了
  2. 模型加载失败
  3. 确保模型名称正确。
  4. 检查网络连接,确保能够访问模型仓库。
  5. GPU 不支持
  6. 检查 CUDA 和驱动是否安装正确。
  7. 确保 Ollama 版本支持 GPU。
  8. 性能问题
  9. 尝试减少批量大小或使用更小的模型变体。
  10. 确保硬件资源充足。

祝大家使用本地模型愉快

本文共 934 个字数,平均阅读时长 ≈ 3分钟
喜欢就支持一下吧
点赞 8 分享 赞赏
评论 抢沙发
取消 登录评论
SSL
下载海报