当前位置: 首页> 健康> 美食 > 要怎么推广网站_重庆工业设计公司有哪些_网站推广策划思路的内容_郑州网络优化实力乐云seo

要怎么推广网站_重庆工业设计公司有哪些_网站推广策划思路的内容_郑州网络优化实力乐云seo

时间:2025/8/1 8:15:08来源:https://blog.csdn.net/weixin_44151123/article/details/146444354 浏览次数:1次
要怎么推广网站_重庆工业设计公司有哪些_网站推广策划思路的内容_郑州网络优化实力乐云seo

以下就是macbook系统中,利用 Ollama + AnythingLLM + DeepSeek 本地部署智能私有问答知识库 指南:

一、安装 Ollama(本地模型运行框架)

  1. 下载与安装
    • 访问 Ollama 官网,下载 macOS 安装包(支持 M1/M2/M3 芯片)。
    • 双击安装包,将 Ollama 拖入 Applications 文件夹。首次运行时若提示“无法验证开发者”,需在 系统设置 → 隐私与安全性 → 安全性 中允许运行。
  2. 验证安装
    • 终端输入 ollama -v,若显示版本号(如 ollama version 0.1.20)则成功。
  3. 配置网络
launchctl setenv OLLAMA_HOST "127.0.0.1"  # 仅允许本地访问
launchctl setenv OLLAMA_PORT "11434"      # 建议保持默认端口
  1. 配置防火墙规则(关键)
    macOS 系统
# 添加防火墙规则(允许本地访问,禁止公网)
sudo pfctl -a com.apple/24 -f - <<EOF
block drop inet proto tcp from any to any port 11434
pass inet proto tcp from 127.0.0.1 to any port 11434
EOF
sudo pfctl -a com.apple/24 -e  # 启用规则

验证规则

sudo pfctl -s rules | grep 11434

二、下载并运行 DeepSeek 模型

  1. 选择模型版本
    • 硬件适配建议(根据 MacBook 配置选择):
      • M1/M2 入门款(16GB 内存):deepseek-r1:1.5b(1.1GB)
      • M2 Pro/Max(32GB 内存):deepseek-r1:7b(5GB)
      • M2 Ultra(64GB 内存):deepseek-r1:14b(12GB)。
  2. 下载模型
    • 终端执行命令(以 7B 版本为例):
    • ollama中的deepseek-r1模型都是蒸馏版本,7B官网模型大小显示为 4.7GB
ollama pull deepseek-r1:7b --quantize q4_k_m  #量化下载,使模型精度偏低,但是内存与硬盘占用量更小了
ollama run deepseek-r1:7b  # 直接运行

首次运行会自动下载模型,耗时约 10-30 分钟(受网络影响)。

  1. 常用操作
    • 启动模型:ollama run deepseek-r1:7b
    • 停止服务:ollama stop deepseek-r1:7b
    • 查看模型列表:ollama list

三、部署 AnythingLLM(可视化交互与知识库)

  1. 下载与安装

    • 访问 [ AnythingLLM 官网](https://anythingllm.com i), 下载 macOS 安装包并解压。
  2. 配置模型连接

    • 打开 AnythingLLM,创建新工作区(Workspace)。
    • 设置模型提供者:选择 Ollama,输入 API 地址 http://localhost:11434
    • 选择模型:在下拉菜单中选择已下载的 DeepSeek 模型(如 deepseek-r1:7b)。
    • 在这里插入图片描述
      ![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/1cfff96cdae2480b863888ef3286e3ea.png
  3. 构建私有知识库(RAG)

    • 上传文档:支持 PDF、TXT、DOCX 等格式。
    • 设置向量数据库:默认使用 LanceDB(需确保本地存储路径可写)。
    • 提问时,模型会结合本地文档生成回答。

四、性能优化与常见问题

  1. GPU 加速(仅限支持 Metal 的 Mac)
OLLAMA GPU LAYER=metal ollama run deepseek-r1:7b  # 启用 Metal 加速
  1. 内存不足问题
    • 降低模型版本(如从 14B 切换为 7B)。
    • 关闭后台占用内存的程序。
  2. 模型下载失败
    • 使用镜像源加速:
OLLAMA_MODELS=https://mirror.ghproxy.com ollama pull deepseek-r1:7b

五、完整部署架构

Ollama(模型管理) → DeepSeek(核心模型) → AnythingLLM(交互界面+知识库)  

通过此架构,用户可在 MacBook 上实现本地私有化部署,保障数据安全,同时支持多模态输入与实时对话。

上面部署好了,可以再组合对接电脑与手机上Siri进行语音回答哦,Siri 接入 DeepSeek 指南

注意事项:

  • 模型文件较大(7B 版本约 5GB),需预留充足存储空间。
  • 若需远程访问,需配置防火墙规则开放 11434 端口。
  • 更多高级功能(如流式响应、API 集成)可参考 Ollama 的 Python SDK 文档。
关键字:要怎么推广网站_重庆工业设计公司有哪些_网站推广策划思路的内容_郑州网络优化实力乐云seo

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: