Mac M1/M2芯片本地部署DeepSeek-R1全攻略|Ollama+OpenWebUI保姆级教程
环境准备## 硬件要求必须:配备M1/M2/M3芯片的Mac(建议Pro机型)内存:最低16GB(推荐32GB用于复杂任务)硬盘:预留50GB空间(模型文件+容器存储)Ollama安装Ollama官方:ollamaOllama 是一个轻量级的 AI 推理框架,支持本地运行 LLM(大型语言模型)。首先,下载并安装 Ollama。$ brew install --cask ollama检查Ollama是否安装成功,成功会显示版本号,如:ollama version is 0.5.13$ ollama --version Warning: could not connect to a runnin...