🐋本地部署大模型
在Windows中部署属大语言模型: Ollama + open-webui + deepseek-r1
- Ollama:是一款开源的聊天机器人框架,主要目标是简化大型语言模型(LLMs)的部署和运行流程,支持多种语言模型,如 Llama 2、Code Llama、Mistral 和 Gemma 等,可让用户在本地机器或私有服务器上轻松运行这些模型,无需依赖云服务,具有简化部署、跨平台支持、自定义和扩展性等特点。
- Open WebUI:是一个可扩展、功能丰富、用户友好的自托管 WebUI。旨在与大型语言模型进行交互,特别是那些由 Ollama 或与 OpenAI API 兼容的服务所支持的模型。它为用户提供了一个直观的界面来与语言模型进行交互,支持全 markdown 和 latex,能增强 LLM 体验的互动功能,还支持本地和远程的检索增强生成(RAG)集成等。
- Ollama 负责模型的部署和运行,Open WebUI 负责提供交互界面和其他辅助功能
Steps
- 下载并安装Ollama
- pip/conda下载Open WebUI
- 在终端执行命令open-webui serve
- 访问localhost:8080
Ollama
Github: Ollama
Download: OllamaSetup.exe
Open WebUI
Github: Open WebUI
进入Pycharm,在Command Prompt或者PowerShell中输入以下命令:
official
# 创建虚拟环境,执行以下命令
pip install open-webui
alibaba
pip install -i https://mirrors.aliyun.com/pypi/simple/ open-webui
tsinghua
pip install -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple open-webui
Edit Configurations
Pycharm的Edit Configurations配置:
步骤1
Execute: Script text
步骤2
Script text: open-webui serve
步骤3
Working directory: E:/PYCHARM/Ollama
步骤4
Interpreter path: powershell.exe
步骤5