王剑编程网

分享专业编程知识与实战技巧

本地部署DeepSeek V3【直接使用源码】-【Windows框架】

框架要求

  • 原生框架:DeepSeek V3原生采用FP8进行训练,因此主要提供FP8权重。但也可以转换到BF16或其他精度。
  • 依赖库:需要安装Python及其科学计算库,如NumPy、Pandas,以及深度学习框架如TensorFlow或PyTorch(具体取决于你选择的部署方式)。此外,还需要安装Hugging Face Transformers库,以便加载和使用DeepSeek V3的预训练模型。

系统要求

  • 操作系统:建议使用Ubuntu 20.04或更高版本。
  • GPU:为了高效运行DeepSeek V3,建议使用NVIDIA H100或更高版本的GPU。显存需求根据精度不同而有所变化,FP8精度下预估仅需700GB+显存,而在半精度(BF16)下需要1400GB+显存。
  • Python版本Python 3.8或更高版本。

部署步骤

  1. 下载源码:从DeepSeek的官方GitHub仓库下载V3版本的源代码。
  2. 环境配置:安装必要的依赖库,并配置Python环境。
  3. 数据准备:根据文档指示整理好音频样本和相应的标签(如果需要进行模型训练或微调)。
  4. 模型构建:在源码目录下,设置好模型结构,并编译安装模型。
  5. API服务:创建一个web服务器(如Flask或Django),将DeepSeek的搜索功能封装成API接口。
  6. 测试部署:启动API服务,通过发送HTTP请求验证是否能正常工作。
  7. 监控与优化:在实际环境中运行,持续监测性能和稳定性,并根据需求调整模型参数或优化代码。

技术细节

  • 权重转换:如果需要将DeepSeek V3的权重从一种精度转换到另一种精度,可能需要使用专门的脚本进行权重转换。
  • 推理加速:DeepSeek V3支持多个开源推理加速框架,如SGLang、LMDeploy和TensorRT-

源码安装示例

1. 环境准备

首先,确保你的系统环境满足部署要求。你需要安装 Python 和必要的库,比如 TensorFlow 或 PyTorch,以及可能的 CUDA/cuDNN(如果你使用 GPU)。

# 安装 Python (如果未安装)
sudo apt update
sudo apt install python3 python3-pip
# 安装 TensorFlow 或 PyTorch
pip3 install tensorflow # 或者
pip3 install torch

2. 获取 DeepSeek-V3 模型

DeepSeek-V3 的模型权重和配置文件可以从阿里云或者官方GitHub仓库下载。通常,你需要下载预训练的模型权重和相应的配置文件。

# 例如,从GitHub克隆仓库
git clone https://github.com/alibaba/DeepSeek-V3.git
cd DeepSeek-V3

3. 安装依赖

根据项目的 requirements.txt 文件安装所有必要的 Python 包。【重要】

pip3 install -r requirements.txt

4. 配置环境变量(可选)

根据需要设置环境变量,例如指定 CUDA 的版本。

export CUDA_VISIBLE_DEVICES=0  # 指定使用哪个 GPU

5. 加载模型并运行推理

在本地部署时,你可以通过编写脚本来加载模型并执行推理任务。以下是一个基本的示例,使用 TensorFlow 加载模型:

import tensorflow as tf
from model import DeepSeekV3 # 假设这是加载模型的类或函数

# 加载模型和权重
model = DeepSeekV3() # 根据实际代码调整加载方式,例如使用SavedModel或HDF5等
model.load_weights('path_to_weights.h5') # 指定权重文件路径

# 进行推理
input_text = "这是一个测试文本"
result = model.predict(input_text)
print(result)

6. 测试和调试

在本地环境中测试模型的性能和稳定性。确保所有功能按预期工作,并对可能的问题进行调试。

7. 优化和部署(可选)

根据需要优化模型的性能,例如通过模型剪枝、量化等技术减少内存占用和提高运行速度。然后,可以将模型部署到生产环境中,如使用 Flask 或 FastAPI 创建 Web 服务。

# 安装 Flask (如果需要)
pip3 install flask
创建一个简单的 Flask 应用来提供 API:
from flask import Flask, request, jsonify
app = Flask(__name__)

@app.route('/predict', methods=['POST'])
def predict():
 data = request.get_json(force=True)
 text = data['text']
 result = model.predict(text) # 使用前面加载的模型进行预测
return jsonify(result)
if __name__ == '__main__':
 app.run(debug=True)

通过以上步骤,你可以在本地成功部署并运行 DeepSeek-V3 模型。

============---------============

要在Windows上本地部署DeepSeek V3,你可以按照以下详细教程进行操作:

一、准备工作

  1. 安装Docker
  2. 访问Docker官方网站,下载并安装Docker Desktop for Windows。
  3. 安装完成后,启动Docker Desktop。如果使用的是Windows 10或更高版本,建议启用WSL 2后端以提高性能。
https://www.docker.com/
  1. 安装Ollama(https://ollama.com/download)
  2. 访问Ollama官方网站或GitHub仓库,下载适用于Windows的Ollama安装程序。
  3. 按照提示完成安装。

二、下载DeepSeek-V3模型

  • 在终端或命令提示符中,使用Ollama提供的命令下载DeepSeek-V3模型。例如:
# 此处为示例命令,实际命令可能因Ollama版本或模型更新而有所变化 
ollama download deepseek-v3
  • 等待模型下载完成。请注意,DeepSeek-V3模型文件较大,下载可能需要较长时间。

三、部署Open WebUI

  1. 拉取Open WebUI Docker镜像
  2. 使用以下命令拉取Open WebUI的Docker镜像:
docker pull ghcr.io/open-webui/open-webui:main
  1. 运行Open WebUI容器
  2. 使用以下命令启动Open WebUI容器,并连接到Ollama服务:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  1. 这条命令会在后台运行Open WebUI容器,并将容器的8080端口映射到主机的3000端口。

四、配置和使用

  1. 访问Open WebUI
  2. 打开浏览器,访问http://localhost:3000。如果看到Open WebUI的登录界面,说明运行成功。
  3. 创建账户并登录
  4. 首次访问Open WebUI时,需要创建一个账户。输入用户名和密码,完成注册并登录。
  5. 设置Ollama API URL
  6. 在Open WebUI界面中,进入设置页面。
  7. 在“Ollama API URL”字段中输入http://host.docker.internal:11434,然后保存设置。
  8. 选择模型
  9. 在Open WebUI界面中,找到模型选择菜单。
  10. 选择DeepSeek-V3作为当前使用的模型。
  11. 与模型交互
  12. 在输入框中输入问题或指令,例如:“你好,DeepSeek-V3!”。
  13. 点击“发送”按钮,等待模型生成回复。

五、注意事项

  • 防火墙设置:可能需要在防火墙中允许Ollama服务的端口(默认为11434),具体取决于操作系统和网络环境。
  • 安全风险:为避免安全风险,请不要将Ollama服务暴露在公共网络中。在家庭Wifi网络等相对安全的环境中部署和使用。
  • 资源需求:DeepSeek-V3模型对计算资源要求较高,请确保您的计算机配置满足模型运行的需求。

按照以上步骤操作,您应该能够在Windows上成功部署并使用DeepSeek V3模型。如果在安装或部署过程中遇到问题,可以参考Docker、Ollama和Open WebUI的官方文档或寻求社区的帮助。可以根据硬件条件和个人偏好选择最合适的执行后端来优化性能表现。

Windows示例

在Windows系统下部署

第一部,我们的打开下列网址,下载Ollama框架

https://ollama.com/download

这里默认是安装到C盘的,也占用不了多少空间,安装就行

安装完成后配置一下环境变量,我们按下键盘上的win键,搜索环境即可


环境搭建完成之后我们再次打开Ollama官网,单机search框,选择第一个即可

这里根据你的电脑性能就行了,我选的是671B

选择好了复制粘贴即可,等待进度条跑完

跑完了之后我们打开cmd,使用指令ollama list查看容器
再次使用ollama run deepseek-v3:latest启动

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言