首页 最新 热门 推荐

  • 首页
  • 最新
  • 热门
  • 推荐

本地部署DeepSeek后的调用与删除全攻略

  • 25-02-16 12:40
  • 2446
  • 11239
blog.csdn.net

在本地成功部署DeepSeek模型后,如何高效调用它发挥其强大功能,以及在不需要时妥善删除,是很多用户关注的重点。我也在后台接到了很多粉丝的留言,询问 DeepSeek 本地部署之后的一些调用和删除的问题,于是我在网上找了现在主流热门的三种本地部署方案,对照他们的部署方式对出了调用和删除的指令,接下来,我们将从不同的部署方式入手,详细介绍对应的调用和删除方法。

当然你如果不了解 DeepSeek,这几篇文章会让你快速领略 DeepSeek 的风采:

热榜好文:

DeepSeek各版本说明与优缺点分析

DeepSeek-R1不同版本的 1.5B、7B、8B、14B、32B、70B、671B 主要区别以及各个蒸馏版本的优缺点

实用操作:

【大模型】深度解读 DeepSeek - R1 提示词

【大模型】DeepSeek-R1 论文原文翻译 + 解读

如何让DeepSeek成为你的私人客服:DeepSeek接入微信一文全解析

好了话不多说,接下来进入我们今天的主题环节。

一、基于Hugging Face部署的DeepSeek模型调用与删除

(一)调用方法

  1. 安装依赖:确保已经安装transformers库,使用pip install transformers命令完成安装。如果模型运行还依赖其他特定库,如torch等,也需一并安装。

  2. 代码调用示例:

from transformers import AutoTokenizer, AutoModelForCausalLM

# 加载模型和分词器,替换为实际本地模型路径
tokenizer = AutoTokenizer.from_pretrained("your_local_deepseek_model_path")
model = AutoModelForCausalLM.from_pretrained("your_local_deepseek_model_path")

# 输入文本
input_text = "请描述一下未来城市的样子"

# 对输入文本进行编码
input_ids = tokenizer.encode(input_text, return_tensors='pt')

# 使用模型生成文本
output = model.generate(input_ids, max_length=200, num_beams=5, early_stopping=True)

# 解码生成的文本
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

在上述代码中,先导入所需类,接着从本地路径加载模型和分词器,然后对输入文本编码,输入模型生成文本,最后解码并输出结果 。

(二)删除方法

  1. 删除模型文件:定位到本地部署的DeepSeek模型文件夹,直接手动删除整个文件夹。若使用的是Linux系统,可在终端中使用rm -rf your_local_deepseek_model_path命令删除;Windows系统则直接在文件资源管理器中找到对应文件夹删除。

  2. 清理缓存和依赖:运行transformers库提供的清理缓存命令transformers-cli clear -f,清除可能残留的缓存文件。对于不再使用的相关依赖库,使用pip uninstall命令进行卸载,如pip uninstall transformers 。

二、通过Ollama部署的DeepSeek模型调用与删除

(一)调用方法

  1. 安装Ollama:

    • Linux系统:在终端执行curl -fsSL https://ollama.com/install.sh | sh命令完成安装。

    • 其他系统:可前往Ollama官网(https://ollama.com/),根据对应系统下载安装包进行安装。
      在这里插入图片描述

  2. 拉取模型:在命令行中输入ollama run deepseek - r1:1.5b(以deepseek - r1:1.5b模型为例,可根据实际需求替换模型名称和版本),等待模型下载完成。

这里在1的位置可以更换 DeepSeek 的蒸馏模型,更换之后2的位置会出现 DeepSeek 安装指令,最后在3的位置点击复制,打开终端进行安装即可

在这里插入图片描述

  1. 运行模型:模型下载完成后,执行ollama run deepseek - r1:1.5b,在命令行中即可与模型进行交互,输入问题获取回答。
    在这里插入图片描述

(二)删除方法

  1. 删除模型:在命令行中输入ollama rm deepseek - r1:1.5b,即可删除指定的DeepSeek模型。当然你如果还在模型的交互界面,可以先输入 Ctrl + D 来退出交互模式,ollama rm deepseek - r1:1.5b 这条语句是用来删除 deepseek - r1:1.5b 模型的,大家可以根据自己的模型来进行更改。

如果出现下面这条语句,就证明你已经成功删除了ollama rm deepseek - r1:1.5b模型。
在这里插入图片描述

  1. 清理缓存:使用ollama cache clean命令,清理Ollama运行过程中产生的缓存文件,释放磁盘空间。

三、在Google Colab中部署的DeepSeek模型调用与删除

(一)调用方法

以下是在Hugging Face相关环境下关于DeepSeek模型的调用与删除方法:

调用方法

  • 使用transformers库
    • 安装依赖:确保已经安装了transformers库、torch等相关依赖。如果没有,可使用pip install transformers torch进行安装。
    • 加载模型:在Python代码中,使用以下方式加载DeepSeek模型。假设要加载deepseek-coder-1.3b-instruct-function-calling-v2模型,示例代码如下:
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("Trelis/deepseek-coder-1.3b-instruct-function-calling-v2")
model = AutoModelForCausalLM.from_pretrained("Trelis/deepseek-coder-1.3b-instruct-function-calling-v2")
  • 1
  • 2
  • 3
  • 4
  • 生成文本:加载完模型和分词器后,就可以进行文本生成等操作,示例代码如下:
input_text = "写一个简单的Python函数"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
output = model.generate(input_ids, max_length=100)
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 使用text-generation-inference工具

    • 安装部署:按照text-generation-inference的官方文档进行安装和部署。可以通过pip install text-generation-inference安装,然后根据提示进行配置。

    • 启动服务:安装完成后,使用命令text-generation-server --model-id Trelis/deepseek-coder-1.3b-instruct-function-calling-v2启动服务,这里将Trelis/deepseek-coder-1.3b-instruct-function-calling-v2替换为实际要使用的DeepSeek模型名称即可。

    • 发送请求:服务启动后,可以通过HTTP请求来调用模型。示例代码如下:

import requests

url = "http://localhost:8080/generate"
data = {"inputs": "请用Java写一个冒泡排序算法"}
response = requests.post(url, json=data)
print(response.json())
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

删除方法

  • 通过Hugging Face Hub删除
    • 登录账号:在Hugging Face官网登录自己的账号。
      在这里插入图片描述

    • Hugging Face官网:https://huggingface.co/

    • 找到模型:进入自己的模型仓库,找到要删除的DeepSeek模型对应的项目。
      在这里插入图片描述

    • 删除操作:点击模型项目页面中的相关删除按钮或选项,按照提示确认删除操作。

  • 通过本地缓存删除
    • 找到缓存路径:Hugging Face模型的缓存路径通常在~/.cache/huggingface/hub目录下。如果是Windows系统,一般在C:\Users\[用户名]\.cache\huggingface\hub。
    • 删除模型文件:进入对应的模型缓存目录,删除与要删除的DeepSeek模型相关的所有文件和文件夹。

无论采用哪种方式本地部署DeepSeek模型,在调用时都要确保环境配置正确,在删除时要谨慎操作,避免误删重要文件,确保系统资源的合理管理和使用 。

注:本文转载自blog.csdn.net的万事可爱^的文章"https://blog.csdn.net/YYDS_54/article/details/145607031"。版权归原作者所有,此博客不拥有其著作权,亦不承担相应法律责任。如有侵权,请联系我们删除。
复制链接
复制链接
相关推荐
发表评论
登录后才能发表评论和回复 注册

/ 登录

评论记录:

未查询到任何数据!
回复评论:

分类栏目

后端 (14832) 前端 (14280) 移动开发 (3760) 编程语言 (3851) Java (3904) Python (3298) 人工智能 (10119) AIGC (2810) 大数据 (3499) 数据库 (3945) 数据结构与算法 (3757) 音视频 (2669) 云原生 (3145) 云平台 (2965) 前沿技术 (2993) 开源 (2160) 小程序 (2860) 运维 (2533) 服务器 (2698) 操作系统 (2325) 硬件开发 (2492) 嵌入式 (2955) 微软技术 (2769) 软件工程 (2056) 测试 (2865) 网络空间安全 (2948) 网络与通信 (2797) 用户体验设计 (2592) 学习和成长 (2593) 搜索 (2744) 开发工具 (7108) 游戏 (2829) HarmonyOS (2935) 区块链 (2782) 数学 (3112) 3C硬件 (2759) 资讯 (2909) Android (4709) iOS (1850) 代码人生 (3043) 阅读 (2841)

热门文章

101
推荐
关于我们 隐私政策 免责声明 联系我们
Copyright © 2020-2024 蚁人论坛 (iYenn.com) All Rights Reserved.
Scroll to Top