deepseek笔记
时间: 2025-02-16 13:00:13 浏览: 129
### 关于 DeepSeek 的笔记教程与文档使用指南
#### 获取并配置 API 密钥
为了开始使用 DeepSeek,在 Obsidian 中集成该服务前,需先前往 DeepSeek 官网注册账号,并通过访问开放平台来获得专属的API密钥。创建应用时可以命名为 "Obsidian" 或其他自定义名称以便识别[^1]。
#### 零编码体验示例
有关如何利用 DeepSeek 提供的服务构建应用程序的具体实例,《使用 Deepseek Zero Coding Experience 创建类似飞扬的小鸟游戏》一文提供了详细的指导说明,这表明即使不具备深厚编程背景的人也能轻松上手开发有趣的应用程序[^2]。
#### 文本处理能力概述
DeepSeek 还具备强大的文本分析功能,比如针对较长的文章或学术资料生成精准而精炼的内容摘要,这对于希望迅速了解大量文字材料核心要点的用户来说非常有用[^3]。
```python
import requests
def get_text_summary(api_key, text):
url = 'https://api.deepseek.com/v1/summarize'
headers = {
相关问题
deepseek笔记本本地部署
### 部署和运行 DeepSeek 笔记本
#### 准备工作
为了成功部署 DeepSeek 笔记本,需要安装并配置特定软件组件。对于苹果笔记本而言,主要依赖于 Ollama 和 Open-WebUI 来实现这一目标[^1]。
#### 安装 Ollama
针对 Mac 用户,在开始之前应确保已具备最新版 macOS 并完成 Xcode 命令行工具的安装。之后通过 Homebrew 或者官方提供的二进制文件来获取最新的 Ollama 版本。
```bash
brew install ollama
```
#### 设置环境变量
指定用于存储大型预训练模型的位置非常重要。这可以通过设置 `OLLAMA_MODELS` 环境变量来达成。虽然此说明适用于 Windows 操作系统中的操作方式[^3],但在 MacOS 上可以采用类似的策略:
打开终端应用,并执行命令以永久修改用户的 shell profile 文件(例如 `.zshrc` 或 `.bash_profile`),添加如下行:
```bash
export OLLAMA_MODELS=$HOME/ollama_models
```
接着使更改生效:
```bash
source ~/.zshrc # 如果使用的是 zsh 终端
# 或者
source ~/.bash_profile # 如果使用 bash 终端
```
#### 启动服务
一旦上述准备工作就绪,则可通过简单的指令启动所需的服务。通常情况下只需调用 Ollama 的 CLI 工具即可自动处理剩余部分:
```bash
ollama start
```
#### 使用 Web UI 进行交互
Open-WebUI 提供了一个直观易用的图形界面让用户能够方便快捷地上手操作 DeepSeek 功能特性[^2]。访问 http://localhost:7860 即可进入该页面进行后续探索。
deepseek 笔记本部署教程
### DeepSeek Notebook 部署教程
对于希望在笔记本环境中部署并运行 DeepSeek 模型的开发者而言,可以遵循如下方法来设置环境。首先,在本地机器上安装必要的依赖库是必不可少的操作。这通常涉及到 Python 环境以及特定版本的 PyTorch 或 TensorFlow 的安装。
为了启动服务端以便于与模型交互,命令 `vllm serve deepseek-ai/DeepSeek-R1-Distill-Qwen-32B --tensor-parallel-size 2 --max-model-len 32768 --enforce-eager` 可用于初始化服务器实例[^1]。此命令指定了张量并行大小为 2 和最大输入长度为 32,768,同时启用了强制急切模式执行选项。
针对 Jupyter 笔记本中的应用开发场景,建议创建一个新的虚拟环境,并通过 pip 安装 jupyterlab:
```bash
python -m venv myenv
source myenv/bin/activate # Windows 用户应使用 `myenv\Scripts\activate.bat`
pip install jupyterlab
```
接着,确保已正确配置内核以支持所使用的 Python 版本。如果需要集成 GPU 加速,则还需确认 NVIDIA CUDA 工具链已被适当安装并且能够被检测到。
完成上述准备工作之后,可以通过浏览器访问 JupyterLab 并新建一个 Python 脚本文档来进行进一步探索工作。此时应该已经具备了调用远程 API 接口的能力,从而实现对预训练好的大型语言模型如 DeepSeek 进行推理请求发送的功能。
#### 注意事项
- 在实际操作过程中,请参照官方文档获取最新参数说明和支持情况。
- 对于资源有限的情况,考虑调整 `--tensor-parallel-size` 参数值以适应硬件条件。
- 使用前需了解目标平台的安全策略和服务条款规定。
阅读全文
相关推荐

















