
AI
文章平均质量分 93
落魄实习生
进击的菜鸟
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Ubuntu环境下搭建CUDA编程环境
本文介绍了在Ubuntu系统上安装NVIDIA驱动和CUDA的完整流程。首先通过lspci命令查看显卡型号,使用ubuntu-drivers工具安装推荐驱动,并通过nvidia-smi验证安装。随后根据显卡支持的CUDA版本,从官网下载对应版本进行安装,配置环境变量后通过nvcc --version验证安装成功。文章还提供了卸载CUDA的方法,包括运行卸载程序和删除环境变量配置。整个流程详细清晰,配有命令行操作和截图说明,适合需要配置深度学习环境的用户参考。原创 2025-07-29 16:22:55 · 281 阅读 · 0 评论 -
UV安装并设置国内源
UV安装与国内镜像源配置指南 本文介绍了UV工具的两种安装方式:官方一键安装脚本和GitHub手动下载安装。针对国内用户可能遇到的网络问题,提供了详细的GitHub下载和解压安装步骤。同时重点讲解了三种配置国内镜像源的方法:临时环境变量、永久配置文件修改和命令行直接指定源,推荐使用阿里云或清华大学的镜像源以加速下载。还提供了验证配置是否生效的方法及常用镜像源地址列表,并提醒用户注意UV与pip配置的独立性以及SSL错误处理等注意事项。原创 2025-07-28 21:54:27 · 502 阅读 · 0 评论 -
Dify MCP的使用(双向 MCP 支持)
Dify v1.6.0版本新增双向MCP支持,实现AI系统与外部服务的无缝集成。MCP(模型上下文协议)作为标准化接口,简化了AI代理与外部服务器的连接方式。用户既可将任意MCP服务集成到Dify作为工具使用,也能将Dify应用发布为MCP服务供其他系统调用。本文详细演示了高德地图MCP服务的配置过程,并构建智能出行规划助手应用案例,展示路线规划、实时路况等功能的调用流程。同时介绍了如何将Dify应用转换为MCP服务进行发布,实现与其他开发工具的集成测试。该功能显著提升了AI系统的扩展性和集成效率。原创 2025-07-23 15:33:19 · 1074 阅读 · 0 评论 -
Java (Spring AI) 实现MCP server实现数据库的智能问答
本文介绍了使用Java技术栈构建MCP(Message Control Protocol)服务的方法。实现了通过LLM使用MCP完成数据库智能对话助手。原创 2025-07-22 22:09:29 · 786 阅读 · 0 评论 -
MCP大模型协议
本文介绍了MCP(Model Context Protocol)协议,该协议由Anthropic公司提出,旨在统一大语言模型与外部工具的调用方式。传统方法依赖开发者编写复杂提示词实现功能调用,存在标准化不足、开发效率低等问题。MCP协议类比USB扩展坞或HTTP协议,为大模型与各类工具(如百度地图、Unity、Blender等)提供统一接口,无需编写提示词即可实现功能调用。文章阐述了MCP的技术架构(Host/Server模式)、应用场景(游戏开发、3D建模等)以及其推动智能体生态发展的潜力,强调MCP可能原创 2025-07-22 15:24:05 · 1027 阅读 · 0 评论 -
AI应用-本地模型实现AI生成PPT(简易版)
在许多项目中,生成 PPT 是常见的需求,尤其在教育和报告展示中。传统的生成 PPT 的方法需要手动创建,而使用生成模型,如 Dify 或 Ollama,可以自动化地根据提供的内容生成 PPT。在这个示例中,我们将使用本地模型与 Marp 配合,实现 PPT 的生成,前后端分离开发。原创 2024-12-22 14:00:32 · 7957 阅读 · 12 评论 -
GraphRAG本地部署使用及兼容千帆通义
GraphRAG是一种基于知识图谱的检索增强生成(RAG)应用,不同于传统基于向量检索的RAG应用,其允许进行更深层、更细致与上下文感知的检索,从而帮助获得更高质量的输出。原创 2024-11-06 22:17:04 · 2442 阅读 · 0 评论 -
Mermaid-cli使用安装及命令
Mermaid是一种使用文本生成流程图、饼状图、甘特图等图表的描述语言,它可以帮助用户以简单、直观的方式创建各种类型的图表,包括流程图、时序图、甘特图等。是一个命令行工具,它基于 Mermaid 库,用于将 Mermaid 语法定义的图表文件转换成静态图像(如 SVG, PNG 或 PDF)。这使得开发者能够在 Markdown 文件或任何支持纯文本的地方创建流程图、序列图等可视化元素,然后通过 Mermaid CLI 将它们编译成图形。原创 2024-10-30 11:51:15 · 3976 阅读 · 4 评论 -
RagFlow本地部署使用
开源RAGFlow引擎:打造无幻觉、高精度的文档理解与生成体验RAGflow,这个新兴的开源RAG(Retrieval-Augmented Generation)引擎,正以其独特的深度文档理解能力,为大型语言模型的应用带来了革命性的变革。在处理PDF文件时,我们经常面临提取干净数据的挑战,而RAGFlow的出现,恰恰解决了这一问题,它能够提供准确无误且无幻觉的生成结果。原创 2024-10-29 17:01:22 · 36513 阅读 · 10 评论 -
ubuntu离线安装docker及nvidia-container-toolkit
ubuntu离线安装docker及nvidia-container-toolkit原创 2024-10-23 21:14:14 · 8504 阅读 · 1 评论 -
Ollama本地部署大模型及应用
Ollama 是一个专注于本地部署大型语言模型的工具,通过提供便捷的模型管理、丰富的预建模型库、跨平台支持以及灵活的自定义选项,使得开发者和研究人员能够在本地环境中高效利用大型语言模型进行各种自然语言处理任务,而无需依赖云服务或复杂的基础设施设置。原创 2024-09-26 13:25:04 · 3750 阅读 · 0 评论 -
Dify-LLM平台应用实践
开源的 LLM 应用开发平台。提供从 Agent 构建到 AI workflow 编排、RAG 检索、模型管理等能力,轻松构建和运营生成式 AI 原生应用。转载 2024-09-26 12:11:38 · 3760 阅读 · 0 评论 -
GPU服务器本地搭建Dify+xinference实现大模型应用
GPU服务器本地搭建Dify+xinference实现大模型应用原创 2024-09-25 17:53:40 · 4490 阅读 · 0 评论 -
LangChain-Chatchat本地搭建部署
LangChain-Chatchat (原 Langchain-ChatGLM)基于 ChatGLM 等大语言模型与 Langchain 等应用框架实现,开源、可离线部署的 RAG 与 Agent 应用项目。一种利用langchain思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。原创 2024-09-14 21:19:49 · 4096 阅读 · 12 评论 -
ChatGLM4大模型安装、微调
本文用于记录学习大模型部署及微调。GLM-4-9B是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出较高的性能。原创 2024-09-12 13:34:38 · 2968 阅读 · 0 评论 -
Python—使用LangChain调用千帆大模型
LangChain就是一个 LLM 编程框架,你想开发一个基于 LLM 应用,需要什么组件它都有,直接使用就行;甚至针对常规的应用流程,它利用链(LangChain中Chain的由来)这个概念已经内置标准化方案了。LangChain是一个用于开发由语言模型提供支持的应用程序的框架。数据感知:将语言模型连接到其他数据源具有代理性质:允许语言模型与其环境交互原创 2024-01-11 16:34:45 · 11546 阅读 · 15 评论