- 博客(1037)
- 收藏
- 关注
原创 【Ollama全攻略】从0实现企业级AI私有化
Ollama 是一个开源免费的本地化大型语言模型(LLM)管理工具,旨在简化大模型在个人设备上的部署、运行和管理。它支持跨平台操作(Windows、macOS、Linux),提供命令行和API接口,适合开发者、研究人员及爱好者快速体验和集成大模型能力。
2025-08-04 22:02:06
1124
原创 大模型其实很简单!Ollama这样学就够了!
启动运行大语言模型。这就是ollama官网简单朴素的介绍。大模型时代,ollama可以很方便地管理运行你本地大模型的一个工具。我们可以很快地使用ollama启动一个任何现在市面上主流的大模型,并且提供模型能力出去,供外部去调用。
2025-08-04 21:58:07
818
原创 探索AI大模型的50个应用场景:让科技改变生活。
随着人工智能技术的迅猛发展,AI大模型在各个领域的应用日益广泛。百度创始人、董事长兼首席执行官李彦宏在2024年世界人工智能大会上表示,目前AI技术发展路线发生了方向性改变,已从过去辨别式人工智能转向了未来生成式人工智能。他更是呼吁:“大家不要卷模型,要卷应用!”
2025-08-01 13:52:47
1029
原创 DeepSeek+Dify本地化部署教程,企业知识库3分钟上线!
说到知识库又不得不提一提大语言模型LLM(Lager Language Model)的一些痛点:1.大模型经过海量文本数据的训练后,能将这些文本数据以一种黑盒形式压缩在模型参数中,遇到知识更新又会涉及到二次训练,因此知识更新成为最大的痛点。
2025-08-01 13:51:02
499
原创 终于有人把大模型11种微调方法说清楚了!
前缀调优(PrefixTuning)是一种轻量级的微调替代方法,专门用于自然语言生成任务。前缀调优的灵感来自于语言模型提示,前缀就好像是“虚拟标记”一样,这种方法可在特定任务的上下文中引导模型生成文本。前缀调优的独特之处在于它不改变语言模型的参数,而是通过冻结LM参数,仅优化一系列连续的任务特定向量(即前缀)来实现优化任务,如图1所示
2025-07-31 11:41:33
699
原创 大语言模型(LLM)微调
随着大语言模型(LLM)热潮兴起并在企业中的加速落地,其在自然语言处理(NLP)领域展现出强大的能力,已被广泛认可。然而,许多团队也逐渐意识到,仅依赖大模型本身仍存在一系列不可忽视的问题:
2025-07-31 11:37:05
887
原创 如何基于RAGFlow构建大模型企业知识库
包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!😝有需要的小伙伴,可以保存图片到。
2025-07-10 17:43:59
1050
原创 超详细!使用 DeepSeek+Docker+Dify 搭建个人知识库
随着 DeepSeek 不断爆火,越来越多的个人和企业都在搭建属于自己行业或自己的私域知识库,那么我们应该怎么使用 DeepSeek 来搭建只属于自己的私域知识库呢,其实不难,就让我们来一探究竟。
2025-07-10 17:40:42
661
原创 AI大模型的前世今生:Deepseek底层逻辑和技术详解
AI大模型的发展,既是技术的跃迁,更是人类智慧的延伸。从DeepSeek的崛起到全球开源社区的繁荣,我们见证了一个更开放、更智能的时代正在到来。未来,AI将不仅是工具,而是成为人类探索未知、实现普惠的伙伴。让我们以技术为舟、以合作为桨,共同驶向智能时代的星辰大海!
2025-07-08 20:26:28
816
原创 大模型友好型全新注意力架构,Meta掀起大模型底层架构革命!
当大家还在疯狂“堆料”冲大模型时,这篇论文反手掏出了一个“精装修”的注意力模块,证明了干活儿不能只靠人多,脑子聪明更重要。
2025-07-08 20:14:39
958
原创 什么是RAG?
Retrieval-Augmented Generation (RAG) 是帮助大模型更好地回答问题的一种方式。在大模型的应用场景中,一个非常常见的需求是:我们手里有一堆文档,当遇到一个问题时,希望通过其中的一段文本来找到答案。这时,RAG(检索增强生成)技术就能派上用场。它的作用就是从这些文档中找到最相关的信息,然后利用大模型生成精准的回答。简单来说,RAG 就是帮助大模型‘找到’并‘利用’最相关的信息来回答你的问题,就像一个聪明的助手快速翻阅资料给你最合适的答案。如下图所示:
2025-07-07 11:57:20
686
原创 一文带你了解RAG(检索增强生成) | 概念理论介绍+ 代码实操
尽管 LLM 已展现出显著的能力,但以下几个挑战依然值得关注:幻觉问题:LLM 采用基于统计的概率方法逐词生成文本,这一机制内在地导致其可能出现看似逻辑严谨实则缺乏事实依据的输出,即所谓的“郑重其事的虚构陈述”;时效性问题:随着 LLM 规模扩大,训练成本与周期相应增加。鉴于此,包含最新信息的数据难以融入模型训练过程,导致 LLM 在应对诸如“请推荐当前热门影片”等时间敏感性问题时力有未逮;
2025-07-07 11:54:56
1095
原创 大模型全解:RAG基础知识
RAG(Retrieval Augmented Generation,检索增强生成),是一种将预先训练的大语言模型功能与外部数据源相结合的技术。这种方法将GPT-3或GPT-4等LLM的生成能力与专门的数据搜索机制的精度相结合,从而形成了一个可以提供确定性响应的系统。本文详细地探讨了检索增强生成,并给出了一些实际示例,以及一些资源来帮助您了解更多关于LLM的信息。
2025-07-03 19:53:49
768
原创 【通俗易懂说AI之RAG系列】RAG基础概念科普
欢迎来到我们的新开的专题,通俗易懂说AI之RAG,在开始这篇文章的正文之前还是需要先简单的讲述下为什么会有这个系列?主要的原因有以下:(1)智能体在25年开始变得越发的火爆;(2)各种大模型日新月异;(3)大模型相关的技术也越来越多的进入人们的视野中,其中当仁不让的就是RAG;
2025-07-03 19:51:13
908
原创 ToB or ToC?深度盘点:2025年国内AI大模型发展境遇
2022年全球AI爆发后,国内已经催生了上千个AI产品,涵盖从头部大厂到高等院校再到初创企业的广泛阵容:大厂如百度,阿里、字节、腾讯、华为等;高校如清华、北大、浙大、上交等;初创企业有六小虎之称的月之暗面、智谱,以及DeepSeek背后的幻方量化等。不过两年的市场变化,有的大模型一跃成为全民应用,如DeepSeek,有的接入政务系统被称为豆书记的豆包,还有主抓B端工业场景的华为盘古……更多的则是还未成名就已考虑转型的初创企业。今天我们就来深入盘点一下,截至2025年这些AI大模型的发展境遇。
2025-07-02 20:22:37
938
原创 从采用到优势:2025年企业大语言模型十大发展趋势
Kong Research发布的2025年企业大语言模型采用报告基于550名IT领导者调研,揭示了企业生成式AI从谨慎探索转向战略必需的十大趋势:投资大幅增长,72%企业预计支出上涨;谷歌以69%使用率领先OpenAI;企业偏好付费解决方案;安全隐私仍是主要障碍;国际供应商获得认可;混合策略兴起;客户支持和开发者生产力成主要应用场景;开源模型受青睐;成本仍是关键障碍;82%企业对AI影响持乐观态度。
2025-07-02 20:21:02
998
原创 【大模型微调】一文掌握7种大模型微调的方法
本篇文章深入分析了大型模型微调的基本理念和多样化技术,细致介绍了LoRA、适配器调整(Adapter Tuning)、前缀调整(Prefix Tuning)等多个微调方法。详细讨论了每一种策略的基本原则、主要优点以及适宜应用场景,使得读者可以依据特定的应用要求和计算资源限制,挑选最适合的微调方案。
2025-07-01 20:06:32
1040
原创 清晰讲解大模型原理:基于 GPT-4 和 ChatGPT
GPT-4 和 ChatGPT 究竟是什么?本章的目标是深入探讨这些 AI 模型的基础、起源和关键特性。通过了解这些模型的基础知识,你将为构建下一代以 LLM 驱动的应用程序打下坚实的基础。
2025-06-30 19:12:05
762
原创 基于知识图谱技术增强大模型RAG知识库应用效果
本文是AI落地实践的优秀案例,利用RAG技术(Retrieval-Augmented Generation,检索增强生成)的知识库实践为背景,介绍了RAG技术的发展及存在的不足,以及知识图谱相关的知识,利用RAG技术去完善和智能化知识图谱。在AI技术大量涌现,但应用不足的情况下,指明了现有应用场景、技术与AI结合的具体做法。
2025-06-30 19:06:00
783
原创 大模型算法架构:DeepSeek技术演进及剖析
随着 ChatGPT 迅速走红,这两年大家在日常工作中使用 LLM 进行的场景越来越多。本系列将针对主流算法架构进行讲解。大模型算法演进大模型算法架构:QWen技术演进及剖析大模型算法架构:DeepSeek技术演进及剖析大模型算法架构:LLaMA3 技术剖析大模型算法架构:Baichuan-7B技术剖析
2025-06-27 20:39:28
804
原创 AI模型蒸馏:大语言模型的“瘦身革命”
模型蒸馏是一种机器学习新技术,其基本思想是让较小的模型(学生)模仿较大的模型(老师)的行为。当前,已经存在几种方法可以实现这一技术(将在下文中展开具体介绍),但其目标都是在学生模型中获得比从头开始训练更好的泛化能力。
2025-06-27 20:31:51
945
原创 纯干货!快收藏!大模型技术应用架构演进
话不多说,直接上干货,让我们来看看那些隐藏在应用背后,现在大模型都有哪些常用的架构模式,可以为您的企业应用建设提供参考:
2025-06-26 20:14:46
642
原创 从基础到部署:解密 AI 大模型应用架构全景
近年来,AI大模型技术如星火燎原般席卷各行各业,成为推动数字化、智能化转型的核心驱动力。但在“模型即平台、能力即服务”的趋势下,大模型不再是某个单点工具,而是一整套涵盖数据、算力、算法与业务协同的完整能力体系。本文将借助一张全景图,全面拆解大模型应用架构的五大层级:基础层、模型层、能力层、应用层与部署层。帮助你读懂从底层资源到业务部署之间,AI大模型是如何“由内而外”推动企业智能跃迁的。
2025-06-26 20:11:06
1017
原创 Milvus向量数据库学习总结,打造自己的知识库系统!
我们知道 LLM的知识库是通过现有的网络公开的数据作为数据源来训练的,现在公开的很多模型他们基于的训练数据会比我们现在网络上公开的数据早很多,那自然就会产生一种问题,网络上最新的数据和知识 LLM是不知道。还有一种情况就是很多企业他们对自己的数据的安全做的很好,也就是私有化数据(这些数据是有价值的,也是企业的立足之本)。这些数据网络上肯定是不存在,那自然 LLM也是不知道的。
2025-06-25 10:44:09
533
原创 大模型基础:基本概念、Prompt、RAG、Agent及多模态(非常详细)零基础入门到精通,收藏这一篇就够了
随着大模型的迅猛发展,LLM 作为人工智能的核心力量,正以前所未有的方式重塑着我们的生活、学习和工作。无论是智能语音助手、自动驾驶汽车,还是智能决策系统,大模型都是幕后英雄,让这些看似不可思议的事情变为可能。本文将从以下5个方面介绍大模型相关内容:
2025-06-25 10:40:25
519
原创 ChatOllama实现与本地大语言模型的对话并搭建本地知识库进行问答
现在有很多支持本地运行大预言模型的项目和使用知识库的项目或者平台,之所以想介绍ChatOllama是因为个人使用过后感觉比其他项目好用。特别是它的本地知识库,也就是RAG问答效果,是我到现在用过的几个知识库中能检索到信息最准确的
2025-06-24 11:47:31
830
原创 大模型如何从技术侧向商业侧落地转化?
从目前企业端观察到的情况来看,基于大模型的知识库是一个比较有潜力和价值的应用场景,能够帮助企业大幅提高知识的整合和应用效率。然而由于通用预训练大模型的训练数据主要来源于公开渠道,缺乏企业专业和私有知识,直接使用将难以支撑企业内部的专业知识问答。
2025-06-24 11:44:02
810
原创 大模型应用开发平台dify部署(进阶篇)
国内已经有很多开源的大模型,但即使我们拥有强悍的硬件,在本地部署了满血版的开源模型,比如DeepSeek R1 671B,用起来还是跟官网有差别,各大平台接入的DeepSeek R1用起来也是各不相同。这是因为各平台在部署的过程中会进行优化,包括接入知识库、创建智能体、训练、超参数调整等,用户使用的是平台提供的应用程序,而不是单纯的开源模型。
2025-06-23 10:50:43
1265
原创 大模型+知识库:基于大模型构建本地知识库
模型以其庞大的数据容量和深度学习能力,为处理复杂任务提供了前所未有的可能性。但在特定应用场景下仍面临挑战,尤其是在需要快速、准确响应的情境中。为了克服这些限制,构建一个基于大模型的本地知识库显得尤为重要。
2025-06-21 19:39:32
1071
原创 AI大模型搭建个人知识库:基于LLM大模型+文档检索法
本地部署大模型,再构建个人知识库,跑自己的文档、数据等,有很多好处。比如,隐私的财务数据可以借力AI大模型做总结,股票数据实时接入到大模型做数据分析,个人word文档批量读取做总结等。我提出的方案基于LLM大模型+文档检索方法,具有的优势:充分释放大模型能力,因为使用的是文档检索,而不是语义向量所以检索会更加高效,大大提升了回复效率;同时对电脑的性能要求直接降到最低,一般电脑也能玩起来了。你需要做的前期准备1. 准备一台8G以上内存的电脑,无显卡也问题不大;
2025-06-21 19:35:59
1128
原创 最适合做知识库的模型你知道吗?
包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!😝有需要的小伙伴,可以保存图片到。
2025-06-19 19:01:07
980
原创 深度解析!国内七大主流AI大模型性能对比与场景主流模型对比实战指南
包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!😝有需要的小伙伴,可以保存图片到。
2025-06-19 18:59:35
3553
原创 大模型高效微调-LoRA原理详解和训练过程深入分析
LoRA的本质就是用更少的训练参数来近似LLM全参数微调所得的增量参数,从而达到使用更少显存占用的高效微调。
2025-06-18 10:12:18
794
原创 大模型在不同任务上的精度表现及应用优势和局限性
大模型因其庞大的参数量和复杂结构,在多个领域展现出卓越的性能。以下将详细介绍不同类型的大模型在各种任务上的精度表现,以及它们在具体应用中的优势和局限性。
2025-06-18 10:10:18
762
原创 大模型进阶:基于Dify的大模型应用开发平台的搭建
包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!😝有需要的小伙伴,可以保存图片到。
2025-06-17 11:48:51
1041
原创 八大AI模型的优缺点全面解析
AI大模型在不同领域的应用不断推进着人工智能技术的发展。本论文将对八个不同的AI大模型进行综合分析,分别是Chat GPT 4、文心一言、通易千问、360智脑、智源“悟道”、商量、天工和清华OpenBMB。我们将从模型性能、语义理解、交互能力等多个方面对它们的优缺点进行比较。通过综合分析,可以为不同领域的AI应用提供参考和指导。前排提示,文末有大模型AGI-CSDN独家资料包哦!
2025-06-17 11:46:42
1109
原创 大模型微调(5):PEFT 微调 Qwen 大模型
在上面罗列的各种主流微调方法,除了全量微调之外,其余都可以称之为 PEFT,即 Parameter Efficient Fine-Tuning,参数高效微调,它是一种在大语言模型微调过程中,通过减少需要更新的参数数量来降低计算成本和存储需求的技术。毕竟大语言模型的主要问题是参数数量过大,做全量微调实在对资源的消耗太大,已经不是一般研究人员或者普通企业所能做的了。而 PEFT 则是当前大模型领域最为高效实用的微调技术之一!
2025-06-16 14:00:00
1147
原创 从一位AI大厨的角度带你全方位了解大模型微调
本文介绍了微调的基本概念,以及如何对语言模型进行微调。微调技术作为迁移学习的重要实现方式,其核心在于通过特定领域数据的二次训练,使预训练语言模型获得领域适配能力。随着分布式训练技术和模型压缩技术的进步,微调过程的计算效率持续提升。相信随着算力增长,微调的成本门槛会越来越低,微调技术应用的场景也会越来越多。未来,随着量子计算等新型计算架构的发展,微调技术有望实现分钟级的模型迭代周期,这将彻底改变现有AI应用的开发范式。如何学习大模型?最先掌握AI的人,将会比较晚掌握AI的人有竞争优势。
2025-06-16 13:54:35
718
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人