- 博客(19)
- 收藏
- 关注
原创 【机器学习实战笔记 16】集成学习:LightGBM算法
主要讲解LightGBM算法的基本原理、数学推导及证明、sklearn的和原生API实现以及参数讲解。
2025-07-12 23:08:11
417
原创 【机器学习实战笔记 12】集成学习:AdaBoost算法
讲解Boosting算法思想、AdaBoost算法思想、参数讲解、原理实现以及sklearn库实现的基本过程。
2025-06-20 21:35:09
1173
原创 【机器学习实战笔记 11】超参数优化(二):贝叶斯优化方法
主要讲解贝叶斯优化的原理以及bayes_opt、hyperopt、optuna三种贝叶斯优化的方法以及代码实现。
2025-06-18 14:28:53
855
原创 【机器学习实战笔记 10】超参数优化(一):网格优化方法
主要介绍超参数优化方法,包括网格搜索、随机搜索、对半搜索(Halving搜索)、贝叶斯优化算法等。
2025-06-16 16:04:40
1090
原创 【机器学习实战笔记 8】Bagging与随机森林(一):从原理到实践讲解
集成学习(Ensemble learning)是机器学习中最先进、最有效、最具研究价值的领域之一,这类方法会训练多个弱评估器(base estimators)、并将它们输出的结果以某种方式结合起来解决一个问题。
2025-06-10 12:48:31
798
原创 【机器学习实战笔记 7】决策树模型(二):CART分类树、ID3、C4.5决策树
细介绍关于ID3和C4.5这两种决策树模型的建模基本思路和原理。ID3和C4.5的基本建模流程和CART树是类似的,也是根据纯度评估指标选取最佳的数据集划分方式,只是不过ID3和C4.5是以信息熵为评估指标,而数据集的离散特征划分方式也是一次展开一列,而不是寻找切点进行切分。
2025-06-09 14:49:18
835
原创 【机器学习实战笔记 6】决策树模型(一):CART分类树、ID3、C4.5决策树
本文主要包括决策树模型:CART分类树、ID3、C4.5决策树。从原理到建模的流程。
2025-06-08 12:58:15
806
原创 【机器学习实战笔记 5】聚类模型:K-Means、Mini Batch K-Means与DBSCAN
本文介绍了三种常用的无监督聚类算法:K-Means、Mini Batch K-Means和DBSCAN。K-Means通过迭代计算质心对数据进行分群,目标是使组内误差平方和最小化。Mini Batch K-Means是K-Means的优化版本,适用于大数据集。DBSCAN则基于密度进行聚类,无需预先指定簇数。文章详细阐述了K-Means的原理、计算步骤和数学意义,包括质心计算、迭代停止条件等。聚类算法广泛应用于客户分群、特征工程等领域,相比有监督学习更简单但应用场景有限。
2025-05-26 14:55:02
615
原创 【机器学习实战笔记 4】Scikit-Learn使用与进阶二
主要讲解逻辑回归的完整构建示例、网格搜索方法、多分类指标macro与weighted过程、用网格搜索构建一个完整的机器学习流过程。
2025-05-18 16:57:20
685
原创 【机器学习实战笔记 2】 分类模型决策边界与模型评估指标
分类模型决策边界与模型评估指标,包含accuracy、precision、recall、F1、ROC-ACU等。
2025-04-28 22:11:53
711
原创 【论文带读】GraphTranslator: Aligning Graph Model to Large Language Model for Open-ended Tasks
通过一个名为 GraphTranslator 的翻译器将预训练的 GM 和 LLM 连接起来,旨在利用 GM 有效地处理预定义的任务,并利用 LLM 的扩展接口为 GM 提供各种开放式任务。为了训练这样的 Translator,我们提出了一个 Producer,它能够沿着节点信息、邻居信息和模型信息构建图文本对齐数据。通过将节点表示形式转换为令牌,GraphTranslator 使 LLM 能够根据语言指令进行预测,从而为预定义和开放式任务提供统一的视角。
2025-04-18 23:26:30
737
原创 【论文带读】LABEL-FREE NODE CLASSIFICATION ON GRAPHS WITH LARGE LANGUAGE MODELS (LLMS)
近年来,图神经网络(GNNS)取得了显着进步。但是,它们需要丰富的高质量标签,以确保有希望的性能。相比之下,大型语言模型(LLMS)在文本属性图上表现出令人印象深刻的零样本能力。然而,他们在有效处理结构数据并遭受高推理成本方面面临挑战。鉴于这些观察结果,这项工作在LLMS Pipeline,LLM-GNN上引入了无标签的节点分类。它使GNN和LLM的优势融合在一起,同时减轻它们的局限性。具体而言,LLMS被杠杆化以注释一小部分节点,然后在LLMS的注释上训练GNN,以对剩余的大部分节点进行预测。
2025-02-03 00:28:26
2201
原创 【论文带读】LLMs as Zero-shot Graph Learners: Alignment of GNN Representations with LLM Token Embeddings
文中引入了一种名为 Token Embedding-Aligned Graph Language Model (TEA-GLM)(Token 嵌入对齐图语言模型) 的新颖框架,该框架利用 LLM 作为跨数据集和跨任务用于图机器学习的零样本学习器。具体来说,该方法预训练 GNN,将GNN得到的表示与 LLM 的token嵌入对齐。然后,训练一个线性投影器,将 GNN 的表示转换为固定数量的 graph token 嵌入,而无需调整 LLM。
2024-12-29 20:29:32
1894
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人