活动介绍

在线广告点击率预测:逻辑回归与特征选择全解析

立即解锁
发布时间: 2025-09-03 01:40:41 阅读量: 3 订阅数: 11 AIGC
### 在线广告点击率预测:逻辑回归与特征选择全解析 #### 1. 模型训练与测试 在进行模型训练和测试时,我们可以按照以下代码操作: ```python sgd_lr.fit(X_train_enc.toarray(), Y_train) pred = sgd_lr.predict_proba(X_test_enc.toarray())[:, 1] print(f'Training samples: {n_train}, AUC on testing set: {roc_auc_score(Y_test, pred):.3f}') ``` 运行上述代码后,输出结果为: ``` Training samples: 100000, AUC on testing set: 0.734 ``` 可以看到,训练和测试过程简单快捷。 #### 2. 带正则化的逻辑回归模型训练 逻辑回归`SGDClassifier`中的`penalty`参数与模型正则化相关。正则化有两种基本形式:L1(也称为Lasso)和L2(也称为岭回归)。正则化是在原始成本函数的基础上增加一个额外的项,公式如下: \[ J(w) = \frac{1}{m}\sum_{i = 1}^{m}-[y^{(i)}\log(\hat{y}(x^{(i)})) + (1 - y^{(i)})\log(1 - \hat{y}(x^{(i)}))] + \alpha||w||_q \] 其中,\(\alpha\)是乘以正则化项的常数,\(q\)为1或2,分别代表L1或L2正则化。具体来说: \[ ||w||_1 = \sum_{j = 1}^{n}|w_j| \] 训练逻辑回归模型的过程就是将成本作为权重\(w\)的函数进行最小化。如果某些权重(如\(w_i\)、\(w_j\)和\(w_k\))变得非常大,那么整个成本将由这些大权重决定。在这种情况下,学习到的模型可能只是记住了训练集,而无法推广到未见过的数据。引入正则化项是为了惩罚大权重,因为权重现在成为了要最小化的成本的一部分,从而消除过拟合。参数\(\alpha\)提供了对数损失和泛化能力之间的权衡: - 若\(\alpha\)太小,无法压缩大权重,模型可能会出现高方差或过拟合。 - 若\(\alpha\)太大,模型可能会过度泛化,在拟合数据集方面表现不佳,即出现欠拟合。 因此,\(\alpha\)是调整以获得最佳带正则化逻辑回归模型的重要参数。 在选择L1和L2形式时,经验法则是基于是否需要进行特征选择。在机器学习分类中,特征选择是挑选出一组重要特征以构建更好模型的过程。在实际应用中,数据集中并非每个特征都包含对区分样本有用的信息,有些特征可能是冗余或无关的,可以在损失很小的情况下丢弃。在逻辑回归分类器中,只有L1正则化可以实现特征选择。 为了更好地理解,我们考虑两个权重向量\(w_1 = (1, 0)\)和\(w_2 = (0.5, 0.5)\),假设它们产生相同的对数损失,那么每个权重向量的L1和L2正则化项如下: \[ |w_1|_1 = |1| + |0| = 1, |w_2|_1 = |0.5| + |0.5| = 1 \] \[ |w_1|_2 = 1^2 + 0^2 = 1, |w_2|_2 = 0.5^2 + 0.5^2 = 0.5 \] 可以看出,两个向量的L1项相等,而\(w_2\)的L2项小于\(w_1\)的L2项。这表明L2正则化比L1正则化更惩罚由显著大权重和小权重组成的权重。换句话说,L2正则化倾向于所有权重的相对较小值,避免任何权重出现显著的大值和小值,而L1正则化允许一些权重具有显著的小值,一些具有显著的大值。只有L1正则化可以将一些权重压缩到接近或恰好为0,从而实现特征选择。 在`scikit-learn`中,可以通过`penalty`参数指定正则化类型,选项包括`none`(无正则化)、`"l1"`、`"l2"`和`"elasticnet"`(L1和L2的混合),通过`alpha`参数指定乘数\(\alpha\)。 #### 3. 使用L1正则化进行特征选择 我们可以按照以下步骤使用L1正则化进行特征选择: 1. 初始化一个带有L1正则化的SGD逻辑回归模型,并基于10,000个样本进行训练: ```python sgd_lr_l1 = SGDClassifier(loss='log', penalty='l1', alpha=0.0001, fit_intercept=True, max_iter=10, learning_rate='constant', eta0=0.01) sgd_lr_l1.fit(X_train_enc.toarray(), Y_train) ``` 2. 获取训练模型系数的绝对值: ```python coef_abs = np.abs(sgd_lr_l1.coef_) print(coef_abs) ``` 输出结果可能如下: ``` [[0. 0.09963329 0. ... 0. 0. 0.07431834]] ``` 3. 打印底部10个系数及其值: ```python print(np.sort(coef_abs)[0][:10]) bottom_10 = np.argsort(coef_abs)[0][:10] ``` 输出结果为: ``` [0. 0. 0. 0. 0. 0. 0. 0. 0. 0.] ``` 4. 查看这10个特征是什么: ```python feature_names = enc.get_feature_names() print('10 least important features are:\n', feature_names[bottom_10]) ``` 输出结果可能如下: ``` 10 least important features are: ['x0_1001' 'x8_851897aa' 'x8_85119990' 'x8_84ebbcd4' 'x8_84eb6b0e' 'x8_84dda655' 'x8_84c2f017' 'x8_84ace234' 'x8_84a9d4ba' 'x8_84915a27'] ``` 这些特征分别来自`X_train`的不同列。 5. 同样地,获取顶部10个系数及其值: ```python print(np.sort(coef_abs)[0][-10:]) top_10 = np.argsort(coef_abs)[0][-10:] print('10 most important features are:\n', feature_names[top_10]) ``` 输出结果可能如下: ``` [0.67912376 0.70885933 0.79975917 0.8828797 0.98146351 0.98275124 1.08313767 1.13261091 1.18445527 1.40983505] 10 most important features are: ['x7_cef3e649' 'x3_7687a86e' 'x18_61' 'x18_15' 'x5_9c13b419' 'x5_5e3f096f' 'x2_763a42b5' 'x2_d9750ee7' 'x3_27e3c518' 'x5_1779deee'] ``` #### 4. 大规模数据集的在线学习训练 到目前为止,我们的模型训练样本不超过300,000个。如果超过这个数量,内存可能会因数据过多而超载,导致程序崩溃。在线学习可以解决这个问题。SGD是从梯度下降演变而来的,它通过一次使用一个训练样本依次更新模型,而不是一次性使用整个训练集。我们可以使用在线学习技术进一步扩展SGD。 在线学习中,用于训练的新数据按顺序或实时可用,这与离线学习环境中一次性获取所有数据不同。每次加载和预处理相对较小的数据块进行训练,这样可以释放用于存储整个大型数据集的内存。除了具有更好的计算可行性外,在线学习还因其能够适应实时生成新数据并用于更新模型的情况而被广泛使用。例如,股票价格预测模型使用及时的市场数据以在线学习的方式进行更新;点击率预测模型需要包含反映用户最新行为和品味的最新数据;垃圾邮件检测器必须通过考虑动态生成的新特征来对不断变化的垃圾邮件发送者做出反应。 在`scikit-learn`中,`SGDClassifier`模块通过`partial_fit`方法实现在线学习(而`fit`方法用于离线学习)。我们可以按照以下步骤模拟在线学习环境,使用1,000,000个样本训练模型,并在另外100,000个样本上进行测试: 1. 读取数据: ```python n_rows = 100000 * 11 df = pd.read_csv("train", nrows=n_rows) X = df.drop(['click', 'id', 'hour', 'device_id', 'device_ip'], axis=1).values Y = df['click'].values n_train = 100000 * 10 X_train = X[:n_train] Y_train = Y[ ```
corwn 最低0.47元/天 解锁专栏
赠100次下载
继续阅读 点击查看下一篇
profit 400次 会员资源下载次数
profit 300万+ 优质博客文章
profit 1000万+ 优质下载资源
profit 1000万+ 优质文库回答
复制全文

相关推荐

张_伟_杰

人工智能专家
人工智能和大数据领域有超过10年的工作经验,拥有深厚的技术功底,曾先后就职于多家知名科技公司。职业生涯中,曾担任人工智能工程师和数据科学家,负责开发和优化各种人工智能和大数据应用。在人工智能算法和技术,包括机器学习、深度学习、自然语言处理等领域有一定的研究
最低0.47元/天 解锁专栏
赠100次下载
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
千万级 优质文库回答免费看

最新推荐

强化学习与合成数据生成:UnityML-Agents深度解析

# 强化学习与合成数据生成:Unity ML - Agents 深度解析 ## 1. 好奇心奖励与超参数设置 在强化学习中,为了激发智能体的好奇心,可以传递与外在奖励相同的超参数。具体如下: - **好奇心奖励信号超参数**: - `reward_signals->curiosity->strength`:用于平衡好奇心奖励与其他奖励(如外在奖励)的缩放系数,取值范围在 0.0 到 1.0 之间。 - `reward_signals->curiosity->gamma`:根据奖励实现所需的时间来调整奖励感知价值的第二个缩放系数,与外在奖励的 `gamma` 类似,取值范围也在

利用Kaen实现PyTorch分布式训练及超参数优化

### 利用Kaen实现PyTorch分布式训练及超参数优化 #### 1. 启用PyTorch分布式训练支持 在进行模型训练时,我们可以使用Kaen框架来支持PyTorch的分布式训练。以下是相关代码示例: ```python train_glob = os.environ['KAEN_OSDS_TRAIN_GLOB'] if 'KAEN_OSDS_TRAIN_GLOB' in os.environ else 'https://raw.githubusercontent.com/osipov/smlbook/master/train.csv' val_glob = os.environ['

模型生产化:从本地部署到云端容器化

# 模型生产化:从本地部署到云端容器化 ## 1. 引入 FastAPI 在将模型投入生产的过程中,我们首先要安装 FastAPI。由于 FastAPI 是一个 Python 模块,我们可以使用 pip 进行安装。打开一个新的终端,运行以下命令: ```bash $ pip install fastapi uvicorn aiofiles jinja2 ``` 这里我们安装了一些 FastAPI 所需的额外依赖项。uvicorn 是一个用于设置 API 的底层服务器/应用程序接口,而 aiofiles 则使服务器能够异步处理请求,例如同时接受和响应多个独立的并行请求。这两个模块是 FastA

排行榜接入全攻略:第三方SDK集成实战详解

![cocos2d-x 塔防游戏源码](https://docs.godotengine.org/en/3.1/_images/ui_mockup_break_down.png) # 1. 排行榜系统概述与应用场景 在现代互联网应用中,排行榜系统已成为增强用户参与感和提升活跃度的重要工具。无论是在游戏、社交、电商,还是内容平台中,排行榜都能有效激发用户的竞争意识与社交互动。排行榜系统不仅展示用户之间的排名关系,还承载着数据聚合、实时更新、多维度统计等复杂功能。本章将从排行榜的基本概念出发,探讨其在不同业务场景中的典型应用,并为后续技术实现打下理论基础。 # 2. 排行榜技术原理与架构设计

利用PyTorch进行快速原型开发

### 利用 PyTorch 进行快速原型开发 在深度学习领域,快速搭建和验证模型是非常重要的。本文将介绍两个基于 PyTorch 的高级库:fast.ai 和 PyTorch Lightning,它们可以帮助我们更高效地进行模型的训练和评估。 #### 1. 使用 fast.ai 进行模型训练和评估 fast.ai 是一个基于 PyTorch 的高级库,它可以让我们在几分钟内完成模型的训练设置。下面是使用 fast.ai 训练和评估手写数字分类模型的步骤: ##### 1.1 模型训练日志分析 在训练过程中,我们可以看到冻结网络的第一个训练周期,然后是解冻网络的两个后续训练周期。日志中

使用PyTorch构建电影推荐系统

### 使用 PyTorch 构建电影推荐系统 在当今数字化时代,推荐系统在各个领域都发挥着至关重要的作用,尤其是在电影推荐领域。本文将详细介绍如何使用 PyTorch 构建一个电影推荐系统,从数据处理到模型训练,再到最终的推荐生成,为你呈现一个完整的推荐系统构建流程。 #### 1. 数据探索与处理 首先,我们需要对 MovieLens 数据集进行探索和处理。该数据集包含用户对电影的评分信息,其中存在一些缺失的评分值,用 NaN 表示。我们的目标是利用非空评分训练推荐系统,并预测这些缺失的评分,从而为每个用户生成电影推荐。 以下是处理数据集的代码: ```python import p

电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模

# 电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模 ## 1. 锁相环(PLL) ### 1.1 锁相环原理 锁相环(PLL)是一种控制算法,用于确定正弦输入的频率和相位角。它主要用于两个系统之间的频率匹配,匹配完成后会存在一个恒定的相位差,从而实现相位“锁定”。PLL由相位检测机制、PID控制器和用于生成相位角信息的振荡器组成。此外,系统中还包含一个低通滤波器,用于获取正弦输入的频率信息。在柔性交流输电系统(FACTS)设备中,PLL增益对稳定系统性能起着至关重要的作用。 ### 1.2 Simulink环境下的PLL设置 为了直观展示PLL如何反映频率和相位的变化

多视图检测与多模态数据融合实验研究

# 多视图检测与多模态数据融合实验研究 ## 1. 多视图检测实验 ### 1.1 实验数据集 实验参考了Wildtrack数据集和MultiviewX数据集,这两个数据集的特点如下表所示: | 数据集 | 相机数量 | 分辨率 | 帧数 | 区域面积 | | ---- | ---- | ---- | ---- | ---- | | Wildtrack | 7 | 1080×1920 | 400 | 12×36 m² | | MultiviewX | 6 | 1080×1920 | 400 | 16×25 m² | ### 1.2 评估指标 为了评估算法,使用了精度(Precision)、

二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决

### 二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决 #### 1. 二维和三维偏微分方程耦合求解 在求解二维和三维偏微分方程时,有几个具体的问题和解决方法值得探讨。 ##### 1.1 获取相同网格点的 v 值 要在与 u 相同的网格点上获取 v 值,可以输入以下命令: ```matlab >> T_table=tri2grid(p,t,u(length(p)+1:end,end),x,y) ``` 示例结果如下: ``` T_table = 0.6579 0.5915 0.5968 0.6582 0 0.6042 0.4892 0.5073 0.6234 0 0.543

模糊推理系统对象介绍

# 模糊推理系统对象介绍 ## 1. fistree 对象 ### 1.1 概述 fistree 对象用于表示相互连接的模糊推理系统树。通过它可以创建一个相互关联的模糊推理系统网络。 ### 1.2 创建方法 可以使用以下语法创建 fistree 对象: ```matlab fisTree = fistree(fis,connections) fisTree = fistree( ___ ,'DisableStructuralChecks',disableChecks) ``` - `fisTree = fistree(fis,connections)`:创建一个相互连接的模糊推理系统对象