活动介绍

后妥协安全成本的研究与分析

立即解锁
发布时间: 2025-08-31 00:50:53 阅读量: 8 订阅数: 41 AIGC
### 后妥协安全成本的研究与分析 在当今的网络安全领域,连续组密钥协议(CGKA)在保障群组通信安全方面扮演着重要角色。然而,这些协议在实现后妥协安全(PCS)时,其通信成本是一个关键问题。本文将围绕这一问题展开,深入探讨相关的界限、证明以及克服下界的方法,并介绍一些相关的工作和预备知识。 #### 1. 界限分析 在研究中,我们主要关注实现后妥协安全的CGKA协议的通信成本下界,并引入了一种新的协议CoCoALight。我们以用户为实现后妥协安全所需创建的密文数量来衡量协议成本,同时也会考虑各方恢复所需的轮数。 ##### 1.1 界限设定 - **模型设定**:我们考虑用户不知道在任何给定通信轮次中谁被破坏或谁会更新,且由对手安排每轮谁进行更新的情况。同时,我们引入了“随机破坏”模型(RC)和“无随机破坏”模型(¬RC)。在RC模型中,用户被破坏时其整个秘密状态和本地随机性都会泄露给对手;而在¬RC模型中,仅秘密状态会泄露。大多数协议在较强的RC模型中被证明是安全的,而下界在¬RC模型中更强。 - **下界**:用户在其状态保证恢复之前所需进行的更新次数k起着关键作用。我们的安全游戏由用户数量n和k参数化。对手安排每轮谁更新,并且要求在任何时候,只要过去被破坏的每个方自上次破坏以来至少被要求更新k次,组密钥就是安全的。我们的下界大约是$n^{1 + 1/k} \cdot k / \log(k)$。这意味着如果我们希望每个用户的发送者通信成本为小对数级,就需要允许对数级的恢复轮数。特别是,如果坚持恒定的轮数,每个用户的平均成本将为$n^{1/k}$量级。 - **上界**:我们引入的CoCoALight协议是CoCoA的改进和推广,它能在$k \in [4, 2 \lceil \log(n) \rceil + 1]$轮内实现PCS。该协议的成本为$k \cdot n^{1 + 2/(k - 1)}$,与下界在$ \log(k) / n^{1/(k - 1)}$因子内匹配。对于$k$为$\log(n)$量级的情况,我们的协议仅比最优值差一个$\log(\log(n))$因子。 以下是不同协议的上界和下界对比表格: | 类型 | 方案 | 通信成本 | 轮数 | 随机破坏 | 参考 | | --- | --- | --- | --- | --- | --- | | 上界 | TreeKEM及相关 | $n^2$ | 2 | RC | [10] | | 上界 | Bienstock, Dodis, Rösler | $n^2$ | 2 | ¬RC | [12] | | 上界 | CoCoA在$k - 1\sqrt{n}$ - 元树上 | $n k^2 k - 1\sqrt{n}$ | k | RC | 相关章节 | | 上界 | CoCoA在2 - 元树上 | $n \log(n)^2$ | $\log(n)$ | RC | [2] | | 上界 | CoCoALight在$(k - 1)/2\sqrt{n}$ - 元树上 | $n k (k - 1)/2\sqrt{n}$ | k | RC | 相关章节 | | 下界 | 无限制 | $n^2$ | 2 | ¬RC | [12] | | 下界 | NDW, NNE, PCU∗ | $n \log(n) / \log(\log(n))$ | $\log(n)$ | ¬RC | Cor. 5 | | 下界 | NDW, NNE, PCU∗ | $\varepsilon \cdot n \cdot (1 + \varepsilon)k - 1\sqrt{\alpha_{\varepsilon}n} \cdot k / \log(k)$ | k | ¬RC | Cor. 5 | #### 1.2 证明思路 - **下界证明**:为了证明下界,我们首先表明,如果协议能在k轮内从c次破坏中恢复,那么存在某个用户的成本为$c^{1/k}$。特别是当$c = \Theta(n)$时,成本为$\Theta(n^{1/k})$。我们通过分析集合系统的大小变化来直观理解这一点。然后,我们将证明对于$c = \Theta(n)$次破坏,对手可以通过安排更新,使得$1 / \log(k)$比例的用户在每轮被迫接近最大成本,从而加起来达到$n^{1 + 1/(k - 1)} \cdot k / \log(k)$。具体的对手安排方式是,在每轮之前,对手调查每个用户如果在下一轮被要求更新的成本,然后选择$1 / \log(k)$比例的用户,这些用户要么成本非常小,要么成本大致相同。 - **上界证明**:我们通过遵循[22]设定的框架来证明协议的安全性,该框架将CGKA协议的自适应安全性降低到图上的游戏。首先定义一个安全谓词,它捕获了应保证安全性的设置(即每个被破坏的用户自上次破坏以来执行了k次更新)。然后,我们通过为执行中的每个组密钥关联一个恢复图,证明满足安全谓词的密钥不会因用户破坏而泄露。协议的安全性由此通过该框架得出,与先前的工作类似。 #### 1.3 克服下界的方法 证明重要协议的下界有多个目的,一方面可以告诉我们何时落入下界模型的构造无法进一步改进;另一方面,也可以提示我们在哪里寻找克服这些下界的构造。 - **更强大的构建块**:我们考虑的符号模型允许基本的伪随机函数(PRF)或公钥加密原语,但不排除使用更复杂工具的协议克服我们的下界。例如,多方非交互式密钥协商(mNIKE)可以让每个用户创建一个广播消息,之后任何用户子集都可
corwn 最低0.47元/天 解锁专栏
赠100次下载
继续阅读 点击查看下一篇
profit 400次 会员资源下载次数
profit 300万+ 优质博客文章
profit 1000万+ 优质下载资源
profit 1000万+ 优质文库回答
复制全文

相关推荐

史东来

安全技术专家
复旦大学计算机硕士,资深安全技术专家,曾在知名的大型科技公司担任安全技术工程师,负责公司整体安全架构设计和实施。
最低0.47元/天 解锁专栏
赠100次下载
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
千万级 优质文库回答免费看
立即解锁

专栏目录

最新推荐

多视图检测与多模态数据融合实验研究

# 多视图检测与多模态数据融合实验研究 ## 1. 多视图检测实验 ### 1.1 实验数据集 实验参考了Wildtrack数据集和MultiviewX数据集,这两个数据集的特点如下表所示: | 数据集 | 相机数量 | 分辨率 | 帧数 | 区域面积 | | ---- | ---- | ---- | ---- | ---- | | Wildtrack | 7 | 1080×1920 | 400 | 12×36 m² | | MultiviewX | 6 | 1080×1920 | 400 | 16×25 m² | ### 1.2 评估指标 为了评估算法,使用了精度(Precision)、

二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决

### 二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决 #### 1. 二维和三维偏微分方程耦合求解 在求解二维和三维偏微分方程时,有几个具体的问题和解决方法值得探讨。 ##### 1.1 获取相同网格点的 v 值 要在与 u 相同的网格点上获取 v 值,可以输入以下命令: ```matlab >> T_table=tri2grid(p,t,u(length(p)+1:end,end),x,y) ``` 示例结果如下: ``` T_table = 0.6579 0.5915 0.5968 0.6582 0 0.6042 0.4892 0.5073 0.6234 0 0.543

模糊推理系统对象介绍

# 模糊推理系统对象介绍 ## 1. fistree 对象 ### 1.1 概述 fistree 对象用于表示相互连接的模糊推理系统树。通过它可以创建一个相互关联的模糊推理系统网络。 ### 1.2 创建方法 可以使用以下语法创建 fistree 对象: ```matlab fisTree = fistree(fis,connections) fisTree = fistree( ___ ,'DisableStructuralChecks',disableChecks) ``` - `fisTree = fistree(fis,connections)`:创建一个相互连接的模糊推理系统对象

PyTorch神经网络构建与训练全解析

### PyTorch 神经网络构建与训练全解析 #### 1. 特征标准化 在很多情况下,对特征进行标准化是一个很好的做法,即使并非总是必要(例如当所有特征都是二元特征时)。标准化的目的是让每个特征的值具有均值为 0 和标准差为 1 的特性。使用 scikit-learn 的 `StandardScaler` 可以轻松完成这一操作。 然而,如果你在创建了 `requires_grad=True` 的张量后需要进行标准化操作,就需要在 PyTorch 中直接实现,以免破坏计算图。以下是在 PyTorch 中实现特征标准化的代码: ```python import torch # Creat

使用PyTorch构建电影推荐系统

### 使用 PyTorch 构建电影推荐系统 在当今数字化时代,推荐系统在各个领域都发挥着至关重要的作用,尤其是在电影推荐领域。本文将详细介绍如何使用 PyTorch 构建一个电影推荐系统,从数据处理到模型训练,再到最终的推荐生成,为你呈现一个完整的推荐系统构建流程。 #### 1. 数据探索与处理 首先,我们需要对 MovieLens 数据集进行探索和处理。该数据集包含用户对电影的评分信息,其中存在一些缺失的评分值,用 NaN 表示。我们的目标是利用非空评分训练推荐系统,并预测这些缺失的评分,从而为每个用户生成电影推荐。 以下是处理数据集的代码: ```python import p

电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模

# 电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模 ## 1. 锁相环(PLL) ### 1.1 锁相环原理 锁相环(PLL)是一种控制算法,用于确定正弦输入的频率和相位角。它主要用于两个系统之间的频率匹配,匹配完成后会存在一个恒定的相位差,从而实现相位“锁定”。PLL由相位检测机制、PID控制器和用于生成相位角信息的振荡器组成。此外,系统中还包含一个低通滤波器,用于获取正弦输入的频率信息。在柔性交流输电系统(FACTS)设备中,PLL增益对稳定系统性能起着至关重要的作用。 ### 1.2 Simulink环境下的PLL设置 为了直观展示PLL如何反映频率和相位的变化

利用PyTorch进行快速原型开发

### 利用 PyTorch 进行快速原型开发 在深度学习领域,快速搭建和验证模型是非常重要的。本文将介绍两个基于 PyTorch 的高级库:fast.ai 和 PyTorch Lightning,它们可以帮助我们更高效地进行模型的训练和评估。 #### 1. 使用 fast.ai 进行模型训练和评估 fast.ai 是一个基于 PyTorch 的高级库,它可以让我们在几分钟内完成模型的训练设置。下面是使用 fast.ai 训练和评估手写数字分类模型的步骤: ##### 1.1 模型训练日志分析 在训练过程中,我们可以看到冻结网络的第一个训练周期,然后是解冻网络的两个后续训练周期。日志中

利用Kaen实现PyTorch分布式训练及超参数优化

### 利用Kaen实现PyTorch分布式训练及超参数优化 #### 1. 启用PyTorch分布式训练支持 在进行模型训练时,我们可以使用Kaen框架来支持PyTorch的分布式训练。以下是相关代码示例: ```python train_glob = os.environ['KAEN_OSDS_TRAIN_GLOB'] if 'KAEN_OSDS_TRAIN_GLOB' in os.environ else 'https://raw.githubusercontent.com/osipov/smlbook/master/train.csv' val_glob = os.environ['

模型生产化:从本地部署到云端容器化

# 模型生产化:从本地部署到云端容器化 ## 1. 引入 FastAPI 在将模型投入生产的过程中,我们首先要安装 FastAPI。由于 FastAPI 是一个 Python 模块,我们可以使用 pip 进行安装。打开一个新的终端,运行以下命令: ```bash $ pip install fastapi uvicorn aiofiles jinja2 ``` 这里我们安装了一些 FastAPI 所需的额外依赖项。uvicorn 是一个用于设置 API 的底层服务器/应用程序接口,而 aiofiles 则使服务器能够异步处理请求,例如同时接受和响应多个独立的并行请求。这两个模块是 FastA

强化学习与合成数据生成:UnityML-Agents深度解析

# 强化学习与合成数据生成:Unity ML - Agents 深度解析 ## 1. 好奇心奖励与超参数设置 在强化学习中,为了激发智能体的好奇心,可以传递与外在奖励相同的超参数。具体如下: - **好奇心奖励信号超参数**: - `reward_signals->curiosity->strength`:用于平衡好奇心奖励与其他奖励(如外在奖励)的缩放系数,取值范围在 0.0 到 1.0 之间。 - `reward_signals->curiosity->gamma`:根据奖励实现所需的时间来调整奖励感知价值的第二个缩放系数,与外在奖励的 `gamma` 类似,取值范围也在