活动介绍

格陷门在模上的实现及应用

立即解锁
发布时间: 2025-08-31 01:10:33 阅读量: 8 订阅数: 23 AIGC
### 格陷门在模上的实现及应用 #### 1. 相关定义与背景 首先介绍 Decision Module - LWEn,d,q,σ 的定义。给定均匀矩阵 \(A \in R_{q}^{m \times d}\) 以及向量 \(b = As + e \mod q\),其中 \(s \leftarrow U(R_{q}^{d})\) 且 \(e \leftarrow D_{R^{m},\sigma}\),需要将 \((A, b)\) 的分布与 \(R_{q}^{m \times d} \times R_{q}^{m}\) 上的均匀分布区分开来。 高效的基于陷门的方案,依赖于特定的陷门概念。这些陷门是对以往短基的改进,更加紧凑且算法更快。此前已被推广到理想格,但尚未应用于模的场景。我们的目标是将相关构造推广到模格,具体通过以下两个步骤实现: - **TrapGen 算法**:生成均匀矩阵 \(A \in R_{q}^{d \times m}\) 及其陷门 \(T \in R^{2d \times dk}\),其中 \(k = \lceil \log_{b} q \rceil\) 且 \(m = d(k + 2)\)。陷门 \(T\) 从参数为 \(\sigma\) 的高斯分布中采样,矩阵 \(A\) 定义了困难的模 SIS 和 ISIS 问题。 - **SamplePre 算法**:利用 \(T \in R^{2d \times dk}\) 进行高效的高斯原像采样,参数为 \(\zeta\),有效解决模 SIS 和 ISIS 问题。 高斯原像采样是从格 \(\Lambda_{q}^{\perp}(A)\) 的陪集上的球形离散高斯分布中采样,该分布的标准差 \(\zeta\) 应较小,且生成的向量不能泄露陷门 \(T\) 的信息。采样过程分为两个互补阶段: - **G - 采样**:参数为 \(\alpha\),确保样本位于正确的陪集。 - **扰动采样**:参数为 \(\zeta\) 和 \(\alpha\),隐藏输出分布中关于 \(T\) 的信息。 #### 2. 扰动采样 扰动采样的目标是从 \(R^{m}\) 上协方差为 \(\Sigma_{p} = \zeta^{2}I - \alpha^{2} \begin{bmatrix} T \\ I \end{bmatrix} [T \ T \ I]\) 的高斯分布中采样向量。该协方差矩阵与 G - 采样输出 \(z\) 对应的 \(\begin{bmatrix} T \\ I \end{bmatrix} z\) 的协方差矩阵互补,使得扰动 \(p\) 与 \(\begin{bmatrix} T \\ I \end{bmatrix} z\) 相加后,最终协方差矩阵 \(\Sigma_{p} + \alpha^{2} \begin{bmatrix} T \\ I \end{bmatrix} [T \ T \ I] = \zeta^{2}I\) 不泄露陷门 \(T\) 的信息。 扰动采样在环 \(P = R[X]/\langle X^{n} + 1 \rangle\) 中进行,虽然最终结果为整数,但计算使用实数。由于 \(R\) 可自然嵌入 \(P\),可认为 \(T\) 和协方差矩阵的元素在 \(P\) 中。 Genise 和 Micciancio 在环设置中使该操作高效化,他们描述了算法 SampleFz,输入为协方差多项式 \(f\) 和中心 \(c\),返回 \(R\) 上相应高斯分布的样本。但该方法不能直接应用于模设置,因为存在额外的秩模参数 \(d\)。我们需要处理协方差矩阵 \(\Sigma \in P^{2d \times 2d}\) 和中心 \(c \in P^{2d}\)。通过利用相关引理和 SampleFz 算法,将协方差矩阵分解为不同大小的块并更新中心,从而迭代采样扰动 \(p_{i} \in R\)。 下面介绍 SamplePerturb 算法,给定陷门 \(T\) 以及高斯参数 \(\zeta\) 和 \(\alpha\),返回从协方差为 \(\Sigma_{p} = \zeta^{2}I - \alpha^{2} \begin{bmatrix} T \\ I \end{bmatrix} [T \ T \ I]\) 的 \(R^{m}\) 上中心离散高斯分布中采样的向量 \(p\)。该算法不直接使用 \(\Sigma_{p} \in P^{m \times m}\),而是使用更小的矩阵 \(\Sigma \in P^{2d \times 2d}\),可提前计算。它使用 SampleFz 算法从 \(R\) 上的离散高斯分布中采样。 算法 1 的复杂度为 \(\Theta(d^{2}n \log n)\) 标量运算(忽略对 \(\Sigma\) 的更新,其仅依赖于 \(T\) 且可在陷门生成时以 \(\Theta(d^{3}n \log n)\) 预计算),这是因为 \(P\) 中的乘法和 SampleFz 算法都需要 \(\Theta(n \log n)\) 时间。 定理 1 证明了该算法的正确性:设 \(T \in P^{2d \times dk}\),\(\zeta, \alpha > 0\),\(\Sigma_{p} = \zeta^{2}I - \alpha^{2} \begin{bmatrix} T \\ I \end{bmatrix} [T \ T \ I] \in P^{m \times m}\) 为导出的扰动协方差矩阵。若 \(\Sigma_{p} \succeq \eta_{\varepsilon}^{2}(\mathbb{Z}^{n m})\),则 SamplePerturb\((T, \zeta, \alpha)\) 返回的向量 \(p \in R^{m}\) 的分布与 \(D_{R^{m},\sqrt{\Sigma_{p}}}\) 在统计上不可区分。 #### 3. 实现细节 为生成特定的离散高斯分布,我们使用以下构建块:基于 AES 的伪随机数生成器和类似于 Karney 采样器的 \(Z\) 上离散高斯采样器。选择该采样器是因为它能在常数时间内生成样本,且与中心、高斯参数和输出值无关。所有非整数计算使用不涉及次正规数的浮点运算。 陷门生成和 G - 采样的实现较为直接,下面重点介绍优化 SamplePerturb 算法的技术: - **使用中国剩余变换(CRT)**:在 \(P = R[X]/\langle X^{n} + 1 \rangle\) 中实现高效算术。CRT 是一种快速傅里叶变换,能在 \(\Theta(n \log n)\) 时间内计算多项式 \(f \in P\) 在复 \(2n\) 次单位根处的值。它与 SampleFz 算法结合良好,因为两者的递归结构相似。 - **预计算协方差矩阵值**:在 SamplePerturb 运行期间,不实际更新矩阵 \(\Sigma\)。而是在陷门生成时预计算算法执行过程中 \(\Sigma\) 会取的所有 \(2d\) 个值,并将它们“堆叠”存储在一个 \(2d \times 2d\) 的三角矩阵中。这样做的原因是在每次循环迭代中,\(\Sigma\) 是一个 \(i \times i\) 矩阵,我们只使用其最后一行和一列。这会在私钥中增加 \(d(2d + 1)\) 个 \(P\) 中的元素的存储成本,但在实际应用中能节省时间。 假设编译器为模 \(q\) 约简以及整数除法和乘法等基本操作生成常数时间代码,我们的实现是常数时间的。因为算法不需要依赖秘密值的分支或内存访问,特别是 \(Z
corwn 最低0.47元/天 解锁专栏
赠100次下载
继续阅读 点击查看下一篇
profit 400次 会员资源下载次数
profit 300万+ 优质博客文章
profit 1000万+ 优质下载资源
profit 1000万+ 优质文库回答
复制全文

相关推荐

史东来

安全技术专家
复旦大学计算机硕士,资深安全技术专家,曾在知名的大型科技公司担任安全技术工程师,负责公司整体安全架构设计和实施。
最低0.47元/天 解锁专栏
赠100次下载
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
千万级 优质文库回答免费看
立即解锁

专栏目录

最新推荐

多视图检测与多模态数据融合实验研究

# 多视图检测与多模态数据融合实验研究 ## 1. 多视图检测实验 ### 1.1 实验数据集 实验参考了Wildtrack数据集和MultiviewX数据集,这两个数据集的特点如下表所示: | 数据集 | 相机数量 | 分辨率 | 帧数 | 区域面积 | | ---- | ---- | ---- | ---- | ---- | | Wildtrack | 7 | 1080×1920 | 400 | 12×36 m² | | MultiviewX | 6 | 1080×1920 | 400 | 16×25 m² | ### 1.2 评估指标 为了评估算法,使用了精度(Precision)、

二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决

### 二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决 #### 1. 二维和三维偏微分方程耦合求解 在求解二维和三维偏微分方程时,有几个具体的问题和解决方法值得探讨。 ##### 1.1 获取相同网格点的 v 值 要在与 u 相同的网格点上获取 v 值,可以输入以下命令: ```matlab >> T_table=tri2grid(p,t,u(length(p)+1:end,end),x,y) ``` 示例结果如下: ``` T_table = 0.6579 0.5915 0.5968 0.6582 0 0.6042 0.4892 0.5073 0.6234 0 0.543

模糊推理系统对象介绍

# 模糊推理系统对象介绍 ## 1. fistree 对象 ### 1.1 概述 fistree 对象用于表示相互连接的模糊推理系统树。通过它可以创建一个相互关联的模糊推理系统网络。 ### 1.2 创建方法 可以使用以下语法创建 fistree 对象: ```matlab fisTree = fistree(fis,connections) fisTree = fistree( ___ ,'DisableStructuralChecks',disableChecks) ``` - `fisTree = fistree(fis,connections)`:创建一个相互连接的模糊推理系统对象

PyTorch神经网络构建与训练全解析

### PyTorch 神经网络构建与训练全解析 #### 1. 特征标准化 在很多情况下,对特征进行标准化是一个很好的做法,即使并非总是必要(例如当所有特征都是二元特征时)。标准化的目的是让每个特征的值具有均值为 0 和标准差为 1 的特性。使用 scikit-learn 的 `StandardScaler` 可以轻松完成这一操作。 然而,如果你在创建了 `requires_grad=True` 的张量后需要进行标准化操作,就需要在 PyTorch 中直接实现,以免破坏计算图。以下是在 PyTorch 中实现特征标准化的代码: ```python import torch # Creat

电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模

# 电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模 ## 1. 锁相环(PLL) ### 1.1 锁相环原理 锁相环(PLL)是一种控制算法,用于确定正弦输入的频率和相位角。它主要用于两个系统之间的频率匹配,匹配完成后会存在一个恒定的相位差,从而实现相位“锁定”。PLL由相位检测机制、PID控制器和用于生成相位角信息的振荡器组成。此外,系统中还包含一个低通滤波器,用于获取正弦输入的频率信息。在柔性交流输电系统(FACTS)设备中,PLL增益对稳定系统性能起着至关重要的作用。 ### 1.2 Simulink环境下的PLL设置 为了直观展示PLL如何反映频率和相位的变化

模型生产化:从本地部署到云端容器化

# 模型生产化:从本地部署到云端容器化 ## 1. 引入 FastAPI 在将模型投入生产的过程中,我们首先要安装 FastAPI。由于 FastAPI 是一个 Python 模块,我们可以使用 pip 进行安装。打开一个新的终端,运行以下命令: ```bash $ pip install fastapi uvicorn aiofiles jinja2 ``` 这里我们安装了一些 FastAPI 所需的额外依赖项。uvicorn 是一个用于设置 API 的底层服务器/应用程序接口,而 aiofiles 则使服务器能够异步处理请求,例如同时接受和响应多个独立的并行请求。这两个模块是 FastA

利用Kaen实现PyTorch分布式训练及超参数优化

### 利用Kaen实现PyTorch分布式训练及超参数优化 #### 1. 启用PyTorch分布式训练支持 在进行模型训练时,我们可以使用Kaen框架来支持PyTorch的分布式训练。以下是相关代码示例: ```python train_glob = os.environ['KAEN_OSDS_TRAIN_GLOB'] if 'KAEN_OSDS_TRAIN_GLOB' in os.environ else 'https://raw.githubusercontent.com/osipov/smlbook/master/train.csv' val_glob = os.environ['

强化学习与合成数据生成:UnityML-Agents深度解析

# 强化学习与合成数据生成:Unity ML - Agents 深度解析 ## 1. 好奇心奖励与超参数设置 在强化学习中,为了激发智能体的好奇心,可以传递与外在奖励相同的超参数。具体如下: - **好奇心奖励信号超参数**: - `reward_signals->curiosity->strength`:用于平衡好奇心奖励与其他奖励(如外在奖励)的缩放系数,取值范围在 0.0 到 1.0 之间。 - `reward_signals->curiosity->gamma`:根据奖励实现所需的时间来调整奖励感知价值的第二个缩放系数,与外在奖励的 `gamma` 类似,取值范围也在

利用PyTorch进行快速原型开发

### 利用 PyTorch 进行快速原型开发 在深度学习领域,快速搭建和验证模型是非常重要的。本文将介绍两个基于 PyTorch 的高级库:fast.ai 和 PyTorch Lightning,它们可以帮助我们更高效地进行模型的训练和评估。 #### 1. 使用 fast.ai 进行模型训练和评估 fast.ai 是一个基于 PyTorch 的高级库,它可以让我们在几分钟内完成模型的训练设置。下面是使用 fast.ai 训练和评估手写数字分类模型的步骤: ##### 1.1 模型训练日志分析 在训练过程中,我们可以看到冻结网络的第一个训练周期,然后是解冻网络的两个后续训练周期。日志中

使用PyTorch构建电影推荐系统

### 使用 PyTorch 构建电影推荐系统 在当今数字化时代,推荐系统在各个领域都发挥着至关重要的作用,尤其是在电影推荐领域。本文将详细介绍如何使用 PyTorch 构建一个电影推荐系统,从数据处理到模型训练,再到最终的推荐生成,为你呈现一个完整的推荐系统构建流程。 #### 1. 数据探索与处理 首先,我们需要对 MovieLens 数据集进行探索和处理。该数据集包含用户对电影的评分信息,其中存在一些缺失的评分值,用 NaN 表示。我们的目标是利用非空评分训练推荐系统,并预测这些缺失的评分,从而为每个用户生成电影推荐。 以下是处理数据集的代码: ```python import p