深度学习:从伦理考量到技术拓展
立即解锁
发布时间: 2025-09-01 01:49:32 阅读量: 7 订阅数: 19 AIGC 

# 深度学习:从伦理考量到技术拓展
## 1. 数据使用伦理考量
在处理图像数据时,有一系列重要的伦理问题需要思考。比如,图片中的人是否同意使用这些图片?他们是否同意将图片用于当前正在进行的特定用途?这是研究人员和从业者在处理此类数据时应自问的问题。
此外,在项目开发周期中,团队还应自问以下一系列问题:
- 我们是否真的应该开展这个项目?
- 数据中存在哪些偏差?
- 代码和数据能否接受审计?
- 不同子群体的错误率是多少?
- 基于简单规则的替代方案的准确性如何?
- 处理申诉或错误的流程有哪些?
- 构建该项目的团队多样性如何?
## 2. 机器学习分支及强化学习
机器学习领域通常分为三个不同的分支:监督学习、无监督学习和强化学习。大多数情况下,常见的机制属于监督学习范畴,也有一些无监督学习的例子。而强化学习在某些场景中有着独特的应用。
在监督学习算法中,模型从标记数据集中学习,这些数据集代表了我们希望模型学习的特定真实情况。无监督学习算法处理的数据集没有标记,算法需要自行在数据中寻找结构。强化学习则有所不同,智能体学习与环境进行交互,目标是最大化累积奖励函数。也就是说,智能体没有被提供定义正确行为的真实情况,而是通过奖励反馈来判断某个或一系列动作的好坏。智能体需要探索可能的动作序列空间,并学习如何最大化其奖励。
例如,Mnih及其同事展示了一个模型如何学习玩Atari视频游戏。智能体学习向游戏提供何种用户输入以最大化最终得分。它没有针对特定输入(屏幕上的像素)应采取何种用户动作的标记示例,而是必须探索可用动作集,并学习哪些动作能带来最佳累积奖励(游戏的最终得分)。
下面用表格总结这三种学习方式的区别:
| 学习方式 | 数据集特点 | 学习目标 |
| ---- | ---- | ---- |
| 监督学习 | 有标记数据集 | 学习特定真实情况 |
| 无监督学习 | 无标记数据集 | 寻找数据结构 |
| 强化学习 | - | 最大化累积奖励函数 |
## 3. 图像生成模型:VAE和GAN
在内容生成方面,我们已经看到语言模型可以根据句子开头生成合理的续写。在图像生成领域,有两种流行的模型:变分自编码器(VAE)和生成对抗网络(GAN)。
VAE基于普通自编码器,当自编码器经过训练能够重现图像后,网络的解码器部分可用于生成新图像。我们只需对中间表示进行轻微修改,期望解码器输出新的有效图像。但普通自编码器在这方面效果往往不佳,因为其训练方式不一定能保证中间表示的微小变化能产生正确或逼真的输出。VAE是自编码器的改进版本,其训练过程经过调整,以促使模型在这方面表现更准确。
GAN则采用了不同的方法。它训练两个不同的模型来完成不同的任务。一个是生成器,基于随机输入集生成图像,类似于自编码器的解码器基于狭窄的中间表示生成图像,但生成器网络没有要重现的真实图像。其目标是欺骗另一个网络——判别器。判别器经过训练,用于区分数据集中的真实图像和生成器生成的图像。这两个网络本质上是对抗性的,生成器不断提高欺骗判别器的能力,判别器则不断提高识破生成器的能力。最终效果是生成器能够基于随机输入生成与数据集中图像难以区分的图像,通过改变随机输入,可生成随机输出图像。
早期VAE有一定前景,但随着GAN的出现,VAE的受欢迎程度有所下降,因为GAN取得了更好的效果,特别是VAE生成的图像通常比较模糊。不过,近期有研究展示了一种VAE可用于生成清晰图像,这可能会重新引发对VAE领域的兴趣。
下面是VAE和GAN的对比流程图:
```mermaid
graph LR
classDef process fill:#E5F6FF,stroke:#73A6FF,stroke-width:2px
A[输入数据]:::process --> B[VAE]:::process
A --> C[GAN]:::process
B --> B1[编码器]:::process
B
```
0
0
复制全文
相关推荐










