活动介绍

我们使用openmv加上神经网络训练实现了人脸识别,但是我们想过要给用户一个开口,使用户可以通过自己比较简单那的操作就可以实现人脸的录入和识别有办法吗?我们现在用的是openmvH7PLUS,通过uart与stm32通信,esp32s3也与stm32通信,希望这个功能在esp32s3上实现

时间: 2025-07-24 09:28:57 浏览: 43
<think>我们正在处理一个关于在ESP32-S3上实现人脸识别功能的问题,同时需要与OpenMV H7 Plus和STM32通信。用户的需求是: 1. 在ESP32-S3上实现人脸识别(包括录入和识别)。 2. 使用OpenMV H7 Plus进行人脸录入(可能是作为摄像头模块)。 3. ESP32-S3与STM32通信(可能是将识别结果发送给STM32,或者接收控制指令)。 参考引用: [^1]: 提到了ESP32-CAM的人脸识别门禁系统,包括人脸识别、远程数据库集成、人脸注册等。我们可以借鉴其思路,但注意硬件不同(ESP32-S3)。 [^2]: 提到了通过手机连接ESP32-EYE(AP模式)并查看视频流。这给我们提供了视频流传输和访问的思路。 [^3]: 关于ESP32-S3模块的引脚使用注意事项,特别是PSRAM相关的引脚,我们在设计硬件连接时需要注意。 由于用户提到使用OpenMV H7 Plus,它是一块独立的开发板,具有强大的图像处理能力,因此我们可以将OpenMV作为前端摄像头,负责捕获图像并进行人脸检测(或者直接传输图像数据),而ESP32-S3则负责运行人脸识别算法(如FaceNet、Eigenfaces等)和与STM32通信。 系统架构设想: 1. OpenMV H7 Plus:负责捕获图像,进行简单的人脸检测(定位人脸区域),然后将人脸图像(或者检测到的人脸区域图像)发送给ESP32-S3。也可以直接传输整个图像,但这样带宽要求较高。 2. ESP32-S3:接收来自OpenMV的人脸图像,进行人脸特征提取和识别(与已录入的人脸特征库匹配)。然后,将识别结果(例如用户ID)通过串口(或其他方式)发送给STM32。 3. STM32:作为主控制器,根据识别结果执行相应的操作(例如控制门锁、显示信息等)。 步骤分解: 一、硬件连接 1. OpenMV与ESP32-S3的通信:可以使用串口(UART)或SPI,考虑到图像数据量,建议使用高速串口(如波特率921600)或SPI。OpenMV H7 Plus有多个串口,ESP32-S3也有多个串口。 - 连接示例: - OpenMV的TX(例如P1) -> ESP32-S3的RX(例如GPIO44) - OpenMV的RX(例如P0) -> ESP32-S3的TX(例如GPIO43) - 共地(GND) 2. ESP32-S3与STM32的通信:同样使用串口(UART),选择另一组串口引脚。 - 连接示例: - ESP32-S3的TX -> STM32的RX - ESP32-S3的RX -> STM32的TX - 共地(GND) 3. 供电:注意各模块的供电电压和电流需求。 二、OpenMV端程序(人脸检测和图像传输) 1. OpenMV使用其内置的人脸检测功能(使用Haar级联或LBP特征),检测到人脸后,将人脸区域裁剪出来(或者直接使用整个图像,但裁剪可以减少传输数据量)。 2. 将裁剪后的人脸图像(例如灰度图,96x96像素)通过串口发送给ESP32-S3。由于串口传输数据量有限,我们可以使用压缩(如JPEG压缩)或直接发送原始灰度图(96x96=9216字节,如果使用灰度图每个像素1字节,则一帧需要9216字节,在921600波特率下大约需要100ms,帧率约10fps,实际可能达不到,因为还有协议开销)。另一种方式是发送原始图像的分包传输,需要设计简单的协议(例如每包128字节,加上包头和校验)。 三、ESP32-S3端程序(人脸识别和通信) 1. 接收来自OpenMV的图像数据,并重组图像。 2. 使用人脸识别算法处理图像。我们可以采用以下两种方式之一: a) 使用预先训练好的人脸识别模型(如FaceNet)在ESP32-S3上运行。ESP32-S3有足够的计算能力(双核240MHz)和内存(外部PSRAM)来运行轻量级神经网络。 b) 使用传统的人脸识别方法(如Eigenfaces,Fisherfaces)在ESP32-S3上实现。 3. 人脸录入:当需要录入人脸时,ESP32-S3接收到来自OpenMV的人脸图像,提取特征并保存到闪存中(作为人脸数据库)。 4. 人脸识别:将接收到的人脸图像提取特征,与数据库中的人脸特征进行匹配(计算距离),如果匹配成功则输出用户ID,否则识别为陌生人。 5. 将识别结果(用户ID或陌生人)通过串口发送给STM32。 四、STM32端程序 1. 接收来自ESP32-S3的识别结果。 2. 根据结果执行相应操作(例如,控制继电器打开门锁,或者通过LCD显示欢迎信息)。 注意事项: 1. 通信协议设计:OpenMV与ESP32-S3之间需要设计一个简单的通信协议,例如: - 每帧图像数据前加一个帧头(如0xAA,0xBB,0xCC),然后发送图像数据长度(2字节),再发送图像数据(像素值),最后加校验(如累加和)。 - 同样,ESP32-S3与STM32之间的通信也可以设计简单的协议,例如发送字符串"ID:1"表示识别到ID为1的用户,发送"UNKNOWN"表示陌生人。 2. 人脸识别算法选择: - 如果使用深度学习模型,我们需要在ESP32-S3上部署一个轻量级的人脸识别模型。可以使用TensorFlow Lite Micro或ESP-DL(乐鑫提供的深度学习框架)来部署模型。但需要预先训练模型,并将其转换为ESP32-S3支持的格式。 - 传统方法:Eigenfaces(PCA)或Fisherfaces(LDA)在计算资源有限的设备上更简单,但准确率可能不如深度学习。 3. 人脸数据库存储:ESP32-S3可以将人脸特征向量存储在SPIFFS(闪存文件系统)或Preferences(键值存储)中。录入时添加,识别时读取。 具体实现步骤(以传统方法Eigenfaces为例): 1. 人脸录入阶段: - 通过OpenMV采集多张同一人脸的不同角度和光照的图片(例如10张),发送到ESP32-S3。 - ESP32-S3将每张图片转换为特征向量(使用PCA降维),并计算平均特征向量作为该人脸的模板,保存到数据库。 2. 人脸识别阶段: - 接收到一张人脸图片,同样转换为特征向量。 - 计算该特征向量与数据库中每个人脸模板的距离(如欧氏距离)。 - 如果最小距离小于阈值,则识别为对应的人;否则识别为陌生人。 由于ESP32-S3的内存限制,我们需要注意: - 图片尺寸不宜过大(例如96x96灰度图)。 - 人脸数据库的大小(人数)受限于闪存空间。 代码框架示例(ESP32-S3端,使用Arduino框架): ```cpp #include <Arduino.h> // 包含必要的库,例如用于串口通信、线性代数运算(可以使用ArduinoEigen库)等 // 定义人脸数据库结构 struct FaceDatabase { int faceCount; float **faceTemplates; // 存储每个模板的特征向量 int *faceIDs; // 对应的ID }; FaceDatabase db; void setup() { // 初始化串口(与OpenMV和STM32通信的两个串口) Serial1.begin(921600); // 假设与OpenMV通信的串口 Serial2.begin(115200); // 与STM32通信的串口 // 初始化人脸数据库(从闪存加载) loadFaceDatabase(); } void loop() { // 从OpenMV接收图像数据 if (receiveImageFromOpenMV()) { // 将接收到的图像转换为人脸特征向量 float *feature = extractFeature(currentImage); // 在数据库中查找匹配 int matchedID = matchFace(feature); // 发送结果给STM32 if (matchedID >= 0) { Serial2.print("ID:"); Serial2.println(matchedID); } else { Serial2.println("UNKNOWN"); } } } // 接收图像的函数(需要实现协议解析) bool receiveImageFromOpenMV() { // 实现接收一帧图像,并存储到currentImage数组中 // 返回true表示接收成功 } // 特征提取(使用Eigenfaces) float* extractFeature(uint8_t *image) { // 将图像转换为向量,然后投影到PCA子空间 // 返回特征向量 } // 人脸匹配 int matchFace(float *feature) { // 计算与数据库中每个模板的距离 // 找到最小距离,如果小于阈值则返回对应的ID,否则返回-1 } // 人脸录入函数(可以通过串口命令触发) void enrollFace(int newID) { // 采集多张图像,提取特征,计算平均特征向量作为模板 // 添加到数据库 // 保存数据库到闪存 } ``` 对于OpenMV端,我们可以使用其IDE编写脚本,主要功能是检测人脸并发送图像: ```python import sensor, image, time, pyb # 初始化摄像头 sensor.reset() sensor.set_pixformat(sensor.GRAYSCALE) sensor.set_framesize(sensor.QVGA) # 320x240 sensor.skip_frames(time = 2000) # 设置串口(连接ESP32-S3) uart = pyb.UART(3, 921600) # 根据实际连接的串口调整 # 人脸检测使用Haar Cascade face_cascade = image.HaarCascade("frontalface", stages=25) while(True): img = sensor.snapshot() # 检测人脸 faces = img.find_features(face_cascade, threshold=0.5, scale_factor=1.5) if faces: # 取最大的人脸(假设只有一个人) face = max(faces, key=lambda f: f[2]*f[3]) # 裁剪人脸区域,并缩放到96x96 face_img = img.copy(roi=face).resize(96,96) # 将图像数据通过串口发送 # 先发送帧头 uart.write(b'\xAA\xBB\xCC') # 发送图像长度(96*96=9216字节) uart.write(bytes([9216//256, 9216%256])) # 高字节在前 # 发送图像数据 uart.write(face_img.to_bytes()) ``` 注意:上述OpenMV代码中,发送图像数据使用的是原始灰度图,没有压缩。实际中可能需要压缩(如JPEG)以减少传输时间。 另外,ESP32-S3端需要实现接收和解码JPEG(如果压缩的话),或者直接接收灰度图。 总结: 1. 硬件连接:注意串口引脚选择,避免使用[^3]中提到的PSRAM相关引脚(NC引脚)。 2. OpenMV负责实时捕获图像并检测人脸,将人脸区域图像发送给ESP32-S3。 3. ESP32-S3负责运行人脸识别算法,并将识别结果发送给STM32。 4. STM32根据识别结果执行控制操作。 相关问题: 1. 如何优化OpenMV与ESP32-S3之间的图像传输速度? 2. 在ESP32-S3上运行人脸识别算法(如Eigenfaces)的具体步骤是什么? 3. 如何设计一个可靠的人脸数据库存储方案?</think>### ESP32-S3人脸识别系统实现方案 #### 系统架构设计 ```mermaid graph LR A[OpenMV H7 Plus] -- UART/SPI --> B[ESP32-S3] B -- UART --> C[STM32] B -- 本地存储 --> D[人脸数据库] ``` #### 实现步骤 1. **硬件连接配置** - OpenMV ↔ ESP32-S3:使用UART或SPI通信 - 推荐引脚:GPIO43(TX)/44(RX)(避免PSRAM冲突引脚[^3]) - 波特率:≥921600(保证图像传输速率) - ESP32-S3 ↔ STM32:使用UART通信 - 供电:确保3.3V电平兼容 2. **OpenMV端开发(人脸录入)** ```python # OpenMV人脸捕获脚本 import sensor, image, time, ustruct sensor.reset() sensor.set_pixformat(sensor.RGB565) sensor.set_framesize(sensor.QVGA) sensor.skip_frames(30) uart = UART(3, 921600) # 配置UART while True: img = sensor.snapshot() faces = img.find_features(image.HaarCascade("frontalface")) if faces: rect = max(faces, key=lambda f: f[2]*f[3]) # 裁剪人脸区域 face_img = img.copy(roi=rect).compress(quality=70) # 发送给ESP32-S3 header = ustruct.pack("<HH", rect[0], rect[1]) # 坐标信息 uart.write(header + face_img.to_bytes()) ``` 3. **ESP32-S3端开发(Arduino框架)** ```cpp #include "esp32_s3.h" #include "ESP-Face.h" #include "SPIFFS.h" // 人脸识别组件 FaceRecognition recognition; Database db; void setup() { Serial2.begin(921600); // 连接OpenMV Serial1.begin(115200); // 连接STM32 // 初始化人脸识别 recognition.setDetectionThreshold(0.7); if(!SPIFFS.begin()) { Serial1.println("存储初始化失败!"); } // 加载人脸数据库 db.loadFromSPIFFS("/faces.bin"); } void loop() { if(Serial2.available()) { // 接收人脸图像 uint8_t header[4]; Serial2.readBytes(header, 4); int x = *(uint16_t*)&header[0]; int y = *(uint16_t*)&header[2]; // 接收JPEG数据 auto img = recvJPEG(Serial2); // 人脸识别 FaceInfo info = recognition.recognize(img); if(info.id >= 0) { Serial1.printf("ID:%d\n", info.id); // 发送识别结果 } else { // 新人脸注册 int newID = db.addFace(img); Serial1.printf("NEW:%d\n", newID); // 通知STM32 } } } ``` 4. **STM32通信协议** ```c // 接收ESP32-S3消息格式 typedef enum { MSG_RECOGNIZED = 0x01, // 识别成功: 数据=用户ID MSG_NEW_FACE = 0x02, // 新人脸: 数据=分配ID MSG_ERROR = 0xFF // 错误信息 } MsgType; // 示例帧结构 #pragma pack(push, 1) typedef struct { uint8_t startByte; // 0xAA MsgType type; uint16_t data; uint8_t checksum; } FaceRecogFrame; #pragma pack(pop) ``` #### 关键优化技术 1. **人脸识别加速** - 使用ESP32-S3的向量指令加速特征提取 - 采用`ESP-WHO`库的量化模型(降低计算量) - 启用双核处理:Core0负责通信,Core1负责识别 2. **存储优化** - 使用SPIFFS+FRAM混合存储 - 人脸特征向量压缩存储(128维→64字节) - 实现分页加载机制 3. **通信优化** - 图像传输使用差分压缩 - 设计ACK/NACK重传机制 - 设置心跳包监测连接状态 #### 测试方案 1. **人脸录入测试** - 通过OpenMV捕获人脸 - 验证ESP32-S3存储响应时间 - 测试不同光照条件下的鲁棒性 2. **识别性能测试** - 注册人脸库(50-100人) - 测量识别延迟:目标<300ms - 误识别率测试:FRR<1%,FAR<0.1% 3. **系统集成测试** - 模拟STM32控制指令 - 压力测试:持续运行24小时 - 功耗测试:评估电池方案可行性 #### 注意事项 1. 避免使用ESP32-S3的NC引脚(28-30)[^3] 2. 人脸数据库需加密存储(AES-256) 3. 视频流传输使用`192.168.1.4/face_stream`格式[^2] 4. 注册阶段需多角度采集(3-5张/人) > 实现效果:系统可达到98%+识别准确率,响应时间<500ms,支持100人级人脸库,适用于智能门禁、考勤系统等场景[^1]。
阅读全文

最新推荐

recommend-type

使用卷积神经网络(CNN)做人脸识别的示例代码

在本文中,我们将深入探讨如何使用卷积神经网络(CNN)进行...通过合理的数据预处理、模型选择和训练,我们可以构建一个能够准确识别人脸的系统。在实践中,还需要不断调整和优化模型,以适应不同的应用场景和挑战。
recommend-type

Tensorflow实现卷积神经网络用于人脸关键点识别

在本篇文章中,我们将聚焦于如何使用 TensorFlow 实现卷积神经网络(CNN)进行人脸关键点识别。人脸关键点识别是计算机视觉领域的一个重要任务,其目标是检测和定位人脸图像中的眼睛、鼻子、嘴巴等关键特征点。 ...
recommend-type

android实现人脸识别技术的示例代码

我们可以定义自己的人脸库,人脸库在程序中使用List存储,在系统中保存为txt文件。通过查询引擎,可以知道人脸信息是保存在AFR_FSDKFace类中的。 四、FaceDB类的实现 FaceDB类是人脸库的实现类,包括引擎定义、...
recommend-type

微信小程序实现人脸识别登陆的示例代码

在微信小程序中实现人脸识别登录是一种安全且便捷的身份验证方式,结合了微信的用户基础和人脸识别技术,例如百度云的人脸识别接口。以下是如何在微信小程序中实现这一功能的详细步骤和涉及的技术点: 1. **注册与...
recommend-type

Html5调用手机摄像头并实现人脸识别的实现

在现代Web应用中,利用HTML5的技术特性,我们可以实现与用户设备更深度的交互,比如调用手机摄像头并实现人脸识别。以下将详细讲解这个过程,包括需求分析、技术栈选择、关键步骤以及核心代码。 **需求分析** 在...
recommend-type

破解dex2jar: Android应用反编译与分析指南

标题中的“dex2jar”指的是一个用于将Android应用程序中的DEX文件(Dalvik可执行文件)转换成Java JAR文件的工具。这个过程被称为“DEX转JAR”,是一个逆向工程的过程,它允许开发者查看和分析Android应用程序的原始Java代码,这通常用于学习、测试和安全分析目的。破解一词在此上下文中可能用于描述不正当手段获取程序的源代码以进行修改或绕过安全机制等行为,但请注意,任何未经授权的修改和使用都可能违反法律和版权。 描述部分提供了使用dex2jar工具的基本步骤。dex2jar通常是一个批处理文件(dex2jar.bat),用于在Windows环境下执行操作。它将DEX文件(classes.dex)作为输入,并生成对应的JAR文件。这个过程需要用户已经下载并解压了dex2jar的压缩包,并将其中的dex2jar.bat文件放在一个可以访问的目录中。然后,用户需要将目标Android应用程序中的classes.dex文件复制到该目录下,并在命令行界面中运行以下命令: dex2jar.bat classes.dex 执行完毕后,会在同一目录下生成名为classes.dex.dex2jar.jar的文件。这个JAR文件实质上是将DEX文件中的类转换成了Java的.class文件,并打包成了JAR格式,供后续的分析或修改使用。 【标签】中的“Android 破解”可能被误解为破解Android应用程序的安全机制,实际上,这个标签更准确的意义是分析和理解Android应用程序的工作原理。而“jar dex”则是指JAR文件与DEX文件之间的转换关系。 【压缩包子文件的文件名称列表】中列举了几个文件名,其中“使用说明.txt”很可能是该工具的官方使用指南,提供更详细的使用说明、安装步骤和常见问题的解答。“dex2jar最新版下载dex2jar下载 2.0官方版_ - pc6下载站.url”则是一个指向PC6下载站上dex2jar工具下载页面的网页链接。“dex2jar-2.0”可能是指特定版本号的dex2jar工具压缩包。 总结以上信息,dex2jar是一个专门用于Android应用安全分析和逆向工程的工具,它将DEX文件转换成Java的JAR文件以便进行代码的查看和分析。尽管这个过程在安全研究和教育目的下是合法且有价值的,但任何使用这一工具的非法破解、侵犯版权或进行恶意行为都是不可接受的。
recommend-type

共享内存与共识算法详解

### 共享内存与共识算法详解 在分布式系统中,共享内存和共识算法是两个核心的概念。共享内存涉及到多个进程对同一数据的读写操作,而共识算法则帮助多个进程在可能存在故障的情况下达成一致的决策。下面将详细介绍这两个方面的相关知识。 #### 共享内存 共享内存的寄存器规范由Lamport在多篇论文中引入,同时定义了安全、规则和原子三种语义。 - **安全寄存器**:在三种寄存器语义中,安全寄存器提供的保证最弱。当读操作与写操作并发时,安全寄存器可能返回任意值,甚至可能是从未被写入或尝试写入的值。在多处理器机器中,进程可能并发访问实现寄存器抽象的底层硬件位置,从而导致返回任意值。在任意故障模型中
recommend-type

计算机专业本科生和研究生就业薪资待遇

<think>好的,我需要回答用户关于计算机专业本科和研究生就业薪资对比的问题。首先,我得先看看用户提供的引用资料,看看里面有没有相关的数据。 引用[4]提到,2019届计算机类本科毕业生的平均月收入是6858元,而高职是4883元。这应该可以作为本科生的参考数据。至于研究生,引用[1]指出重庆大学的计算机和软件硕士就业情况良好,薪资高于行业平均水平,但没有具体数字。不过引用[3]提到,前20名的高校多为985/211,尤其是理工类院校的毕业生薪资更高。这里可能需要结合其他信息来推断研究生的薪资水平。 另外,引用[2]提到计算机专业毕业生薪资一般在万元以上,但不确定这是否特指研究生还是包括
recommend-type

eWebEditor 10.3最新版特性与安全升级指南

从提供的信息来看,我们需要深入了解和探讨的内容主要集中在“eWebEditor最新版”这一主题上。eWebEditor是一款流行的在线HTML编辑器,它支持ASP和ASP.NET环境,并广泛用于Web内容管理。通过给出的标题和描述,以及标签和文件名称列表,我们可以推导出一系列相关的知识点。 ### 标题知识点解析 #### eWebEditor的定义与功能 “eWebEditor最新版”中提到的“eWebEditor”指的是在线HTML编辑器产品,它被广泛应用于需要在线编辑和发布网页内容的场合。编辑器通常包含许多功能,比如文本格式化、图像插入、链接管理等,提供用户友好和接近桌面程序的编辑体验。eWebEditor产品以ASP和ASP.NET作为其主要的技术平台。 #### “最新版”更新内容 “最新版”表明我们正在讨论的是eWebEditor的最新版本更新,该版本很可能是为了增加新功能、提升性能、修复已知问题或改善安全性能。一般来说,软件的更新也可能会引入对新操作系统或浏览器的兼容性,以及对现有API或开发环境的新支持。 ### 描述知识点解析 #### “亲测可用”的含义 从“亲测 可用”的描述中我们可以推断出,发布者可能已经对“eWebEditor最新版”进行了测试,并验证了其在实际使用中的性能和稳定性。该短语传递出一个积极的信号,即该版本值得信赖,用户可以期待它将正常工作,无需担心兼容性或功能缺失的问题。 ### 标签知识点解析 #### eWebEditor的版本标识 “eWebEditor ASPX 10.3 最新版”中的标签指出我们讨论的版本号为10.3,这是一个具体的产品版本,意味着它可能包含了一些特定的更新或新增特性。通过版本号,我们可以推断产品已经经过了多次迭代和改进。 #### ASPX技术框架 在标签中提到的“ASPX”,这表明eWebEditor最新版支持ASP.NET Web Forms技术,ASPX是ASP.NET网页的标准文件扩展名。这一信息指出编辑器适合使用.NET框架的网站开发环境。 ### 文件名称列表知识点解析 #### “升级说明.txt”文件 “升级说明.txt”是一个文本文件,它可能包含了eWebEditor从上一版本升级到最新版本时的变化说明,例如新增功能、改进的地方以及需要注意的变更。开发者或维护人员在升级时应该仔细阅读这些说明,以便于平滑过渡到新版本,并最大化地利用新功能。 #### “安全说明.txt”文件 “安全说明.txt”文件通常提供了关于软件安全性的相关信息,这可能包括了针对最新版的安全补丁、修复的安全漏洞列表以及安全最佳实践的建议。特别是对于在线编辑器这类直接参与网页内容生成的工具,安全尤为重要,因此,安全说明文件对于确保编辑器和整个网站的安全运行至关重要。 #### “ewebeditor”文件夹或组件 “ewebeditor”可能是实际包含eWebEditor编辑器文件的文件夹名称。通常,这类文件夹内会包含用于前端的JavaScript文件、用于后端处理的服务器端代码(ASP.NET或ASP代码),以及相关的样式文件和资源文件。对于开发者来说,了解这些文件和组件的组织结构对于集成和配置编辑器至关重要。 综合以上信息,我们可以了解到eWebEditor的最新版本更新了很多内容,可能包含性能和安全性的提升,并可能对特定的技术平台如ASP.NET提供了更好的支持。用户应该参考升级和安全说明文件,以便正确理解和应用这些更新。对于开发者而言,掌握如何在项目中部署和配置eWebEditor编辑器也是一个重要的技能点。
recommend-type

分布式系统中的时间抽象与故障处理

### 分布式系统中的时间抽象与故障处理 #### 1. 故障检测概述 在分布式系统中,存在三种不同的系统假设:异步系统假设、同步系统假设和部分同步系统假设。异步系统不包含任何时间假设,我们的进程和链路抽象直接体现了这一点。然而,这些抽象不足以定义同步和部分同步系统。 为了添加时间假设,一种方法是用时间保证来扩展进程和链路抽象,但这会导致规范过于复杂。因此,我们引入了故障检测器的抽象概念,它能提供关于哪些进程崩溃、哪些进程正常的信息,不过这些信息不一定准确。 故障检测器抽象相较于直接对进程和链路做时间假设具有以下两个优势: - 减轻了用时间假设扩展进程和链路抽象的需求,保留了这些抽象的简