活动介绍

图像分类与绘图识别应用开发指南

立即解锁
发布时间: 2025-08-30 00:33:49 阅读量: 12 订阅数: 17 AIGC
PDF

Swift实战AI开发指南

# 图像分类与绘图识别应用开发指南 ## 1. 图像分类模型集成到应用中 ### 1.1 前期准备 若要将训练好的水果识别模型集成到应用中,你需要先完成起始应用的搭建,可按照相关说明自行构建,也可从指定网站下载名为 `ICDemo - Starter` 的代码和项目。若不想手动添加 AI 功能,还能下载 `ICDemo - Complete` 项目。 ### 1.2 代码修改步骤 为使应用能与模型协同工作,需进行以下修改: 1. 在 `inputImage` 和 `classification` 旁添加新变量 `classifier`: ```swift private let classifier = VisionClassifier(mlmodel: BananaOrApple().model) ``` 2. 在 `viewDidLoad()` 末尾将新变量的委托设为 `self`,然后调用 `refresh()`: ```swift classifier?.delegate = self refresh() ``` 3. 在 `refresh()` 函数的第一个 `if` 语句末尾添加调用,禁用 `classifyImageButton`: ```swift classifyImageButton.disable() ``` 4. 替换 `classifyImage()` 的定义: ```swift private func classifyImage() { if let classifier = self.classifier, let image = inputImage { classifier.classify(image) classifyImageButton.disable() } } ``` ### 1.3 添加新文件及代码 接下来,在项目中添加名为 `Vision.swift` 的新 Swift 文件,并添加以下代码: ```swift import UIKit import CoreML import Vision extension VNImageRequestHandler { convenience init?(uiImage: UIImage) { guard let ciImage = CIImage(image: uiImage) else { return nil } let orientation = uiImage.cgImageOrientation self.init(ciImage: ciImage, orientation: orientation) } } class VisionClassifier { private let model: VNCoreMLModel private lazy var requests: [VNCoreMLRequest] = { let request = VNCoreMLRequest( model: model, completionHandler: { [weak self] request, error in self?.handleResults(for: request, error: error) }) request.imageCropAndScaleOption = .centerCrop return [request] }() var delegate: ViewController? init?(mlmodel: MLModel) { if let model = try? VNCoreMLModel(for: mlmodel) { self.model = model } else { return nil } } func classify(_ image: UIImage) { DispatchQueue.global(qos: .userInitiated).async { guard let handler = VNImageRequestHandler(uiImage: image) else { return } do { try handler.perform(self.requests) } catch { self.delegate?.summonAlertView( message: error.localizedDescription ) } } } func handleResults(for request: VNRequest, error: Error?) { DispatchQueue.main.async { guard let results = request.results as? [VNClassificationObservation] else { self.delegate?.summonAlertView( message: error?.localizedDescription ) return } if results.isEmpty { self.delegate?.classification = "Don't see a thing!" } else { let result = results[0] if result.confidence < 0.6 { self.delegate?.classification = "Not quite sure..." } else { self.delegate?.classification = "\(result.identifier) " + "(\(Int(result.confidence * 100))%)" } } self.delegate?.refresh() } } } ``` 在 `Vision.swift` 文件末尾添加以下扩展: ```swift extension UIImage { var cgImageOrientation: CGImagePropertyOrientation { switch self.imageOrientation { case .up: return .up case .down: return .down case .left: return .left case .right: return .right case .upMirrored: return .upMirrored case .downMirrored: return .downMirrored case .leftMirrored: return .leftMirrored case .rightMirrored: return .rightMirrored } } } ``` ### 1.4 模型导入与应用测试 将 `WhatsMyFruit.mlmodel` 文件拖入项目根目录,允许 Xcode 复制该文件。此时可在模拟器中启动应用,选择图像(若在真机上运行可拍照),点击 “Classify Image” 按钮,模型将进行分类,标签会更新显示分类结果。 ### 1.5 应用改进 若想让应用能对更多水果进行分类,可使用 Apple 的 CreateML 应用重新训练模型。选择 `Fruit - 360` 数据集中的完整 `Training` 文件夹(包含 103 种不同水果类别),训练新的图像分类模型。将新模型拖入 Xcode 项目,更新 `ViewController.swift` 中的以下代码: ```swift private let classifier = VisionClassifier(mlmodel: BananaOrApple().model) ``` 例如,若新模型名为 `Fruits360.mlmodel`,则更新为: ```swift private let classifier = VisionClassifier(mlmodel: Fruits360().model) ``` 重新启动应用,即可检测 103 种不同的水果。 ## 2. 绘图识别应用开发 ### 2.1 问题与解决思路 随着 iPad Pro 和 Apple Pencil 的出现,在苹果移动设备上绘图变得愈发流行。开发绘图识别应用有诸多用途,如开发绘图游戏、将绘制内容转换为表情符号等。我们将通过以下步骤探索绘图检测的实践方法: - 构建一个允许用户拍摄绘图照片并进行分类的应用。 - 寻找或组装数据,训练能对绘图进行分类的模型。 - 探索提升绘图分类效果的后续步骤。 ### 2.2 AI 工具包与数据集 此任务主要使用 Turi Create、CoreML 和 Vision 工具。我们将使用 Turi Create 训练绘图分类模型,再用 CoreML 和 Vision 与模型协作,对用户拍摄的绘图照片进行分类。 为训练模型,需要绘图数据集。Google 的 Quick Draw 数据集包含超过 5000 万张草图,分为 345 个类别。由于类别过多,训练时间较长,我们选择以下 23 个类别:苹果、香蕉、面包、西兰花、蛋糕、胡萝卜、咖啡杯、饼干、甜甜圈、葡萄、热狗、冰淇淋、棒棒糖、蘑菇、花生、梨、菠萝、披萨、土豆、三明治、牛排、草莓和西瓜。 ### 2.3 模型创建 #### 2.3.1 Python 环境搭建 按照相关流程搭建 Python 环境,激活环境并使用 `pip` 安装 Turi Create: ```bash conda create -n TuriCreateDrawingClassifierEnvironment python=3.6 conda activate TuriCreateDrawingClassifierEnvironment pip install turicreate ``` #### 2.3.2 创建 Python 脚本 创建名为 `train_drawing_classifier.py` 的新 Python 脚本,并添加以下代码: ```python #!/usr/bin/env python import os import json import requests import numpy as np import turicreate as tc ``` #### 2.3.3 配置变量 添加配置变量,包括要训练的类别列表: ```python # THE CATEGORIES WE WANT TO BE ABLE TO DISTINGUISH categories = [ 'apple', 'banana', 'bread', 'broccoli', 'cake', 'carrot', 'coffee cup', 'cookie', 'donut', 'grapes', 'hot dog', 'ice cream', 'lollipop', 'mushroom', 'peanut', 'pear', 'pineapple', 'pizza', 'potato', 'sandwich', 'steak', 'strawberry', 'watermelon' ] # CONFIGURE AS REQUIRED this_directory = os.path.dirname(os.path.realpath(__file__)) quickdraw_directory = this_directory + '/quickdraw' bitmap_directory = quickdraw_directory + '/bitmap' bitmap_sframe_path = quickdraw_directory + '/bitmaps.sframe' output_model_filename = this_directory + '/DrawingClassifierModel' training_samples = 10000 ``` #### 2.3.4 创建目录 添加函数创建用于存放训练数据的目录: ```python # MAKE SOME FOLDERS TO PUT TRAINING DATA IN def make_directory(path): try: os.makedirs(path) except OSError: if not os.path.isdir(path): raise make_directory(quickdraw_directory) make_directory(bitmap_directory) ``` #### 2.3.5 下载训练数据 下载用于训练的位图数据: ```python # FETCH SOME DATA bitmap_url = ( 'https://storage.googleapis.com/quickdraw_dataset/full/numpy_bitmap' ) total_categories = len(categories) for index, category in enumerate(categories): bitmap_filename = '/' + category + '.npy' with open(bitmap_directory + bitmap_filename, 'w+') as bitmap_file: bitmap_response = requests.get(bitmap_url + bitmap_filename) bitmap_file.write(bitmap_response.content) print('Downloaded %s drawings (category %d/%d)' % (category, index + 1, total_categories)) random_state = np.random.RandomState(100) ``` #### 2.3.6 创建 SFrames 添加函数从图像创建 SFrames: ```python def get_bitmap_sframe(): labels, drawings = [ ```
corwn 最低0.47元/天 解锁专栏
赠100次下载
继续阅读 点击查看下一篇
profit 400次 会员资源下载次数
profit 300万+ 优质博客文章
profit 1000万+ 优质下载资源
profit 1000万+ 优质文库回答
复制全文

相关推荐

张_伟_杰

人工智能专家
人工智能和大数据领域有超过10年的工作经验,拥有深厚的技术功底,曾先后就职于多家知名科技公司。职业生涯中,曾担任人工智能工程师和数据科学家,负责开发和优化各种人工智能和大数据应用。在人工智能算法和技术,包括机器学习、深度学习、自然语言处理等领域有一定的研究
最低0.47元/天 解锁专栏
赠100次下载
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
千万级 优质文库回答免费看

最新推荐

多视图检测与多模态数据融合实验研究

# 多视图检测与多模态数据融合实验研究 ## 1. 多视图检测实验 ### 1.1 实验数据集 实验参考了Wildtrack数据集和MultiviewX数据集,这两个数据集的特点如下表所示: | 数据集 | 相机数量 | 分辨率 | 帧数 | 区域面积 | | ---- | ---- | ---- | ---- | ---- | | Wildtrack | 7 | 1080×1920 | 400 | 12×36 m² | | MultiviewX | 6 | 1080×1920 | 400 | 16×25 m² | ### 1.2 评估指标 为了评估算法,使用了精度(Precision)、

利用Kaen实现PyTorch分布式训练及超参数优化

### 利用Kaen实现PyTorch分布式训练及超参数优化 #### 1. 启用PyTorch分布式训练支持 在进行模型训练时,我们可以使用Kaen框架来支持PyTorch的分布式训练。以下是相关代码示例: ```python train_glob = os.environ['KAEN_OSDS_TRAIN_GLOB'] if 'KAEN_OSDS_TRAIN_GLOB' in os.environ else 'https://raw.githubusercontent.com/osipov/smlbook/master/train.csv' val_glob = os.environ['

二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决

### 二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决 #### 1. 二维和三维偏微分方程耦合求解 在求解二维和三维偏微分方程时,有几个具体的问题和解决方法值得探讨。 ##### 1.1 获取相同网格点的 v 值 要在与 u 相同的网格点上获取 v 值,可以输入以下命令: ```matlab >> T_table=tri2grid(p,t,u(length(p)+1:end,end),x,y) ``` 示例结果如下: ``` T_table = 0.6579 0.5915 0.5968 0.6582 0 0.6042 0.4892 0.5073 0.6234 0 0.543

使用PyTorch构建电影推荐系统

### 使用 PyTorch 构建电影推荐系统 在当今数字化时代,推荐系统在各个领域都发挥着至关重要的作用,尤其是在电影推荐领域。本文将详细介绍如何使用 PyTorch 构建一个电影推荐系统,从数据处理到模型训练,再到最终的推荐生成,为你呈现一个完整的推荐系统构建流程。 #### 1. 数据探索与处理 首先,我们需要对 MovieLens 数据集进行探索和处理。该数据集包含用户对电影的评分信息,其中存在一些缺失的评分值,用 NaN 表示。我们的目标是利用非空评分训练推荐系统,并预测这些缺失的评分,从而为每个用户生成电影推荐。 以下是处理数据集的代码: ```python import p

利用PyTorch进行快速原型开发

### 利用 PyTorch 进行快速原型开发 在深度学习领域,快速搭建和验证模型是非常重要的。本文将介绍两个基于 PyTorch 的高级库:fast.ai 和 PyTorch Lightning,它们可以帮助我们更高效地进行模型的训练和评估。 #### 1. 使用 fast.ai 进行模型训练和评估 fast.ai 是一个基于 PyTorch 的高级库,它可以让我们在几分钟内完成模型的训练设置。下面是使用 fast.ai 训练和评估手写数字分类模型的步骤: ##### 1.1 模型训练日志分析 在训练过程中,我们可以看到冻结网络的第一个训练周期,然后是解冻网络的两个后续训练周期。日志中

模型生产化:从本地部署到云端容器化

# 模型生产化:从本地部署到云端容器化 ## 1. 引入 FastAPI 在将模型投入生产的过程中,我们首先要安装 FastAPI。由于 FastAPI 是一个 Python 模块,我们可以使用 pip 进行安装。打开一个新的终端,运行以下命令: ```bash $ pip install fastapi uvicorn aiofiles jinja2 ``` 这里我们安装了一些 FastAPI 所需的额外依赖项。uvicorn 是一个用于设置 API 的底层服务器/应用程序接口,而 aiofiles 则使服务器能够异步处理请求,例如同时接受和响应多个独立的并行请求。这两个模块是 FastA

强化学习与合成数据生成:UnityML-Agents深度解析

# 强化学习与合成数据生成:Unity ML - Agents 深度解析 ## 1. 好奇心奖励与超参数设置 在强化学习中,为了激发智能体的好奇心,可以传递与外在奖励相同的超参数。具体如下: - **好奇心奖励信号超参数**: - `reward_signals->curiosity->strength`:用于平衡好奇心奖励与其他奖励(如外在奖励)的缩放系数,取值范围在 0.0 到 1.0 之间。 - `reward_signals->curiosity->gamma`:根据奖励实现所需的时间来调整奖励感知价值的第二个缩放系数,与外在奖励的 `gamma` 类似,取值范围也在

模糊推理系统对象介绍

# 模糊推理系统对象介绍 ## 1. fistree 对象 ### 1.1 概述 fistree 对象用于表示相互连接的模糊推理系统树。通过它可以创建一个相互关联的模糊推理系统网络。 ### 1.2 创建方法 可以使用以下语法创建 fistree 对象: ```matlab fisTree = fistree(fis,connections) fisTree = fistree( ___ ,'DisableStructuralChecks',disableChecks) ``` - `fisTree = fistree(fis,connections)`:创建一个相互连接的模糊推理系统对象

PyTorch神经网络构建与训练全解析

### PyTorch 神经网络构建与训练全解析 #### 1. 特征标准化 在很多情况下,对特征进行标准化是一个很好的做法,即使并非总是必要(例如当所有特征都是二元特征时)。标准化的目的是让每个特征的值具有均值为 0 和标准差为 1 的特性。使用 scikit-learn 的 `StandardScaler` 可以轻松完成这一操作。 然而,如果你在创建了 `requires_grad=True` 的张量后需要进行标准化操作,就需要在 PyTorch 中直接实现,以免破坏计算图。以下是在 PyTorch 中实现特征标准化的代码: ```python import torch # Creat

电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模

# 电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模 ## 1. 锁相环(PLL) ### 1.1 锁相环原理 锁相环(PLL)是一种控制算法,用于确定正弦输入的频率和相位角。它主要用于两个系统之间的频率匹配,匹配完成后会存在一个恒定的相位差,从而实现相位“锁定”。PLL由相位检测机制、PID控制器和用于生成相位角信息的振荡器组成。此外,系统中还包含一个低通滤波器,用于获取正弦输入的频率信息。在柔性交流输电系统(FACTS)设备中,PLL增益对稳定系统性能起着至关重要的作用。 ### 1.2 Simulink环境下的PLL设置 为了直观展示PLL如何反映频率和相位的变化