AI应用的部署、维护、扩展与测试全攻略
立即解锁
发布时间: 2025-08-30 01:10:54 阅读量: 14 订阅数: 23 AIGC 

### 人工智能应用的部署、维护与扩展
#### 1. 部署 TensorFlow 模型到 GCP
当提交训练任务后,会收到任务已启动的提示。可登录 Cloud ML 控制台查看进度,Jobs 按钮能深入查看错误、训练进度等信息。脚本会将 SavedModel 二进制文件输出到云存储桶。
若要在 GCP 平台部署 TensorFlow SavedModel,可将整个 SavedModel 目录上传到 GCP 的存储位置,或者像之前那样在云端训练。无论采用哪种方法,TensorFlow 模型的二进制文件都应存储在 Google Cloud Storage 中,且模型二进制文件是训练后创建的,扩展名为 .pb。
部署步骤如下:
1. **创建部署模型对象**:
```bash
gcloud ml-engine models create "deployed_classifier"
```
2. **设置环境变量**:
```bash
DEPLOYMENT_SOURCE="gs://classifier_bucket123/classifier_model/binaries"
```
3. **部署分类器**:
```bash
gcloud ml-engine versions create "version1" \
--model "deployed_classifier" --origin $DEPLOYMENT_SOURCE --runtime-version 1.9
```
#### 2. 获取模型预测结果
在请求预测之前,需要设置一些变量。输入数据文件是一个包含单行数据的 json 文件,例如 GitHub 文件夹中的 test.json。
```bash
MODEL_NAME="deployed_classifier"
INPUT_DATA_FILE="test.json"
VERSION_NAME="version1"
```
运行预测请求:
```bash
gcloud ml-engine predict --model $MODEL_NAME \
--version $VERSION_NAME \
--json-instances $INPUT_DATA_FILE
```
此时模型已托管在云端,会返回一个 json 对象,包含欺诈或非欺诈两种潜在分类的概率。
#### 3. 使用 API 进行预测
要使用 API 进行预测,首先需要创建一个 Google Cloud 服务账户密钥,以便应用程序可以访问模型。步骤如下:
1. 访问链接 https://console.cloud.google.com/apis/credentials/serviceaccountkey,创建一个新账户,并将密钥下载为 JSON 文件。
2. 设置环境变量:
```bash
GOOGLE_APPLICATION_CREDENTIALS = your_key.json
```
3. 创建 predict.py 脚本:
```python
from oauth2client.client import GoogleCredentials
from googleapiclient import discovery
ml = discovery.build('ml','v1')
def predict():
item = {"x": [-0.23477546, -0.4932691 , 1.23672756, -2.33879318,
-1.17673345, 0.88573295, -1.96098116, -2.36341211, -2.69477418, 0.36021476,
1.61549548, 0.44
```
0
0
复制全文
相关推荐










