神经网络训练与测试:从原理到实践
立即解锁
发布时间: 2025-08-31 01:30:10 阅读量: 11 订阅数: 17 AIGC 

### 神经网络训练与测试:从原理到实践
在机器学习和神经网络领域,训练和测试过程是确保模型准确性和可靠性的关键环节。本文将详细探讨神经网络的训练过程、训练结果以及测试数据集的处理和测试逻辑,同时展示测试结果,帮助你深入理解整个流程。
#### 1. 训练过程
在大多数情况下,训练方法的逻辑与之前的示例相似,但有一个特殊部分需要详细讨论。当处理函数值非常小的情况时,计算得到的误差会更小,甚至可能达到小数点后有14个或更多零的微观值,例如 `0.000000000000025`。在这种情况下,我们会对计算的准确性产生质疑。
为了解决这个问题,代码中采用了一种特殊的误差处理方法。不再简单地调用 `train.getError()` 方法来确定网络误差,而是使用配对数据集从网络中检索每个周期的输入、实际和预测函数值,对这些值进行反归一化处理,并计算计算值与实际值之间的误差百分比差异。当这个差异小于误差限制时,以返回码0退出配对循环。
以下是使用实际函数值检查误差的代码示例:
```java
int epoch = 1;
double tempLastErrorPerc = 0.00;
do
{
train.iteration();
epoch++;
for (MLDataPair pair1: trainingSet)
{
MLData inputData = pair1.getInput();
MLData actualData = pair1.getIdeal();
MLData predictData = network.compute(inputData);
// 这些值是归一化的,因为整个输入都是
normTargetPriceDiffPerc = actualData.getData(0);
normPredictPriceDiffPerc = predictData.getData(0);
denormTargetPriceDiffPerc = ((targetPriceDiffPercDl -
targetPriceDiffPercDh)*normTargetPriceDiffPerc -
Nh*targetPriceDiffPercDl +
targetPriceDiffPercDh*Nl)/(Nl - Nh);
denormPredictPriceDiffPerc =((targetPriceDiffPercDl -
targetPriceDiffPercDh)*normPredictPriceDiffPerc -
Nh*targetPriceDiffPercDl +
targetPriceDiffPercDh*Nl)/(Nl - Nh);
inputPriceFromFile = arrPrices[rBatchNumber+12];
realDenormTargetPrice = inputPriceFromFile +
inputPriceFromFile*denormTargetPriceDiffPerc/100;
realDenormPredictPrice = inputPriceFromFile +
inputPriceFromFile*denormPredictPriceDiffPerc/100;
realDenormTargetToPredictPricePerc = (Math.
abs(realDenormTargetPrice -
realDenormPredictPrice)/realDenormTargetPrice)*100;
}
if (epoch >= 500 && realDenormTargetToPredictPricePerc > 0.00091)
{
returnCodes[0] = 1;
returnCodes[1] = rBatchNumber;
returnCodes[2] = intDayNumber-1;
return returnCodes;
}
} while(realDenormTargetToPredictPricePerc > 0.0009);
```
#### 2. 训练结果
训练结果记录了每个月的目标价格、预测价格以及两者之间的差异。以下是部分训练结果示例:
| Month | targetPrice | predictPrice | diff |
| --- | --- | --- | --- |
| 1 | 1239.94000 | 1239.93074 | 7.46675E-4 |
| 2 | 1160.33000 | 1160.32905 | 8.14930E-5 |
| 3 | 1249.46000 | 1249.44897 | 8.82808E-4 |
|... |... |... |... |
日志显示,由于使用了微批量方法,对这个非连续函数的近似结果相当不错。最大误差百分比小于 `0.000761%`,平均误差百分比小于 `0.00000634%`。
训练过程的流程图如下:
```mermaid
graph TD;
A[开始训练] --> B[迭代训练];
B --> C[获取输入、实际和预测值];
C --> D[反归一化处理];
D --> E[计算误差百分比差异];
E --> F{差异是否小于误差限制};
F -- 是 --> G[退出循环];
F -- 否 --> H{迭代次数是否大于等于500且差异大于0.00091};
H -- 是 --> I[返回结果];
H -- 否 --> B;
```
#### 3. 测试数据集
测试数据集的格式与训练数据集相同。我们的目标是根据十年的历史数据预测下个月的市场价格,因此测试数据集与训练数据集相同,但在末尾应包含一个额外的微批量记录,用于下个月的价格预测(超出网络训练范围)。
以下是价格差异测试数据集的一个片段:
| priceDiffPerc | targetPriceDiffPerc | Date | inputPrice |
| --- | --- | --- | --- |
| 5.840553677 | 5.857688372 | 199704 | 801.34 |
| 5.857688372 | 4.345263356 | 199705 | 848.28 |
| 4.345263356 | 7.814583004 | 199706 | 885.14 |
|... |... |... |... |
同时,还展示了归一化测试数据集和滑动窗口测试数据集的片段,这些数据集用于测试训练好的网络。
#### 4. 测试逻辑
测试逻辑中有许多新的代码片段。我们在测试微批量数据集的循环中加载微批量数据集和相应保存的网络。对于有保存网络记录的测试记录,我们从网络中获取输入、实际和预测价格值,进行归一化处理,并计算实际和预测的真实价格。
然而,测试数据集中的最后一个微批量记录没有保存的网络文件,因为网络没有针对该点进行训练。对于这个记录,我们检索其12个 `inputPriceDiffPerc` 字段,这些字段是网络训练期间使用的键。然后,我们搜索保存在内存数组(如 `linkToSaveInputPriceDiffPerc_00`、`linkToSaveInputPriceDiffPerc_01` 等)中的所有保存网络文件的键。
具体搜索方法是,对于正在处理的微批量,使用欧几里得几何计算12D空间中的向量值。对于每个保存网络的键集,也计算其向量值。选择与处理记录的键集最接近匹配的网络键,并将其加载到内存中。最后,从该网络中获取输入、活动和预测值,进行反归一化处理,并计算实际和预测的真实值。
以下是选择保存网络记录的代码逻辑:
```java
static public void loadAndTestNetwork()
{
List<Double> xData = new ArrayList<Double>();
List<Double> yData1 = new ArrayList<Double>();
List<Double> yData2 = new ArrayList<Double>();
int k1 = 0;
int k3 = 0;
BufferedReader br4;
BasicNetwork network;
try
{
// 处理测试批次
maxGlobalResultDiff = 0.00;
averGlobalResultDiff = 0.00;
sumGlobalResultDiff = 0.00;
for (k1 = 0; k1 < intNumberOfBatchesToProcess; k1++)
{
br4 = new BufferedReader(new FileReader(strTestingFileNames[k1]));
tempLine = br4.readLine();
// 跳过标签记录
tempLine = br4.readLine();
// 使用逗号作为分隔符分割行
tempWorkFields = tempLine.split(cvsSplitBy);
recordNormInputPriceDiffPerc_00 = Double.parseDouble(tempWork
Fields[0]);
recordNormInputPriceDiffPerc_01 = Double.parseDouble(tempWork
Fields[1]);
//... 其他字段解析
recordNormTargetPriceDiffPerc = Double.parseDouble(tempWork
Fields[12]);
if(k1 < 120)
{
// 加载当前记录的网络
network =
(BasicNet
```
0
0
复制全文
相关推荐









