python深度学习stadardscalar fit_transform数据处理、contrib使用、Session多种创建、in_top_k、argmax、equal、cas、extend map

本文详细介绍了使用StadardScalar()进行数据预处理的方法,包括去均值和方差归一化,以及如何在TensorFlow中正确使用第三方库和会话(Session)管理。同时,深入探讨了计算网络准确度的不同方式,包括in_top_k()和argmax()函数的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、StadardScalar()与fit_transform()

  其StadardScalar是去均值和进行方差归一化,其是对数据的每一个特征维度进行的操作,即对所有最小的元素进行操作,而不是针对一个样本。其要完成这个功能需要配合fit_transform()函数进行。

其实例代码如下:

# coding=utf-8
# 统计训练集的 mean 和 std 信息
from sklearn.preprocessing import StandardScaler
import numpy as np


def test_algorithm():
    np.random.seed(123)
    print('use sklearn')
    # 注:shape of data: [n_samples, n_features]
    data = np.random.randn(10, 4)
    scaler = StandardScaler()
    scaler.fit(data)
    trans_data = scaler.transform(data)
    print('original data: ')
    print data
    print('transformed data: ')
    print trans_data
    print('scaler info: scaler.mean_: {}, scaler.var_: {}'.format(scaler.mean_, scaler.var_))
    print('\n')

    print('use numpy by self')
    mean = np.mean(data, axis=0)
    std = np.std(data, axis=0)
    var = std * std
    print('mean: {}, std: {}, var: {}'.format(mean, std, var))
    # numpy 的广播功能
    another_trans_data = data - mean
    # 注:是除以标准差
    another_trans_data = another_trans_data / std
    print('another_trans_data: ')
    print another_trans_data


if __name__ == '__main__':
    test_algorithm()

其输出数据为:

use sklearn
    original data:
    [[-1.0856306   0.99734545  0.2829785 - 1.50629471]
     [-0.57860025  1.65143654 - 2.42667924 - 0.42891263]
    [1.26593626 - 0.8667404 - 0.67888615 - 0.09470897]
    [1.49138963 - 0.638902 - 0.44398196 - 0.43435128]
    [2.20593008
    2.18678609
    1.0040539
    0.3861864]
    [0.73736858  1.49073203 - 0.93583387  1.17582904]
    [-1.25388067 - 0.6377515
    0.9071052 - 1.4286807]
    [-0.14006872 - 0.8617549 - 0.25561937 - 2.79858911]
    [-1.7715331 - 0.69987723
    0.92746243 - 0.17363568]
    [0.00284592  0.68822271 - 0.87953634  0.28362732]]
    transformed
    data:
    [[-0.94511643  0.58665507  0.5223171 - 0.93064483]
     [-0.53659117  1.16247784 - 2.13366794  0.06768082]
    [0.9495916 - 1.05437488 - 0.42049501
    0.3773612]
    [1.13124423 - 0.85379954 - 0.19024378  0.06264126]
    [1.70696485
    1.63376764
    1.22910949
    0.8229693]
    [0.52371324  1.02100318 - 0.67235312  1.55466934]
    [-1.08067913 - 0.85278672
    1.13408114 - 0.858726]
    [-0.18325687 - 1.04998594 - 0.00561227 - 2.1281129]
    [-1.49776284 - 0.9074785
    1.15403514
    0.30422599]
    [-0.06810748  0.31452186 - 0.61717074  0.72793583]]
    scaler info: scaler.mean_: [0.08737571  0.33094968 - 0.24989369 - 0.50195303], scaler.var_: [1.54038781  1.29032409
                                                                                          1.04082479  1.16464894]

    use numpy by self
    mean: [0.08737571  0.33094968 - 0.24989369 - 0.50195303], std: [1.24112361  1.13592433  1.02020821
                                                                    1.07918902], var: [1.54038781  1.29032409
                                                                                       1.04082479  1.16464894]
    another_trans_data:
    [[-0.94511643  0.58665507  0.5223171 - 0.93064483]
     [-0.53659117  1.16247784 - 2.13366794  0.06768082]
    [0.9495916 - 1.05437488 - 0.42049501
    0.3773612]
    [1.13124423 - 0.85379954 - 0.19024378  0.06264126]
    [1.70696485
    1.63376764
    1.22910949
    0.8229693]
    [0.52371324  1.02100318 - 0.67235312  1.55466934]
    [-1.08067913 - 0.85278672
    1.13408114 - 0.858726]
    [-0.18325687 - 1.04998594 - 0.00561227 - 2.1281129]
    [-1.49776284 - 0.9074785
    1.15403514
    0.30422599]
    [-0.06810748  0.31452186 - 0.61717074  0.72793583]]

 

2、tensorflow的第三方库contrib的输入使用方法:

 如果直接通过下面代码使用其里面的函数则会出现无法智能提示的问题:

import tensorflow as tf
initializer = tf.contrib.layers.variance_scaling_initializer()

其解决方法是直接使用下面的代码,则可以智能提示layers里面的函数:

import tensorflow.contrib as contrib
initializer = tf.contrib.layers.variance_scaling_initializer()
initializer=contib.layers.variance_scaling_initializer()

3、Session()会话的多种应用创建方式:

   如果我们想获取网络的过程中的某些tensor变量,则要通过会话来进行获取,然后把tensor转换为我们能处理的array,此时可以使用到的函数是eval()、run().其使用涉及到Session()的创建。下面就是方法:

方法一:

# 改写训练代码
sess = tf.Session()
sess.run(init)
# 要加上这句代码,如果不加的画则下面只能使用run()来运行每一个会话,而不能使用eval()
with sess.as_default():
    init.run()
    for epoch in range(n_epochs):
        n_batches = mnist.train.num_examples // batch_size
        for i in range(n_batches):
            print("\r{}%".format(100*i//n_batches),end='')
            X_train, Y_train = mnist.train.next_batch(batch_size)
            sess.run(training_op, feed_dict={X: X_train})
        # 通过run获去的变量也是一个array,
        # loss_train=sess.run(reconstruction_loss,feed_dict={X:X_train})
        # 此时可以不使用run,直接使用eval,把这个tensor变量转换为array,
        loss_train = reconstruction_loss.eval(feed_dict={X: X_train})
        print("\r{} loss:{}".format(epoch, loss_train))
sess.close()

还有更简洁的代码,方法二:

# 要加上这句代码,如果不加的画则下面只能使用run()来运行每一个会话,而不能使用eval()
with tf.Session() as sess:
    init.run()
    for epoch in range(n_epochs):
        n_batches = mnist.train.num_examples // batch_size
        for i in range(n_batches):
            print("\r{}%".format(100*i//n_batches),end='')
            X_train, Y_train = mnist.train.next_batch(batch_size)
            sess.run(training_op, feed_dict={X: X_train})
        # 通过run获去的变量也是一个array,
        # loss_train=sess.run(reconstruction_loss,feed_dict={X:X_train})
        # 此时可以不使用run,直接使用eval,把这个tensor变量转换为array,
        loss_train = reconstruction_loss.eval(feed_dict={X: X_train})
        print("\r{} loss:{}".format(epoch, loss_train))
# 注释这句,因为使用当Session()离开作用域的时候会自动释放这个Session()
# sess.close()

只能使用run(),而不能使用eval()的方式三:

# 改写训练代码
sess = tf.Session()
sess.run(init)
for epoch in range(n_epochs):
    n_batches = mnist.train.num_examples // batch_size
    for i in range(n_batches):
        print("\r{}%".format(100 * i // n_batches), end='')
        X_train, Y_train = mnist.train.next_batch(batch_size)
        sess.run(training_op, feed_dict={X: X_train})
    # 通过run获去的变量也是一个array,
    loss_train=sess.run(reconstruction_loss,feed_dict={X:X_train})
    # 不能使用这一句,否者会报错
    # loss_train = reconstruction_loss.eval(feed_dict={X: X_train})
    print("\r{} loss:{}".format(epoch, loss_train))
# 要不要这句都无所谓,程序运行完会自动释放
sess.close()

  从上面的方式总结得出:使用sess.run()方法是在每一种形势下都适用。而eval只有在一、二模式下才可以使用。第三种模式会报错。

4、在网络输出的时候计算准确度的方法:

   第一种:是使用in_top_k()函数用来计算logits里的最大top_k里的值的index里有没有跟y想等的值,如果有则是返回True,否则返回False。来进行计算平均准确度,下面是以mnist数据集为例子,其代码如下: 

correct = tf.nn.in_top_k(logits, y, 1)
accuracy = tf.reduce_mean(tf.cast(correct, tf.float32))

上面的y是就是通过

X_train, Y_train = mnist.train.next_batch(n_batch_size)

Y_train传递进来的数据。其是一个0-9的标签值而不是0、1的标签值。这种情况适用于在加载手写字时没用了one_hot参数,其如下:

mnist = input_data.read_data_sets("MNIST_data/")

第二种:在使用了one_hot参数后则其计算准确度的方式为:

 correct_prediction = tf.equal(tf.argmax(logits, 1), tf.argmax(y, 1))
 accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

这时是使用了one_hot参数的情况下的:


mnist = input_data.read_data_sets(LOGDIR, one_hot=True)

这时加载的标签值时0、1的。这个时候就需要使用到argmax()函数来进行返回标签的位置,即其输出值跟上面的第一种的y的值一样大小

5、在计算网络准确度的方式使用到的相关函数:

一、tf.argmax()、tf.equal()、tf.cast()

import tensorflow as tf
import numpy as np

A = [[1, 3, 4]]
B = [[4, 3, 1]]

with tf.Session() as sess:
    # 其中argmax的是返回最大值的index位置从0开始
    print(sess.run(tf.argmax(A, 1)))
    print(sess.run(tf.argmax(B, 1)))
    print(sess.run(tf.equal(A, B)))
    print(sess.run(tf.cast(tf.equal(A, B),dtype=tf.float32)))
    print(sess.run(tf.reduce_mean(tf.cast(tf.equal(A, B), tf.float32))))

其输出结果是:

[2]
[0]
[[False  True False]]
[[0. 1. 0.]]
0.33333334

下面是使用argmax()、max()、extend()、map()等的使用:

import copy
import tensorflow as tf
import numpy as np
import numpy as np
import tensorflow as tf


def main(labels):
    label = labels
    label_list = []
    for label in labels:
        # extend在label_list后面追加元素,map是对第二个参数的数据使用第一个参数进行对应的操作变化
        label_list.extend(map(int, list(label)))
    #整个数组进行加1操作
    label_list = np.array(label_list) + 1
    print(label_list)
    # 在[0,1]之间产生一个3*3的矩阵
    datas = tf.Variable(tf.random_uniform((3, 3), minval=0, maxval=1))
    with tf.Session() as session:
        #当有声明的tf.Variable变量时,其都需要使用会话来真正初始化变量,tf.initialize_all_variables(),如果没有这句的话,datas变量是可以通过eval()查看到有值,但是此时看到的值并不是这个变量真正的值。从而就导致tf.argmax(datas, axis=1)输出来的index跟实际看到的结果不一致。
        session.run(tf.initialize_all_variables())
        print(datas.eval())
        # 返回datas变量对应维度的最大值index。其一般被用在
        datamax = tf.argmax(datas, axis=1)
        print(datamax.eval())
    # 在[0,1.2]间隔0.2产生一个2*3的矩阵,当无法产生对应矩阵时会报错
    datanp = np.arange(0, 1.2, .2).reshape(2, 3)
    print(datanp)
    datanpmax = np.max(datanp, axis=1) # 维度不一致回报错,返回对应维度的最大值,不是index
    print(datanpmax)
    #这里的max跟上面的np.max的效果一样的
    print(datanp.max(1))
    # print(label_list.type())
    # # 这个方法把一个list直接转换成一个tensor
    # print(torch.IntTensor([18] * int(32)))


if __name__ == '__main__':
    main([[1, 2, 3, 5, 2, 4]])




输出结果为:

[2 3 4 6 3 5]

[[0.6428882  0.3081398  0.5051584 ]
 [0.750348   0.9321439  0.9986844 ]
 [0.9667671  0.48763072 0.12574685]]
[0 2 0]
[[0.  0.2 0.4]
 [0.6 0.8 1. ]]
Backend Qt5Agg is interactive backend. Turning interactive mode on.
[0.4 1. ]
[0.4 1. ]

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值