TensorFlow笔记
[by_041]
TensorFlow是基于Tensor(张量)计算的一种深度学习库
参考B站视频
一个博主,他最开始的博文全是关于TF的(至少22篇)
安装
-
使用
Anaconda Prompt
-
先升级pip
python -m pip install --upgrade pip
-
再用镜像站安装
pip install tensorflow-cpu -i https://pypi.douban.com/simple/
不知道啥玩意的(跳过)
pip install numpy pandas matplotlib sklearn tensorflow==2.0.0-alpha0 -i http://pypi.douban.com/simple/
安装notebook配合使用体验更佳(体现在Jupyter中的使用)
pip install notebook -i http://pypi.douban.com/simple/
-
启用
activate tensorflow
禁用
deactivate
-
快速安装
(若需要升级pip)python -m pip install --upgrade pip pip install tensorflow-cpu -i https://pypi.douban.com/simple/ pip install notebook -i http://pypi.douban.com/simple/ activate tensorflow
-
-
试试下面这个程序,能运行就说明可了~
# 简单粗暴的去除额外输出的办法,后面再研究 import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' # 引入 tensorflow 模块 import tensorflow as tf # 创建一个整型常量,即 0 阶 Tensor t0 = tf.constant(3, dtype=tf.int32) # 创建一个浮点数的一维数组,即 1 阶 Tensor t1 = tf.constant([3., 4.1, 5.2], dtype=tf.float32) # 创建一个字符串的2x2数组,即 2 阶 Tensor t2 = tf.constant([['Apple', 'Orange'], ['Potato', 'Tomato']], dtype=tf.string) # 创建一个 2x3x1 数组,即 3 阶张量,数据类型默认为整型 t3 = tf.constant([[[5], [6], [7]], [[4], [3], [2]]]) # 打印上面创建的几个 Tensor print('==========================================================================') print(t0) print('==========================================================================') print(t1) print('==========================================================================') print(t2) print('==========================================================================') print(t3) print('==========================================================================')
语法基础
TensorFlow是基于Tensor(张量)计算的一种深度学习库,其基础语法都有所体现
使用基础
数据处理基础
包括用
pandas
读取数据
基于pandas
进行读取数据
import pandas as pd
data = pd.read_csv('C:\\Users\\15614\\Desktop\\应用基础\\数模实战\\数据\\一手粉丝量 - 90 days.csv')
print(data)
基于matplotlib
进行数据绘图
# 数据绘图
import matplotlib.pyplot as plt
# %matplotlib inline # 在bote中绘图
plt.scatter(data.time,data.fans)
Tensorflow 2.0 tf.keras
官方推荐的首选
一次完整的线性回归分析
# 第一次完整的线性回归分析
# 读取数据
import pandas as pd
data = pd.read_csv('C:\\Users\\15614\\Desktop\\应用基础\\数模实战\\数据\\一手粉丝量 - 90 days.csv')
print(data)
# 数据绘图
import matplotlib.pyplot as plt
# %matplotlib inline
plt.scatter(data.time,data.fans)
x=data.time
y=data.fans
import tensorflow as tf
# 建立线性模型f(x)=ax+b
model=tf.keras.Sequential()
model.add(tf.keras.layers.Dense(1,input_shape=(1,)))
# 输出数据维度为1
# 输入数据维度为1,参数类型为元组:(1,)
# 输出模型的形状
print('==========================================================================')
print(model.summary())
print('==========================================================================')
# 输出结果:
# Model: "sequential_1"【模型名称】
# _________________________________________________________________
# Layer (type) Output Shape Param #
# =================================================================
# dense_1 (Dense) (None【编号,忽略】, 1【输出维度】) 2【总维度】
# 【*输入维度=总维度-输出维度】
# =================================================================
# Total params: 2
# Trainable params: 2
# Non-trainable params: 0
# _________________________________________________________________
# 使用梯度下降算法进行优化
model.compile(optimizer='adam', # 优化方法
loss='mse' # 损失函数,此处使用均方差
)
# 训练方法
history=model.fit(x,y,epochs=500)
# epochs:所有数据的训练次数
# print(history) # 观察到loss值不断下降🐂
# 对现有数据进行预测
predict_1=model.predict(x)
# 预测x=91,92,93时的情况
predict_2=model.predict(pd.Series([91,92,93]))
# 下面这种也等效
# model.predict([91,92,93])
print('现有预测:')
print(predict_1)
print('预测未来3天:')
print(predict_2)
简化后
# 数据读入
import pandas as pd
data = pd.read_csv('C:\\Users\\15614\\Desktop\\应用基础\\数模实战\\数据\\一手粉丝量 - 90 days.csv')
print(data)
# 数据绘图
import matplotlib.pyplot as plt
# %matplotlib inline # 在note中行内显示图像
plt.scatter(data.time,data.fans)
plt.show()
# 建立线性模型
x=data.time
y=data.fans
import tensorflow as tf
# 建立线性模型f(x)=ax+b
model=tf.keras.Sequential()
model.add(tf.keras.layers.Dense(1,input_shape=(1,)))
# 输入数据维度为1
# 输出数据维度为1
# 使用梯度下降算法进行优化
model.compile(optimizer='adam', # 优化方法
loss='mse' # 损失函数,此处使用均方差
)
# 训练方法
history=model.fit(x,y,epochs=5000)
# epochs:所有数据的训练次数
# 预测x=91,92,93时的情况
model.predict(pd.Series([91,92,93]))
# 下面这种也等效
# model.predict([91,92,93])
跟一个叫itluojie博主做TF
Tensorflow2.0入门教程1:Tensorflow安装
- 自己装好了,跳过。
Tensorflow2.0入门教程2:认识张量Tensor
Tensorflow2.0入门教程3:Numpy下的线性回归
My改进版
- 预测模型: y = w × x + b y=w\times x+ b y=w×x+b
import random as rd
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
# import tensorflow as tf
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
eps=1e-6
# x = np.array([1.0, 2.0, 3.0, 4.0, 5.0, 6.0])
# y = np.array([5.0,6.0,7.0,8.0,9.0,10.0])
np.random.seed(123)
x=np.random.random(100)*100
# y=np.random.random(100)*180+456 # 最后结果应该为 w=180/100=1.8 b=456 e=1e5 左右
y=np.random.random(100)*340-666 # 最后结果应该为 w=340/100=3.4 b=-666 e=1e5 左右
x.sort()
y.sort()
# data = pd.read_csv('C:\\Users\\15614\\Desktop\\应用基础\\数模实战\\数据\\一手粉丝量 - 90 days.csv')
# x=np.array(data.time)
# y=np.array(data.fans)
plt.scatter(x, y)
# plt.show()
w, b = 0, 0 # 定义权重W和偏置b
num_epoch = 10000 # 定义循环迭代次数
learning_rate = 0.000005 # 定义学习率,实际用的时候根据情况
loss=0
e=0
cnt_pass=0
while True :
# 记录
e+=1
las_loss=loss
las_w=w
las_b=b
# 模型,预测值
y_pred = w * x + b
# 目标函数,MSE
loss = np.mean(np.square(y_pred-y))
# 手动计算损失函数关于自变量(模型参数)的梯度
grad_w, grad_b = (y_pred - y).dot(x), (y_pred - y).sum()
# 优化算法,更新参数
w, b = w - learning_rate * grad_w, b - learning_rate * grad_b
# 是否继续
# if e>5e4: # 用于和tf自带的比较,固定训练次数
# break;
if abs(las_loss-loss)<eps and abs(las_w-w)<eps and abs(las_b-b)<eps :
cnt_pass+=1
if cnt_pass>100:
break
else:
cnt_pass=0
if e %2000 ==0:
plt.cla()
plt.scatter(x,y)
plt.plot(x, y_pred, 'r-', lw=5)
plt.title('Loss=%.4f | adj=%e | w=%.4f | b=%.4f'%(loss,learning_rate,w,b),
fontdict={'size': 14, 'color': 'red'})
plt.pause(0.1)
plt.cla()
plt.scatter(x,y)
plt.plot(x, y_pred, 'r-', lw=5)
plt.title('Done < at e=%d >\nLoss=%.4f | adj=%e | w=%.4f | b=%.4f'%(e,loss,learning_rate,w,b),
fontdict={'size': 14, 'color': 'red'})
plt.pause(0.1)
plt.show()
print(w, b)
乱搞的二次函数
- 预测模型: y = w × x 2 + b y=w\times x^2+ b y=w×x2+b
import random as rd
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
# import tensorflow as tf
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
eps=1e-6
# x = np.array([1.0, 2.0, 3.0, 4.0, 5.0, 6.0])
# y = np.array([5.0,6.0,7.0,8.0,9.0,10.0])
np.random.seed(123)
# x=np.array([i*1. for i in range(100)])
x=np.random.random(100)*100-50
x.sort()
y=np.array([x[i]**2+rd.random()*180. for i in range(100)])
# data = pd.read_csv('C:\\Users\\15614\\Desktop\\应用基础\\数模实战\\数据\\一手粉丝量 - 90 days.csv')
# print((x,y))
# x=(data.time)*1.0
# y=(data.fans)*1.0
plt.scatter(x, y)
# plt.show()
# exit()
xx=np.array([(x[i])**2*1. for i in range(100)])
w, b = 0, 0 # 定义权重W和偏置b
num_epoch = 10000 # 定义循环迭代次数
learning_rate = 0.00000005 # 定义学习率
for e in range(num_epoch or True):
# 模型,预测值
y_pred =w*xx+b
# 目标函数,MSE
loss = np.mean(np.square(y_pred-y))
# 手动计算损失函数关于自变量(模型参数)的梯度
grad_w, grad_b = (y_pred - y).dot(x), (y_pred - y).sum()
# 优化算法,更新参数
las_w=w
las_b=b
w, b = w - learning_rate * grad_w, b - learning_rate * grad_b
if abs(las_w-w)<eps and abs(las_b-b)<eps :
break
if e %70 ==0:
plt.cla()
plt.scatter(x,y)
plt.plot(x, y_pred, 'r-', lw=5)
plt.title('Loss=%.4f | adj=%e | w=%.4f | b=%.4f'%(loss,learning_rate,w,b),
fontdict={'size': 14, 'color': 'red'})
plt.pause(0.1)
plt.cla()
plt.scatter(x,y)
plt.plot(x, y_pred, 'r-', lw=5)
plt.title('Done\nLoss=%.4f | adj=%e | w=%.4f | b=%.4f'%(loss,learning_rate,w,b),
fontdict={'size': 14, 'color': 'red'})
plt.pause(0.1)
plt.show()
print(w, b)
- 预测模型: y = w × ( x − 50 ) 2 + b y=w\times (x-50)^2+ b y=w×(x−50)2+b
import random as rd
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
# import tensorflow as tf
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
eps=1e-6
# x = np.array([1.0, 2.0, 3.0, 4.0, 5.0, 6.0])
# y = np.array([5.0,6.0,7.0,8.0,9.0,10.0])
np.random.seed(123)
# x=np.array([i*1. for i in range(100)])
x=np.random.random(100)*100
x.sort()
y=np.array([(x[i]-50)**2+rd.random()*180. for i in range(100)])
# data = pd.read_csv('C:\\Users\\15614\\Desktop\\应用基础\\数模实战\\数据\\一手粉丝量 - 90 days.csv')
# print((x,y))
# x=(data.time)*1.0
# y=(data.fans)*1.0
plt.scatter(x, y)
# plt.show()
# exit()
xx=np.array([(x[i]-50)**2*1. for i in range(100)])
w, b = 0, 0 # 定义权重W和偏置b
num_epoch = 10000 # 定义循环迭代次数
learning_rate = 0.0000000005 # 定义学习率
for e in range(num_epoch or True):
# 模型,预测值
y_pred =w*xx+b
# 目标函数,MSE
loss = np.mean(np.square(y_pred-y))
# 手动计算损失函数关于自变量(模型参数)的梯度
grad_w, grad_b = (y_pred - y).dot(x), (y_pred - y).sum()
# 优化算法,更新参数
las_w=w
las_b=b
w, b = w - learning_rate * grad_w, b - learning_rate * grad_b
if abs(las_w-w)<eps and abs(las_b-b)<eps :
break
if e %70 ==0:
plt.cla()
plt.scatter(x,y)
plt.plot(x, y_pred, 'r-', lw=5)
plt.title('Loss=%.4f | adj=%e | w=%.4f | b=%.4f'%(loss,learning_rate,w,b),
fontdict={'size': 14, 'color': 'red'})
plt.pause(0.1)
plt.cla()
plt.scatter(x,y)
plt.plot(x, y_pred, 'r-', lw=5)
plt.title('Done\nLoss=%.4f | adj=%e | w=%.4f | b=%.4f'%(loss,learning_rate,w,b),
fontdict={'size': 14, 'color': 'red'})
plt.pause(0.1)
plt.show()
print(w, b)