【利用Tensorflow 实现和训练线性回归 (Linear Model)】(超级详细,附源代码)

发布时间:2024-11-12 09:11

附上github的源代码地址:https://github.com/w1449550206/Linear-regression-with-tensorflow.git

文章目录 1.线性回归的介绍 2.训练数据的获取 3.步骤分析 4.相关的API 运算 矩阵运算 平方 均值 误差 梯度下降优化 5.完整代码 1.准备好数据集,我们制造y=0.8x+0.7的100个样本 2.建立线性模型,目标:求出权重W和偏置b 3.随机初始化w1和b1 4.确定损失函数(预测值与真实值之间的误差)即均方误差 5.梯度下降优化损失:需要制定学习率(超参数) 6.初始化变量 7.开启会话进行训练 8.完整代码 6变量的trainable设置观察

1.线性回归的介绍

根据训练数据,训练一个w1x1+w2x2+…+b = y,有多少个特征,就有多少个权重

2.训练数据的获取

假设随机的一百个点,且只有一个特征,y = wx+b
特征值:训练数据100个样本,100行1列[100, 1]
目标值:y = 0.8*x+0.7 (造数据用的,一开始是不知道的)

3.步骤分析

1.准备好数据集,我们制造y=0.8x+0.7的100个样本 2.建立线性模型,随机初始化w1和b1,y=wx+b,目标求出权重w和偏置b (比如我们随机一个w为0.2,b为0.7,和我们假设已经知道的0.8和0.7差很远,所以接下来要确定损失函数,然后梯度下降优化来找到损失最小的w和b) 3.确定损失函数(预测值与真实值之间的误差),即均方误差 4.梯度下降优化损失:需要制定学习率(超参数)

4.相关的API

运算

矩阵运算

tf.matmul(x,w) 1 平方

tf.square(error) 1 均值

tf.reduce_mean(error) 1 误差

error = tf.reduce_mean(tf.square(y_predict - y_true)) 1

梯度下降优化

tf.train.GradientDescentOptimizer(learning_rate) 1 learing_rate是学习率,一般为0-1之间比较小的值 method: minimize(loss)损失优化 return: 梯度下降op
返回一个节点操作:

optimizer = tf.train.GradientDescentOptimizer(learning_rate = 0.01).minimize(error) 1

5.完整代码

1.准备好数据集,我们制造y=0.8x+0.7的100个样本

# 特征值x,目标值y_true x = tf.random_normal(shape=(100, 1), mean=2, stddev=2) y_true = tf.matmul(x,12

网址:【利用Tensorflow 实现和训练线性回归 (Linear Model)】(超级详细,附源代码) https://www.yuejiaxmz.com/news/view/49509

相关内容

时间序列之季节性
如何选择生活技能详细保姆级攻略!附带兑换码!
Python机器学习及实践——基础篇11(回归树)
7个英国生活家居用品购买网站推荐2024(附优惠码+12%返利)
这份大学生活指南请收好,超详细实用!
健身干货|健身训练详细教程|摆脱耗时耗力
22个2022年软件开发的趋势预测及其解读
暑期幼小衔接当回归习惯培养
便利生活,需要“小修小补”回归
【强化学习】如何提高强化学习的学习效率?并请从原理和例子上进行详细解释,1500字

随便看看