返回顶部
首页 > 资讯 > 后端开发 > Python >python中逻辑回归随机梯度下降法怎么用
  • 411
分享到

python中逻辑回归随机梯度下降法怎么用

2023-06-25 14:06:12 411人浏览 安东尼

Python 官方文档:入门教程 => 点击学习

摘要

这篇文章主要为大家展示了“python中逻辑回归随机梯度下降法怎么用”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Python中逻辑回归随机梯度下降法怎么用”这篇文章吧。随机梯度下降法随机梯度下

这篇文章主要为大家展示了“python中逻辑回归随机梯度下降法怎么用”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Python中逻辑回归随机梯度下降法怎么用”这篇文章吧。

随机梯度下降法

随机梯度下降法(Stochastic Gradient Decent,
SGD)是对全批量梯度下降法计算效率的改进算法。本质上来说,我们预期随机梯度下降法得到的结果和全批量梯度下降法相接近;SGD的优势是更快地计算梯度。

代码

'''随机梯度下降法(Stochastic Gradient Decent, SGD)是对全批量梯度下降法计算效率的改进算法。本质上来说,我们预期随机梯度下降法得到的结果和全批量梯度下降法相接近;SGD的优势是更快地计算梯度。'''import pandas as pdimport numpy as npimport osos.getcwd()# F:\\pythonProject3\\data\\data\\train.csv# dataset_path = '..'# 这是一个全批量梯度下降(full-batch gradient descent)的应用。# 这个问题是一个回归问题# 我们给出美国某大型问答社区从2010年10月1日到2016年11月30日,# 每天新增的问题的个数和回答的个数。# 任务是预测2016年12月1日到2017年5月1日,该问答网站每天新增的问题数和回答数。train = pd.read_csv('..\\train.csv')# 导入数据# train = pd.read_csv('train.csv')test = pd.read_csv('..\\test.csv')submit = pd.read_csv('..\\sample_submit.csv')path2=os.path.abspath('.')print("path2@@@@@",path2)path3=os.path.abspath('..')print("path3@@@@@",path3)print(train)# 初始设置beta = [1,1] #初始点alpha = 0.2 #学习率,也就是步长tol_L = 0.1 #阈值,也就是精度# 对x进行归一化,train 是训练数据的二维表格max_x = max(train['id']) #max_x是总共的id数x = train['id'] / max_x #所有的id都除于max_xy = train['questions'] # train二维表格中的questions列赋给ytype(train['id'])print("train['id']#######\n",train['id'])print("type(train['id'])###\n\n",x)print("max_x#######",max_x)#为了计算方向def compute_grad_SGD(beta, x, y):    '''    :param beta: 是初始点    :param x: 是自变量    :param y: 是真是值    :return: 梯度数组    '''    grad = [0, 0]    r = np.random.randint(0, len(x)) #在0-len(x)之间随机生成一个数    grad[0] = 2. * np.mean(beta[0] + beta[1] * x[r] - y[r]) #求beta[1,1],中第1个数的梯度    grad[1] = 2. * np.mean(x * (beta[0] + beta[1] * x - y))#求beta[1,1],中第2个数的梯度    return np.array(grad)#为了计算下一个点在哪,def update_beta(beta, alpha, grad):    '''    :param beta: 第一点,初始点    :param alpha: 学习率,也就时步长    :param grad: 梯度    :return:    '''    new_beta = np.array(beta) - alpha * grad    return new_beta# 定义计算RMSE的函数# 均方根误差(RMSE)def rmse(beta, x, y):    squared_err = (beta[0] + beta[1] * x - y) ** 2 # beta[0] + beta[1] * x是预测值,y是真实值,    res = np.sqrt(np.mean(squared_err))    return res# 进行第一次计算grad = compute_grad_SGD(beta, x, y) #调用计算梯度函数,计算梯度loss = rmse(beta, x, y) #调用损失函数,计算损失beta = update_beta(beta, alpha, grad) #更新下一点loss_new = rmse(beta, x, y) #调用损失函数,计算下一个损失# 开始迭代i = 1while np.abs(loss_new - loss) > tol_L:    beta = update_beta(beta, alpha, grad)    grad = compute_grad_SGD(beta, x, y)    if i % 100 == 0:        loss = loss_new        loss_new = rmse(beta, x, y)        print('Round %s Diff RMSE %s'%(i, abs(loss_new - loss)))    i += 1print('Coef: %s \nIntercept %s'%(beta[1], beta[0]))res = rmse(beta, x, y)print('Our RMSE: %s'%res)from sklearn.linear_model import LinearRegressionlr = LinearRegression()lr.fit(train[['id']], train[['questions']])print('Sklearn Coef: %s'%lr.coef_[0][0])print('Sklearn Coef: %s'%lr.intercept_[0])res = rmse([936.051219649, 2.19487084], train['id'], y)print('Sklearn RMSE: %s'%res)

以上是“python中逻辑回归随机梯度下降法怎么用”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网Python频道!

--结束END--

本文标题: python中逻辑回归随机梯度下降法怎么用

本文链接: https://lsjlt.com/news/305551.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • python中逻辑回归随机梯度下降法怎么用
    这篇文章主要为大家展示了“python中逻辑回归随机梯度下降法怎么用”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“python中逻辑回归随机梯度下降法怎么用”这篇文章吧。随机梯度下降法随机梯度下...
    99+
    2023-06-25
  • python机器学习逻辑回归随机梯度下降法
    目录写在前面随机梯度下降法参考文献写在前面 随机梯度下降法就在随机梯度上。意思就是说当我们在初始点时想找到下一点的梯度,这个点是随机的。全批量梯度下降是从一个点接着一点是有顺序的,全...
    99+
    2024-04-02
  • python实现梯度下降求解逻辑回归
    本文实例为大家分享了python实现梯度下降求解逻辑回归的具体代码,供大家参考,具体内容如下 对比线性回归理解逻辑回归,主要包含回归函数,似然函数,梯度下降求解及代码实现 线性回归 ...
    99+
    2024-04-02
  • python怎么实现梯度下降求解逻辑回归
    今天小编给大家分享一下python怎么实现梯度下降求解逻辑回归的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。线性回归1.线性...
    99+
    2023-07-06
  • python如何实现梯度下降求解逻辑回归
    线性回归1.线性回归函数似然函数的定义:给定联合样本值X下关于(未知)参数 的函数似然函数:什么样的参数跟我们的数据组合后恰好是真实值 2.线性回归似然函数对数似然: 3.线性回归目标函数(误差的表达式,我们的目的就是使得真实值与预...
    99+
    2023-05-14
    Python
  • 机器学习(二):线性回归之梯度下降法
    文章目录 专栏导读 1、梯度下降法原理 2、梯度下降法原理代码实现 3、sklearn内置模块实现 专栏导读 ✍ 作者简介:i阿极,CSDN Python领域新星创作者,...
    99+
    2023-09-07
    机器学习 线性回归 python 梯度下降法
  • Python实现多元线性回归的梯度下降法
    目录1. 读取数据2.定义代价函数3. 梯度下降4.可视化展示1. 读取数据 首先要做的就是读取数据,请自行准备一组适合做多元回归的数据即可。这里以data.csv为例,这里做的是二...
    99+
    2024-04-02
  • 使用Python实现小批量梯度下降算法的代码逻辑
    让theta=模型参数和max_iters=时期数。对于itr=1,2,3,...,max_iters:对于mini_batch(X_mini,y_mini): 批量X_mini的前向传递: 1、对小批量进行预测 2、使用参数的当...
    99+
    2024-01-22
    算法的概念
  • Python机器学习之随机梯度下降法的实现
    目录随机梯度下降法随机梯度下降法的实现随机梯度下降法 为什么使用随机梯度下降法? 如果当我们数据量和样本量非常大时,每一项都要参与到梯度下降,那么它的计算量时非常大的,所以我们可以采...
    99+
    2023-02-27
    Python随机梯度下降法 Python梯度下降法 Python梯度下降
  • Python机器学习之随机梯度下降法如何实现
    本文小编为大家详细介绍“Python机器学习之随机梯度下降法如何实现”,内容详细,步骤清晰,细节处理妥当,希望这篇“Python机器学习之随机梯度下降法如何实现”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。随机梯...
    99+
    2023-07-05
  • python中逻辑回归算法的原理什么是
    本篇文章为大家展示了python中逻辑回归算法的原理什么是,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。python的五大特点是什么python的五大特点:1.简单易学,开发程序时,专注的是解决问题...
    99+
    2023-06-14
  • 怎么在Python中使用逆变换方法生成随机变量
    本篇内容主要讲解“怎么在Python中使用逆变换方法生成随机变量”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么在Python中使用逆变换方法生成随机变量”吧!目标在仿真理论中,生成随机变量是...
    99+
    2023-06-15
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作