返回顶部
首页 > 资讯 > 后端开发 > Python >Python机器学习之AdaBoost算法的示例分析
  • 198
分享到

Python机器学习之AdaBoost算法的示例分析

2023-06-15 02:06:12 198人浏览 薄情痞子

Python 官方文档:入门教程 => 点击学习

摘要

这篇文章将为大家详细讲解有关python机器学习之AdaBoost算法的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。一、算法概述AdaBoost 是英文 Adaptive Boosting(自适

这篇文章将为大家详细讲解有关python机器学习之AdaBoost算法的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

一、算法概述

  • AdaBoost 是英文 Adaptive Boosting(自适应增强)的缩写,由 Yoav Freund 和Robert Schapire 在1995年提出。

  • AdaBoost 的自适应在于前一个基本分类器分类错误的样本的权重会得到加强,加强后的全体样本再次被用来训练下一个基本分类器。同时,在每一轮训练中加入一个新的弱分类器,直到达到某个预定的足够小的错误率或达到预先指定的最大迭代次数时停止训练。

  • AdaBoost 算法是一种集成学习的算法,其核心思想就是对多个机器学习模型进行组合形成一个精度更高的模型,参与组合的模型称为弱学习器。

二、算法原理

  • AdaBoost 的核心思想是针对同一训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强大的最终分类器(强分类器)。也 就是通过一些手段获得多个弱分类器,将它们集成起来构成强分类器,综合所有分类器的预测得出最终的结果。

  • AdaBoost 算法本身是通过改变数据分布来实现的,它根据每次训练集中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。

三、算法步骤

Python机器学习之AdaBoost算法的示例分析

初始化训练数据的权值分布,每一个训练样本最开始时都被赋予相同的权值 1/n

Python机器学习之AdaBoost算法的示例分析

进行多轮迭代,用 m = 1,2,…,k 表示迭代到第几轮

使用具有权值分布 Gm 的训练数据集学习,得到基本分类器

Python机器学习之AdaBoost算法的示例分析

计算 Gm(x) 在训练数据集上的分类误差率

Python机器学习之AdaBoost算法的示例分析

计算 Gm(x) 的系数,am表示 Gm(x) 在最终分类器中的重要程度

Python机器学习之AdaBoost算法的示例分析

更新训练数据集的权值分布,得到样本的新的权值分布,用于下一轮迭代

Python机器学习之AdaBoost算法的示例分析

组合各个弱分类器

Python机器学习之AdaBoost算法的示例分析

四、算法实现

from numpy import *import matplotlib.pyplot as plt# 加载数据集def loadDataSet(fileName):    numFeat = len(open(fileName).readline().split('\t'))    dataMat = []    labelMat = []    fr = open(fileName)    for line in fr.readlines():        lineArr = []        curLine = line.strip().split('\t')        for i in range(numFeat - 1):            lineArr.append(float(curLine[i]))        dataMat.append(lineArr)        labelMat.append(float(curLine[-1]))    return dataMat, labelMat# 返回分类预测结果  根据阈值所以有两种返回情况def stumpClassify(dataMatrix, dimen, threshVal, threshIneq):    retArray = ones((shape(dataMatrix)[0], 1))    if threshIneq == 'lt':        retArray[dataMatrix[:, dimen] <= threshVal] = -1.0    else:        retArray[dataMatrix[:, dimen] > threshVal] = -1.0    return retArray# 返回 该弱分类器单层决策树的信息  更新D向量的错误率 更新D向量的预测目标def buildStump(dataArr, classLabels, D):    dataMatrix = mat(dataArr)    labelMat = mat(classLabels).T    m, n = shape(dataMatrix)    numSteps = 10.0    bestStump = {}  # 字典用于保存每个分类器信息    bestClasEst = mat(zeros((m, 1)))    minError = inf  # 初始化最小误差最大    for i in range(n):  # 特征循环  (三层循环,遍历所有的可能性)        rangeMin = dataMatrix[:, i].min()        rangeMax = dataMatrix[:, i].max()        stepSize = (rangeMax - rangeMin) / numSteps  # (大-小)/分割数  得到最小值到最大值需要的每一段距离        for j in range(-1, int(numSteps) + 1):  # 遍历步长 最小值到最大值的需要次数            for inequal in ['lt', 'gt']:  # 在大于和小于之间切换                threshVal = (rangeMin + float(j) * stepSize)  # 最小值+次数*步长  每一次从最小值走的长度                predictedVals = stumpClassify(dataMatrix, i, threshVal,                                              inequal)  # 最优预测目标值  用于与目标值比较得到误差                errArr = mat(ones((m, 1)))                errArr[predictedVals == labelMat] = 0                weightedError = D.T * errArr                if weightedError < minError:  # 选出最小错误的那个特征                    minError = weightedError  # 最小误差 后面用来更新D权值的                    bestClasEst = predictedVals.copy()  # 最优预测值                    bestStump['dim'] = i  # 特征                    bestStump['thresh'] = threshVal  # 到最小值的距离 (得到最优预测值的那个距离)                    bestStump['ineq'] = inequal  # 大于还是小于 最优距离为-1    return bestStump, minError, bestClasEst# 循环构建numIt个弱分类器def adaBoostTrainDS(dataArr, classLabels, numIt=40):    weakClassArr = []  # 保存弱分类器数组    m = shape(dataArr)[0]    D = mat(ones((m, 1)) / m)  # D向量 每条样本所对应的一个权重    agGClassEst = mat(zeros((m, 1)))  # 统计类别估计累积值    for i in range(numIt):        bestStump, error, classEst = buildStump(dataArr, classLabels, D)        alpha = float(0.5 * log((1.0 - error) / max(error, 1e-16)))        bestStump['alpha'] = alpha        weakClassArr.append(bestStump)  # 加入单层决策树        # 得到运算公式中的向量+/-α,预测正确为-α,错误则+α。每条样本一个α        # multiply对应位置相乘  这里很聪明,用-1*真实目标值*预测值,实现了错误分类则-,正确则+        expon = multiply(-1 * alpha * mat(classLabels).T, classEst)        D = multiply(D, exp(expon))  # 这三步为更新概率分布D向量 拆分开来了,每一步与公式相同        D = D / D.sum()        # 计算停止条件错误率=0 以及计算每次的aggClassEst类别估计累计值        aggClassEst += alpha * classEst        # 很聪明的计算方法 计算得到错误的个数,向量中为1则错误值        aggErrors = multiply(sign(aggClassEst) != mat(classLabels).T, ones((m, 1)))  # sign返回数值的正负符号,以1、-1表示        errorRate = aggErrors.sum() / m  # 错误个数/总个数        # print("错误率:", errorRate)        if errorRate == 0.0:            break    return weakClassArr, aggClassEst# 预测 累加 多个弱分类器获得预测值*该alpha 得到结果def adaClassify(datToClass, classifierArr):  # classifierArr是元组,所以在取值时需要注意    dataMatrix = mat(datToClass)    m = shape(dataMatrix)[0]    aggClassEst = mat(zeros((m, 1)))    # 循环所有弱分类器    for i in range(len(classifierArr[0])):        # 获得预测结果        classEst = stumpClassify(dataMatrix, classifierArr[0][i]['dim'], classifierArr[0][i]['thresh'],                                 classifierArr[0][i]['ineq'])        # 该分类器α*预测结果 用于累加得到最终的正负判断条件        aggClassEst += classifierArr[0][i]['alpha'] * classEst  # 这里就是集合所有弱分类器的意见,得到最终的意见    return sign(aggClassEst)  # 提取数据符号# ROC曲线,类别累计值、目标标签def plotROC(predStrengths, classLabels):    cur = (1.0, 1.0)  # 每次画线的起点游标点    ySum = 0.0  # 用于计算AUC的值 矩形面积的高度累计值    numPosClas = sum(array(classLabels) == 1.0)  # 所有真实正例    确定了在y坐标轴上的步进数目    yStep = 1 / float(numPosClas)  # 1/所有真实正例 y轴上的步长    xStep = 1 / float(len(classLabels) - numPosClas)  # 1/所有真实反例 x轴上的步长    sortedIndicies = predStrengths.argsort()  # 获得累计值向量从小到大排序的下表index [50,88,2,71...]    fig = plt.figure()    fig.clf()    ax = plt.subplot(111)    # 循环所有的累计值 从小到大    for index in sortedIndicies.tolist()[0]:        if classLabels[index] == 1.0:            delX = 0  # 若为一个真正例,则沿y降一个步长,即不断降低真阳率;            delY = yStep  # 若为一个非真正例,则沿x退一个步长,尖笑阳率        else:            delX = xStep            delY = 0            ySum += cur[1]  # 向下移动一次,则累计一个高度。宽度不变,我们只计算高度        ax.plot([cur[0], cur[0] - delX], [cur[1], cur[1] - delY], c='b')  # 始终会有一个点是没有改变的        cur = (cur[0] - delX, cur[1] - delY)    ax.plot([0, 1], [0, 1], 'b--')    plt.xlabel('False positive rate')    plt.ylabel('True positive rate')    plt.title('ROC curve for AdaBoost horse colic detection system')    ax.axis([0, 1, 0, 1])    plt.show()    print("the Area Under the Curve is: ", ySum * xStep)  # AUC面积我们以 高*低 的矩形来计算# 测试正确率datArr, labelArr = loadDataSet('horseColicTraining2.txt')classifierArr = adaBoostTrainDS(datArr, labelArr, 15)testArr, testLabelArr = loadDataSet('horseColicTest2.txt')prediction10 = adaClassify(testArr, classifierArr)errArr = mat(ones((67, 1)))  # 一共有67个样本cnt = errArr[prediction10 != mat(testLabelArr).T].sum()print(cnt / 67)# 画出ROC曲线datArr, labelArr = loadDataSet('horseColicTraining2.txt')classifierArray, aggClassEst = adaBoostTrainDS(datArr, labelArr, 10)plotROC(aggClassEst.T, labelArr)

五、算法优化

  • 权值更新方法的改进

在实际训练过程中可能存在正负样本失衡的问题,分类器会过于关注大容量样本,导致分类器不能较好地完成区分小样本的目的。此时可以适度增大小样本的权重使重心达到平衡。在实际训练中还会出现困难样本权重过高而发生过拟合的问题,因此有必要设置困难样本分类的权值上限。

  • 训练方法的改进

AdaBoost算法由于其多次迭代训练分类器的原因,训练时间一般会比别的分类器长。对此一般可以采用实现AdaBoost的并行计算或者训练过程中动态剔除掉权重偏小的样本以加速训练过程。

  • 多算法结合的改进

除了以上算法外,AdaBoost还可以考虑与其它算法结合产生新的算法,如在训练过程中使用SVM算法加速挑选简单分类器来替代原始AdaBoost中的穷举法挑选简单的分类器。

Python的五大特点是什么

python的五大特点:1.简单易学,开发程序时,专注的是解决问题,而不是搞明白语言本身。2.面向对象,与其他主要的语言如c++和Java相比, Python以一种非常强大又简单的方式实现面向对象编程。3.可移植性,Python程序无需修改就可以在各种平台上运行。4.解释性,Python语言写的程序不需要编译成二进制代码,可以直接从源代码运行程序。5.开源,Python是 FLOSS(自由/开放源码软件)之一。

关于“Python机器学习之AdaBoost算法的示例分析”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。

--结束END--

本文标题: Python机器学习之AdaBoost算法的示例分析

本文链接: https://lsjlt.com/news/277151.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • Python机器学习之AdaBoost算法的示例分析
    这篇文章将为大家详细讲解有关Python机器学习之AdaBoost算法的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。一、算法概述AdaBoost 是英文 Adaptive Boosting(自适...
    99+
    2023-06-15
  • python机器学习Sklearn中adaboost算法的示例分析
    这篇文章主要为大家展示了“python机器学习Sklearn中adaboost算法的示例分析”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“python机器学习Sklearn中adaboost算法...
    99+
    2023-06-21
  • Python机器学习之AdaBoost算法
    目录一、算法概述二、算法原理三、算法步骤四、算法实现五、算法优化一、算法概述 AdaBoost 是英文 Adaptive Boosting(自适应增强)的缩写,由 Yoav Freund 和Robert S...
    99+
    2022-06-02
    Python AdaBoost算法 Python机器学习
  • python机器学习Sklearn实战adaboost算法示例详解
    目录pandas批量处理体测成绩adaboostadaboost原理案例举例弱分类器合并成强分类器pandas批量处理体测成绩 import numpy as np import...
    99+
    2024-04-02
  • Python机器学习之PCA降维算法的示例分析
    小编给大家分享一下Python机器学习之PCA降维算法的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!一、算法概述主成分分析 (Principal Com...
    99+
    2023-06-15
  • python机器学习中特征工程算法的示例分析
    这篇文章主要为大家展示了“python机器学习中特征工程算法的示例分析”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“python机器学习中特征工程算法的示例分析”这篇文章吧。一、机器学习概述机器...
    99+
    2023-06-25
  • python机器学习算法与数据降维的示例分析
    这篇文章主要介绍python机器学习算法与数据降维的示例分析,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!一、数据降维机器学习中的维度就是特征的数量,降维即减少特征数量。降维方式有:特征选择、主成分分析。1.特征选择...
    99+
    2023-06-25
  • python机器学习之神经网络的示例分析
    这篇文章主要介绍了python机器学习之神经网络的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。python可以做什么Python是一种编程语言,内置了许多有效的工具...
    99+
    2023-06-14
  • Python机器学习之逻辑回归的示例分析
    这篇文章主要介绍了Python机器学习之逻辑回归的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。Python主要用来做什么Python主要应用于:1、Web开发;2、...
    99+
    2023-06-15
  • Python机器学习中pandas的示例分析
    小编给大家分享一下Python机器学习中pandas的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!python的五大特点是什么python的五大特点:1...
    99+
    2023-06-15
  • opencv3机器学习之EM算法示例详解
    目录引言一、opencv3.0中自带的例子二、trainEM实现自动聚类进行图片目标检测引言 不同于其它的机器学习模型,EM算法是一种非监督的学习算法,它的输入数据事先不需要进行标注...
    99+
    2024-04-02
  • Python全栈之学习JQuery的示例分析
    这篇“Python全栈之学习JQuery的示例分析”文章,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要参考一下,对于“Python全栈之学习JQuery的示例分析”,小编整理了以下知识点,请大家跟着小编的步伐一步一...
    99+
    2023-06-29
  • Python全栈之学习HTML的示例分析
    这篇“Python全栈之学习HTML的示例分析”除了程序员外大部分人都不太理解,今天小编为了让大家更加理解“Python全栈之学习HTML的示例分析”,给大家总结了以下内容,具有一定借鉴价值,内容详细步骤清晰,细节处理妥当,希望大家通过这篇...
    99+
    2023-06-29
  • python之CSF算法的示例分析
    这篇文章给大家分享的是有关python之CSF算法的示例分析的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。1. 引言机载LiDAR可以获取快速、低成本地获取大区域的高精度地形测量值。为了获取高精度的地形数据(厘米...
    99+
    2023-06-20
  • Python深度学习算法实例分析
    本篇内容主要讲解“Python深度学习算法实例分析”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Python深度学习算法实例分析”吧!最小二乘法所有的深度学习算法都始于下面这个数学公式(我已将其...
    99+
    2023-06-03
  • Vue.js学习之过滤器的示例分析
    这篇文章给大家分享的是有关Vue.js学习之过滤器的示例分析的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。Vue.Js中的过滤器基础过滤器是一个通过输入数据,能够及时对数据进行处...
    99+
    2024-04-02
  • Python机器学习之Kmeans基础算法
    一、K-means基础算法简介 k-means算法是一种聚类算法,所谓聚类,即根据相似性原则,将具有较高相似度的数据对象划分至同一类簇,将具有较高相异度的数据对象划分至不同类簇。聚类与分类最大的区别在于,聚类过程为无...
    99+
    2022-06-02
    Python Kmeans基础算法 python机器学习 python Kmeans
  • Python机器学习之KNN近邻算法
    目录一、KNN概述二、使用Python导入数据三、numpy.array()四、实施KNN分类算法五、计算已知类别数据集中的点与当前点之间的距离六、完整代码七、数据处理、分析、测试八...
    99+
    2024-04-02
  • Python基础学习之GUI对话框的示例分析
    这篇文章主要介绍Python基础学习之GUI对话框的示例分析,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!一、漂亮的标签图和按钮图这个标签的设置config,如果熟悉office的操作,应该是一件不太难的事情。仿照文...
    99+
    2023-06-15
  • Python实现机器学习算法的分类
    Python算法的分类 对葡萄酒数据集进行测试,由于数据集是多分类且数据的样本分布不平衡,所以直接对数据测试,效果不理想。所以使用SMOTE过采样对数据进行处理,对数据去重,去空,处...
    99+
    2024-04-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作