返回顶部
首页 > 资讯 > 后端开发 > Python >使用python怎么爬取网站的购买记录
  • 704
分享到

使用python怎么爬取网站的购买记录

2023-06-14 15:06:27 704人浏览 安东尼

Python 官方文档:入门教程 => 点击学习

摘要

这期内容当中小编将会给大家带来有关使用python怎么爬取网站的购买记录,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。Python的数据类型有哪些?python的数据类型:1. 数字类型,包括int(整型

这期内容当中小编将会给大家带来有关使用python怎么爬取网站的购买记录,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。

Python的数据类型有哪些?

python的数据类型:1. 数字类型,包括int(整型)、long(长整型)和float(浮点型)。2.字符串,分别是str类型和unicode类型。3.布尔型,Python布尔类型也是用于逻辑运算,有两个值:True(真)和False(假)。4.列表,列表是Python中使用最频繁的数据类型,集合中可以放任何数据类型。5. 元组,元组用”()”标识,内部元素用逗号隔开。6. 字典,字典是一种键值对的集合。7. 集合,集合是一个无序的、不重复的数据组合。

第一步:添加必要的库,创建一个BUY类

import  requests,re,xlwt

第二步:class Color;

def __init__(self):    '''添加请求头'''    self.headers = {        'user-agent': 'Mozilla/5.0 (windows NT 10.0; Win64; x64) AppleWEBKit/537.36 '                      '(Khtml, like Gecko) Chrome/87.0.4280.141 Safari/537.36',    }    #添加查询订单地址    self.port = 'Http://xxxxxx.xxfaka.cn/?mod=query&data=xxxxxxxxxxx''''请求视频网页链接'''def request_link(self):    self.response = requests.get(self.port, headers=self.headers)    self.html = self.response.text    print(self.html)    if __name__ == '__main__':    app= Color()    app.request_link()

直接运行之后的数据有点多,这里没有完全显示

第三步:找到cookie添加到请求头

根据搜索资料发现需要加cookie,然后又去网页找到cookie添加到请求头,然后headers会出现下面这种情况

self.headers = {                                                    'Cookie':'mysid=bcd178f6a7784bdaf63c03e321cfb77a; PHPSESSID=gml9nd9psrik73840v6jem6mm4; sec_defend=baa2a7703f2f3326fa7a366428aef295ac40ff679f2fec0284578de88e87bcac; sec_defend_time=1',                                                    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 '                                                                                                            '(KHTML, like Gecko) Chrome/77.0.3560.141 Safari/537.36',                                    }

第四步:再次运行代码

这时候就可以拿到网页数据了

初步打算一次直接匹配一个订单全部消息,但是发现有对括号导致一直匹配内容为空

</span>  (<font size="2" color="#836FFF">2020-12-24 01:09:09</font>)<br>…太长了…<hr>

用两个replace将括号替换为空

self.html = self.html.replace('(','')    self.html = self.html.replace(')', '')    re.findall(r'…(.*?)…(.*?)…',self.html)

第五步:一条语句扣一个内容,之后在for循环将对应数据放到一个列表

匹配了六七个(.?)内容,发现总是不能准确扣到具体内容,有可能好几条订单被扣到一个(.?)里面。这个时候可以换个思路,一条语句扣一个内容,之后在for循环将对应数据放到一个列表,然后整体再放入列表组成二维列表。

#获取订单时间            self.order_time = re.findall(r'<font size=".*?" color="#836FFF">(.*?)</font>.*?<br><h5>商品名称:<a href="\./\?mod=buy&tid=\w?\w?\w?\w?">(.*?)</a></h5>联系方式:.*?总价<font color=".*?">(.*?)</font>元.*?</strong></font>(.*?)<hr>',self.html)    #获取商品名称    self.pur_info = re.findall(r'',self.html)    #获取订单联系方式    self.contact_info = re.findall(r'',self.html)    #获取订单总价    self.price_total = re.findall(r'总价<font color=".*?">(.*?)</font>元',self.html)    #获取账号不完全信息    self.km_info = re.findall(r'</strong></font>(.*?)<hr>',self.html)    #获取下单总数    self.num_total = re.findall(r'<li><span class="rows">共(.*?)条</span> </li>', self.html)            temp_info =[]        for i in range(0,len(self.order_time)):                    for lie in range(0,6):#lie                            temp_info.append(self.order_time[lie])                            temp_info.append(self.pur_info[lie])                            temp_info.append(self.contact_info[lie])                            temp_info.append(self.price_total[lie])                            temp_info.append(self.km_info[lie])                            temp_info.append(self.num_total[0])                    temp_info.append(''.join(temp_info))                    self.account_info.append(list(temp_info))            print(self.account_info)

写出来基本就是上面的样子,运行发现四五秒以后直接卡死,然后半小时没动重新开机了,代码没保存再运行append那就报错了,就暂时放弃这种方法,重新回到之前的思路,把数据一次都提取出来,既然这单个的都准确提取了,放到一起就可以了。把每个放到一起连接起来运行,直接生成了二维数据。

for i in range(0,len(self.info)):            self.info[i] = list(self.info[i])    #通过这里来判断订单的三种情况    km_info = re.findall(r'>账号信息:(.*?)</b><br>',self.info[i][5])    if km_info==[]:            km_info = re.findall(r'</b><span class="(.*?)">卡密可能漏发,请联系客服</span>',self.info[i][5])    if km_info == []:            km_net = re.findall(r'<br>卡密操作:<a href=".(.*?)" title="点击查看卡密"><button', self.info[i][5])            km_net = self.port +(''.join(km_net))#多张卡密提取链接            #尚未完成一个单子多张卡密提取    self.info[i][5] = km_info

上述就是小编为大家分享的使用python怎么爬取网站的购买记录了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注编程网Python频道。

--结束END--

本文标题: 使用python怎么爬取网站的购买记录

本文链接: https://lsjlt.com/news/272674.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • 使用python怎么爬取网站的购买记录
    这期内容当中小编将会给大家带来有关使用python怎么爬取网站的购买记录,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。python的数据类型有哪些python的数据类型:1. 数字类型,包括int(整型)...
    99+
    2023-06-14
  • 怎么用python爬取网站
    使用Python爬取网站的一般步骤如下:1. 导入所需的库,如`requests`或`urllib`用于发送HTTP请求,`beau...
    99+
    2023-08-31
    Python
  • 使用Python爬虫怎么避免频繁爬取网站
    这期内容当中小编将会给大家带来有关使用Python爬虫怎么避免频繁爬取网站,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。python的数据类型有哪些python的数据类型:1. 数字类型,包括int(整型...
    99+
    2023-06-15
  • 怎么用python爬取网站数据
    要用Python爬取网站数据,可以使用Python的爬虫库来实现。下面是一个简单的示例,使用`requests`库来获取网页内容,使...
    99+
    2023-09-07
    python
  • Python中怎么利用Beautifulsoup爬取网站
    这篇文章将为大家详细讲解有关Python中怎么利用Beautifulsoup爬取网站,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。1.开始前准备1 python3,本篇博客内容采用pytho...
    99+
    2023-06-17
  • 使用Python怎么爬取网站图片并保存
    这期内容当中小编将会给大家带来有关使用Python怎么爬取网站图片并保存,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。第一步,导入模块import requestsfrom bs4&n...
    99+
    2023-06-06
  • 如何使用Python爬虫爬取网站图片
    这篇文章主要介绍了如何使用Python爬虫爬取网站图片,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。此次python3主要用requests,解析图片网址主要用beautif...
    99+
    2023-06-22
  • 如何使用python爬取整个网站
    要使用Python爬取整个网站,可以使用以下步骤:1. 导入所需的库,例如`requests`和`BeautifulSoup`。``...
    99+
    2023-08-14
    python
  • 用基于python的appium爬取b站直播消费记录
    基于python的Appium进行b站直播消费记录爬取 之前看文章说fiddler也可以进行爬取,但尝试了一下没成功,这次选择appium进行爬取。类似的,可以运用爬取微信朋友圈和抖...
    99+
    2024-04-02
  • 怎么使用python爬取网站所有链接内容
    要使用Python爬取网站的所有链接内容,可以使用Python的requests库发送HTTP请求和BeautifulSoup库解析...
    99+
    2023-08-23
    python
  • 怎么使用python爬取网页图片
    本篇内容介绍了“怎么使用python爬取网页图片”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!在现在这个信息爆炸的时代,要想高效的获取数据,...
    99+
    2023-07-02
  • 使用python爬取taptap网站游戏截图的步骤
    今天使用python写了一个简单的爬虫,用来下载taptap网站的游戏截图。下面说下具体的实现方法。 在搜索框中搜索“原神” 打开浏览器的开发者选项,从详情按钮里面跳转到游戏的页面,点击详情之后,跳转页面 这时候...
    99+
    2022-06-02
    python 爬虫 python 爬取网站 python 爬取taptap游戏
  • python怎么爬取网站所有链接内容
    要爬取一个网站的所有链接内容,你可以使用Python中的requests和BeautifulSoup库来实现。下面是一个简单的示例代...
    99+
    2023-08-14
    python
  • 用python爬取某个图片网站的图片
    爬取单张图片 # 爬取单张图片import requests # 导入requests库url = "https://file.lsjlt.com/upload/f/202309/12/54vwhbwy2re.jpg" # 图片地址re...
    99+
    2023-09-12
    python 爬虫
  • 怎么使用python爬虫爬取数据
    本篇内容介绍了“怎么使用python爬虫爬取数据”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!python爬出六部曲第一步:安装reques...
    99+
    2023-06-29
  • 怎么在python中利用多线程爬取网站壁纸
    本篇文章给大家分享的是有关怎么在python中利用多线程爬取网站壁纸,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。Python主要用来做什么Python主要应用于:1、Web开...
    99+
    2023-06-06
  • 怎么用Python爬取某图网的图片
    本篇内容介绍了“怎么用Python爬取某图网的图片”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!相信很多设计小伙伴有好的灵感,但是没有好的设...
    99+
    2023-06-15
  • 使用python怎么爬取数据
    使用python怎么爬取数据?很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。Python的优点有哪些1、简单易用,与C/C++、Java、C# 等传统语言相比,P...
    99+
    2023-06-14
  • 使用Python进行网站数据爬取和视频处理
    导语 在互联网时代,我们经常需要从网站上获取数据并进行分析或处理。有时候,我们还需要对视频数据进行一些操作,比如剪辑、转码、合成等。Python是一门非常适合做数据分析和视频处理的编程语言,它有很多...
    99+
    2023-09-04
    python 网络爬虫 requests 爬虫代理 视频处理 moviepy 数据爬取
  • 怎么在python中使用xpath爬取网上数据
    本篇文章给大家分享的是有关怎么在python中使用xpath爬取网上数据,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。设计数据库from django.db ...
    99+
    2023-06-06
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作