返回顶部
首页 > 资讯 > 后端开发 > Python >python爬虫实例(urllib&Be
  • 883
分享到

python爬虫实例(urllib&Be

爬虫实例python 2023-01-31 02:01:20 883人浏览 八月长安

Python 官方文档:入门教程 => 点击学习

摘要

python 2.7.6urllib:发送报文并得到responseBeautifulSoup:解析报文的body(html)#encoding=UTF-8 from bs4 import BeautifulSoup from urllib

python 2.7.6

urllib:发送报文并得到response

BeautifulSoup:解析报文的body(html

#encoding=UTF-8
from bs4 import BeautifulSoup
from urllib import urlopen
import urllib

list_no_results=[]#没查到的银行卡的list
list_yes_results=[]#已查到的银行卡的list

#解析报文,以字典存储
def parseData(htmls,code):
    dic={}
    s=BeautifulSoup(htmls)
    if code=='00':
        list=s.find_all('td','STYLE2',align=False)
        dic={'id':list[0].string,'lt':list[1].string,'type':list[2].string}
    if code=='01':
        list=s.find_all('li')
        dic['id']=list[3].get_text('|').split('|')[1]
        dic['lt']=list[4].get_text('|').split('|')[1]
        dic['type']=list[5].get_text('|').split('|')[1]
    return dic #卡号id, 归属地lt,卡种type  dict

    
#向网站00和01发送查询银行卡信息,并得到报文body,交parseData处理,返回result字典
def getInfoFromWEB00(cardNumStr): 
    #Http://www.6wm.cn/card/6222020200094043425.html
    url_get='http://www.6wm.cn/card/'+cardNumStr+'.html'
    get_2=urlopen(url_get).read()
    if '404 Not Found' not in get_2:
        #pare data
        return parseData(get_2,'00')
    else:
        data=urllib.urlencode({'cardNum':cardNumStr})
        url_query='http://www.6wm.cn/bank.PHP'
        post_1=urlopen(url_query,data=data)
        get_2=urlopen(url_get).read()
        #pare data
        if '404 Not Found' not in get_2:
            return parseData(get_2,'00')
        else:
            list_no_results.append(cardNumStr)
            return False
    
def getInfoFromWeb01(cardNumStr):
    #http://www.cha789.com/bank_6228212028001510771.html
    url_get='http://www.cha789.com/bank_'+cardNumStr+'.html'
    get_1=urlopen(url_get).read()
    if 'cxContext' not in get_1:
        list_no_results.append(cardNumStr)
        return False
    else:
        return parseData(get_1,'01')

if __name__=='__main__':

    list_card=['……','……']#list of card string

    ……

--结束END--

本文标题: python爬虫实例(urllib&Be

本文链接: https://lsjlt.com/news/186694.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • python爬虫实例(urllib&Be
    python 2.7.6urllib:发送报文并得到responseBeautifulSoup:解析报文的body(html)#encoding=UTF-8 from bs4 import BeautifulSoup from urllib...
    99+
    2023-01-31
    爬虫 实例 python
  • Python 爬虫 urllib模块:p
    本程序以爬取 'http://httpbin.org/post' 为例格式:  导入urllib.request  导入urllib.parse  数据编码处理,再设为utf-8编码:  bytes(urllib.parse.urlenco...
    99+
    2023-01-31
    爬虫 模块 Python
  • Python爬虫之urllib库详解
    目录一、说明:二、urllib四个模块组成:三、urllib.request1、urlopen函数2、response 响应类型3、Request对象 4、高级请求方式四、urlli...
    99+
    2024-04-02
  • Python爬虫中urllib库怎么用
    这篇文章给大家分享的是有关Python爬虫中urllib库怎么用的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。一、说明:urllib库是python内置的一个http请求库,requests库就是基于该库开发出来...
    99+
    2023-06-29
  • Python爬虫技术栈 | urllib库&&urllib3库
    ❤️urllib库详解❤️ 每篇前言: 第一部分:urllib库 一、request模块:发送请求 1.urlopen() ...
    99+
    2023-09-10
    python 爬虫 urllib库urllib3库
  • Python爬虫之Urllib库的基本使
    # get请求 import urllib.request response = urllib.request.urlopen("http://www.baidu.com") print(response.read().decode('...
    99+
    2023-01-30
    爬虫 Python Urllib
  • python3 urllib 爬虫乱码问
    #!/usr/bin/env python # -*- coding: utf-8 -*- from bs4 import BeautifulSoup from urllib.request import urlopen ba...
    99+
    2023-01-31
    爬虫 乱码 urllib
  • Python中urllib+urllib2+cookielib模块编写爬虫实战
    超文本传输协议http构成了万维网的基础,它利用URI(统一资源标识符)来识别Internet上的数据,而指定文档地址的URI被称为URL(既统一资源定位符),常见的URL指向文件、目录或者执行复杂任务的对...
    99+
    2022-06-04
    爬虫 实战 模块
  • Python爬虫urllib和requests的区别详解
    我们讲了requests的用法以及利用requests简单爬取、保存网页的方法,这节课我们主要讲urllib和requests的区别。 1、获取网页数据 第一步,引入模块。 两者引入...
    99+
    2024-04-02
  • 使用Python的urllib和urllib2模块制作爬虫的实例教程
    urllib 学习python完基础,有些迷茫.眼睛一闭,一种空白的窒息源源不断而来.还是缺少练习,遂拿爬虫来练练手.学习完斯巴达python爬虫课程后,将心得整理如下,供后续翻看.整篇笔记主要分以下几个部...
    99+
    2022-06-04
    爬虫 实例教程 模块
  • python爬虫urllib中的异常模块处理
    目录urllib中的异常处理url的组成部分URLErrorHTTPError简介Urllib.error 模块异常处理urllib中的异常处理 在我们写爬虫程序时,若出现url中的...
    99+
    2024-04-02
  • Python爬虫进阶之如何使用urllib库
    这篇文章主要介绍了Python爬虫进阶之如何使用urllib库,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。python的数据类型有哪些python的数据类型:1. 数字类型...
    99+
    2023-06-14
  • Python爬虫库urllib的使用教程详解
    目录Python urllib库urllib.request模块urlopen函数Request 类urllib.error模块URLError 示例HTTPError示例...
    99+
    2022-11-21
    Python爬虫库urllib使用 Python urllib使用 Python urllib
  • Python爬虫实例分析
    今天小编给大家分享一下Python爬虫实例分析的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。环境搭建既然用python,那么...
    99+
    2023-06-03
  • Python中urllib爬虫、request模块和parse模块的示例分析
    小编给大家分享一下Python中urllib爬虫、request模块和parse模块的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!urlliburlli...
    99+
    2023-06-14
  • Python爬虫中urllib3与urllib的区别是什么
    目录urllib库urllib.request模块Request对象1 . 请求头添加2. 操作cookie3. 设置代理urllib.parse模块urllib.error模块urllib.robotparse模块...
    99+
    2022-06-02
    Python urllib3 urllib Python urllib3
  • 关于python爬虫应用urllib库作用分析
    目录一、urllib库是什么?二、urllib库的使用urllib.request模块urllib.parse模块利用try-except,进行超时处理status状态码 &...
    99+
    2024-04-02
  • python 淘宝爬虫小实例
    兄弟们,双十一剁手了吗?购物虽快乐,但是别过度了,毕竟很多降价不是真的降价,眼睛擦亮了~ 今天来试试爬一下某宝,这玩意学会了做外包的话,还是值几个钱的。 环境/模块介绍 pyt...
    99+
    2024-04-02
  • Python爬虫基础之初次使用scrapy爬虫实例
    项目需求 在专门供爬虫初学者训练爬虫技术的网站(http://quotes.toscrape.com)上爬取名言警句。 创建项目 在开始爬取之前,必须创建一个新的Scrapy项目。进入您打算存储代码的目录中,运行下列...
    99+
    2022-06-02
    Python scrapy框架 Python爬虫
  • python爬虫之请求模块urllib的基本使用
    目录前言urllib的子模块HttpResponse常用方法与属性获取信息urlli.parse的使用(一般用于处理带中文的url)✅爬取baidu官网HTML源代码✅添加请求头信息...
    99+
    2024-04-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作