Python 官方文档:入门教程 => 点击学习
本篇内容介绍了“怎么用python自动获取微信公众号最新文章”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!微信公众号获取思路常用的微信公众号
本篇内容介绍了“怎么用python自动获取微信公众号最新文章”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
常用的微信公众号文章获取方法有搜狐、微信公众号主页获取和api接口等多个方法。
听说搜狐最近不怎么好用了,之前用的api接口也频繁维护,所以用了微信公众平台来进行数据爬取。
首先登陆自己的微信公众平台,没有账号的可以注册一个。进来之后找“图文信息”,就是写公众号的地方
点进去后就是写公众号文章的界面,在界面中找到“超链接” 的字段,在这里就可以对其他的公众号进行检索。
以“Python”为例,输入要检索的公众号名称,在显示的公众号中选择要采集的公众号
点开浏览器的检查,找到network中,下图里的这个链接,而右边的Request URL才是存储公众号数据的真实链接。说明这是个JSON网页。
以公众号“python”的 链接 为例对网址进行分析。
https://mp.weixin.qq.com/cgi-bin/appmsg:微信公众平台的链接"token": "163455614", #需要定期修改的token"lang": "zh_CN", #语言"f": "json","ajax": "1", #显示几天的文章"action": "list_ex""begin": "0", #起始页面"count": "1", #计数"query": "","fakeid": 'MzIwNDA1OTM4NQ==', #公众号唯一编码"type": "9",
既然发现了fakeid是代表公众号的唯一编码,那接下来只需要把需要的公众号的fakeid找到就行,我随意找了三个公众号的进行测试。
fakeid=[ 'MzIwNDA1OTM4NQ==','MzkxNzAwMDkwNQ==','MjM5NzI0NTY3Mg==']#若增加公众号需要增加fakeid
那接下来就是对网址的请求
首先导入需要的库
import timeimport requestsfrom lxml import etreeimport pandas as pdimport jsonimport numpy as npimport datetimeimport urllib3from urllib3.exceptions import InsecureRequestWarningurllib3.disable_warnings(InsecureRequestWarning)
由于不想重复登录公众号平台,可以使用cookie避开登陆,对文章求情前需要找到网页的cookie和User-Agent,由于微信公众号回定期刷新,这个cookie和上面的token都要定期更换。
为避免反扒最好也找个代理ip
headers = {"Cookie": "appmsglist_action_3567997841=card;wxuin=49763073568536;pgv_pvid=6311844914;ua_id=x6Ri8bc9LeaWnjNNAAAAADI-VXURALRxlSurJyxNNvg=;mm_lang=zh_CN;pac_uid=0_3cf43Daf28071;eas_sid=11Q6v5b0x484W9i7W0Z7l7m3I8;rewardsn=;wxtokenkey=777;wwapp.vid=;wwapp.cst=;wwapp.deviceid=;uuid=fd43d0b369e634ab667a99eade075932;rand_info=CAESIHgWwDfp3W4M9F3/TGnzHp4kKkrkMiCEvN/tSNhHtNBm;slave_bizuin=3567997841;data_bizuin=3567997841;bizuin=3567997841;data_ticket=IfMEEajZ8UvywUZ1NiIv9eKZkq0cgeS0oP6tTzEwNSjwK6q+u5vLw0XYeFvLL/JA;slave_sid=aVBzSlpYOGt4eTdmbzFRWDc1OUhzR1A1UkwzdUdBaklDaGh3dWY2MUZKTEw1Um1aalZRUXg5aVBMeEJVNklCcGlVN0s5Z3VEMmRtVENHS1ZxNTBDOWRCR0p2V2FyY2daU0hxT09Remd5YmlhRWExZkMwblpweVc3SndUbnJIQk55MGhUeExJa1NJcWZ0QmJS;slave_user=gh_e0f449d4f2b6;xid=7d5dc56bb7bb526c70cfef3f6bdfa18a","User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_0) AppleWEBKit/537.36 (Khtml, like Gecko) Chrome/100.0.4896.75 Safari/537.36", }proxies = {'Http': '112.80.248.73'}
接下来就可以对页面进行爬取,获取页面中的文章标题与文章链接,以及文章的时间,对网页的信息进行分析发现网页的所有信息都保存在’app_msg_list’这个字段中,所以对这个字段中的数据进行提取。
代码如下:
获取到的数据包存在df中,这里的数据还不是微信公众号的最新文章数据,而是微信公众号这最近一天发出的文章数据。所以还需要对发文的时间进行筛选。注意到这里的时间格式为时间戳,所以需要对时间数据进行转换
转换代码如下:
def time_s(df): def transfer_time(s): #时间处理 aa = time.ctime(s) bb = aa.split(' ') cc = (bb[-1]+"-"+bb[1]+"-"+bb[-3]).replace('Jan','1').replace('Feb','2').replace('Mar','3'). \ replace('Apr','4').replace('May','5').replace('Jun','6').replace('Jul','7').replace('Aug','8') \ .replace('Sep','9').replace('Oct','10').replace('Nov','11').replace('Dec','12') dd = datetime.datetime.strptime(cc,'%Y-%m-%d').date() return dd ti=[] hd=[] for i in range(0,len(df['time'])): timestap= transfer_time(df['time'][i]) ti.append(timestap) #print(ti) d= ti[i] + datetime.timedelta(weeks=0, days=0, hours=0, minutes=0, seconds=0, milliseconds=0, microseconds=0, ) #dc = d.strftime("%Y-%m-%d") hd.append(d) df['time']=hd
这样就可以把微信公众号的时间戳数据转换为时间数据,之后,根据当前天的日期对数据集中的内容进行提取与存储就OK啦
dat=df[df['time'] == datetime.date.today() + datetime.timedelta(days= -1)] #自动获取昨天日期,将-1改为-2,则为前天的日期,以此类推 ##改自动化 path = 'C:/Users/gpower/Desktop/work/行业信息/' #根据自己电脑位置更改 import re filename=path+"微信公众号采集" + re.sub(r'[^0-9]','',datetime.datetime.now().strftime("%Y-%m-%d")) + '.csv' # 对文件进行命名,以“微信公众号采集+当前日期”命名 dat.to_csv(filename,encoding='utf_8_sig') print("保存成功")
“怎么用python自动获取微信公众号最新文章”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注编程网网站,小编将为大家输出更多高质量的实用文章!
--结束END--
本文标题: 怎么用python自动获取微信公众号最新文章
本文链接: https://lsjlt.com/news/343662.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-03-01
2024-03-01
2024-03-01
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0