当前位置:脚本大全 > > 正文

python爬微信好友(python抓取需要扫微信登陆页面)

时间:2021-10-10 00:48:47类别:脚本大全

python爬微信好友

python抓取需要扫微信登陆页面一,抓取情况描述

1.抓取的页面需要登陆,以公司网页为例,登陆网址https://app-ticketsys.hezongyun.com/index.php ,(该网页登陆方式微信扫码登陆)

2.需要抓取的内容如下图所示:

需要提取

工单对应编号,如tk-2960

工单发起时间,如2018-08-17 11:12:13

工单标题内容,如设备故障

工单正文内容,如最红框所示

python爬微信好友(python抓取需要扫微信登陆页面)

二,网页分析

1.按按ctrl + shift + i或者鼠标右键点击检查进入开发人员工具。

可以看到页面显示如下:

python爬微信好友(python抓取需要扫微信登陆页面)

主要关注点如上图框住和划线处

首先点击网络,记住以下信息将用于代码修改处。

resquest url:https: //app-ticketsys.hezongyun.com/index.php/ticket/ticket_list/init这个是需要爬取页面的信息请求menthod:get饼干:用于需要登陆页面user-agent:mozilla / 5.0(windows nt 10.0; win64; x64)applewebkit / 537.36(khtml,类似gecko)chrome / 67.0.3396.62 safari / 537.36

记住以上信息后粗略了解网页树形结构用beatifulsoup中selec怎么取出内容

示例:的h1m1一段代码如下:

  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • html =“”“
  • <html> <head> <title>睡鼠的故事</ title> </ head>
  • <body>
  • <p class =”title“name =”dromouse“> <b>睡鼠的故事</ b > </ p>
  • <p class =“story”>从前有三个小姐妹;他们的名字是
  • <a href =“http://example.com/elsie”class =“sister”id =“ link1“> <! - elsie - > </a>,
  • <a href="http://example.com/lacie" rel="external nofollow" class="sister" id="link2"> lacie </a>和
  • <a href =“http://example.com/tillie”class =“sister”id =“link3”> tillie </a>;
  • 他们住在井底。</ p>
  • <p class =“story”> ... </ p>
  • “”“
  • 如果我们喝汤得到了上面那段html的结构提取内容方法如下

    1.通过标签名查找soup.select( '标题'),如需要取出含有一个标签的内容则soup.select( 'a')的

    2.通过类名查找soup.select( 'class_name ')如取出标题的内容则soup.select('。标题')

    3.通过id名字查找soup.select( '#id_name')如取出id = link2的内容则soup.select( '#link2')

    上述元素名字可以利用左上角箭头取出,如下图

    python爬微信好友(python抓取需要扫微信登陆页面)

    三,程序编写

  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • # -*- coding:utf-8 -*-
  • import requests
  • import sys
  • import io
  • from bs4 import beautifulsoup
  • import sys
  • import xlwt
  • import urllib,urllib2
  • import re
  • def get_text():
  •   #登录后才能访问的网页,这个就是我们在network里查看到的request url
  •   url = 'https://app-ticketsys.hezongyun.com/index.php/ticket/ticket_iframe/'
  •   #浏览器登录后得到的cookie,这个就是我们在network里查看到的coockie
  •   cookie_str = r'ci_ticketsys_session=‘***********************************'
  •   #把cookie字符串处理成字典
  •   cookies = {}
  •   for line in cookie_str.split(';'):
  •     key, value = line.split('=', 1)
  •     cookies[key] = value
  •   #设置请求头
  •   headers = {'user-agent':'mozilla/5.0(windows nt 10.0; win64;x64)applewebkit/537.36 (khtml, like gecko)chrome/67.0.3396.62 safari/537.36'}
  •   #在发送get请求时带上请求头和cookies
  •   resp = requests.get(url, cookies = cookies,headers = headers)
  •   soup = beautifulsoup(resp.text,"html.parser")
  •   print soup
  • 上述代码就能得到登陆网页的html源码,这个源码呈一个树形结构,接下来针对需求我们提取需要的内容进行提取

    我们需要工单号,对应时间,对应标题

    python爬微信好友(python抓取需要扫微信登陆页面)

    按箭头点击到对应工单大块,可以查询到,所有的工单号,工单发起时间,工单标题均在<ul id =“ticket-list”>这个id下面

    python爬微信好友(python抓取需要扫微信登陆页面)

    那么点开一个工单结构,例如工单号id = “4427” 下面我们需要知道工单号,工单发起时间,工单内容可以看到

    1.工单内容在h3标签下面

    2.工单编号在类=“num”下面

    3.工单发起时间在类= “时间” 下面

  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • for soups in soup.select('#ticket-list'):
  •   if len(soups.select('h3'))>0:
  •     id_num = soups.select('.num')
  •     star_time = soups.select('.time')
  •     h3 = soups.select('h3')
  •     print id_num,start_time,h3
  • 总结

    以上所述是小编给大家介绍的python抓取需要扫微信登陆页面,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对开心学习网网站的支持!

    如果你觉得本文对你有帮助,欢迎转载,烦请注明出处,谢谢!

    原文链接:https://blog.csdn.net/lai_cheng/article/details/81772662

    标签:
    上一篇下一篇

    猜您喜欢

    热门推荐