爬虫初识(代码片段)

golanguage golanguage     2023-04-13     197

关键词:

爬虫

什么是爬虫?

通过编写代码,模拟浏览器发送请求,让其去网络上抓去数据的过程。

爬虫分类?

  • 通用爬虫

    • 抓取整张网页的全部内容
  • 聚焦爬虫

    • 抓去一张页面的部分内容

    通用爬虫和聚焦爬虫的关联:

    • 聚焦是建立在通用爬虫的基础上
  • 增量式

    • 监测网站数据的更新情况,以便将最新的数据进行爬取。

reqeusts基本介绍

  • 作用:实现爬虫,模拟浏览器上网。
  • 编码流程:
    • 指定url地址(指定要爬取的网站地址)
    • 发起请求
    • 获取响应的数据
    • 持久化储存
  • 环境安装: pip install requests

反爬之UA伪装

  • 什么是UA?
  • 请求载体的身份标识
  • UA查找路径:打开浏览器,搜索一个网页→Ctrl+Shift+c→Network→选择网址对饮的name→Headers→User-Agent(把后面的值复制)
  • 常用浏览器请求头UA
1) Chrome
Win7:
Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1

win10 64
Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36

2) Firefox
Win7:
Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0
 
3) Safari
Win7:
Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50

4) Opera
Win7:
Opera/9.80 (Windows NT 6.1; U; zh-cn) Presto/2.9.168 Version/11.50
 
5) IE
Win7+ie9:
Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 2.0.50727; SLCC2; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; Tablet PC 2.0; .NET4.0E)
 
Win7+ie8:
Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; InfoPath.3)
 
WinXP+ie8:
Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; GTB7.0)
 
WinXP+ie7:
Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)
 
WinXP+ie6:
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1)
 
6) 傲游
傲游3.1.7在Win7+ie9,高速模式:
Mozilla/5.0 (Windows; U; Windows NT 6.1; ) AppleWebKit/534.12 (KHTML, like Gecko) Maxthon/3.0 Safari/534.12
 
傲游3.1.7在Win7+ie9,IE内核兼容模式:
Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; .NET4.0E)
 
7) 搜狗
搜狗3.0在Win7+ie9,IE内核兼容模式:
Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; .NET4.0E; SE 2.X MetaSr 1.0)
 
搜狗3.0在Win7+ie9,高速模式:
Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.3 (KHTML, like Gecko) Chrome/6.0.472.33 Safari/534.3 SE 2.X MetaSr 1.0
 
8) 360
360浏览器3.0在Win7+ie9:
Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; .NET4.0E)
 
9) QQ浏览器
QQ浏览器6.9(11079)在Win7+ie9,极速模式:
Mozilla/5.0 (Windows NT 6.1) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.41 Safari/535.1 QQBrowser/6.9.11079.201
 
QQ浏览器6.9(11079)在Win7+ie9,IE内核兼容模式:
Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; .NET4.0E) QQBrowser/6.9.11079.201
 
10) 阿云浏览器
阿云浏览器1.3.0.1724 Beta(编译日期2011-12-05)在Win7+ie9:
Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)
"""
搜狗首页的源码数据爬取
    需要UA伪装
"""
import requests

inp = input('搜索:')
params = 
    # url携带的请求参数
    'query': inp,

# UA伪装,请求头信息
headers = 
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36'

# 指定url(网址)
url = f'https://www.sogou.com/web'

# get发起请求,携带请求参数,返回的是一个响应对象
    # url 网址,params 参数动态化,headers UA伪装
response = requests.get(url=url, params=params, headers=headers)
response.encoding = 'utf-8'     # 手动修改编码格式指定utf8,处理乱码问题
# 获取响应数据   .test
page_text = response.text
fileName = inp + '.html'
# 持久化存储
with open(fileName, 'w', encoding='utf-8') as f:
    f.write(page_text)
    print('ok')

反爬之动态加载

  • 需求:爬取豆瓣电影中爱情类型中的详情数据

    • 动态加载的数据:通过另一个请求单独请求到的数据
    • 如何检测爬取的数据是否为动态加载的数据?
      • 基于抓包工具进行局部搜索
        • 抓包工具获取到的所有数据包,然后找到浏览器地址栏url对应的数据包,response这个选项卡中进行局部搜索(搜到或者搜不到)
          • 搜不到:数据为动态加载
            • 全局搜索Ctrl+F,搜索想要的数据
          • 能搜到:数据不是动态加载
            • 直接对浏览器地址栏的url发起请求获取数据即可
  • 代码实现单页爬取
import requests

# UA伪装,请求头信息
headers = 
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36'

# 请求携带的参数
params = 
    'type': '15',
    'interval_id': '100:90',
    'action': '',
    'start': '0',
    'limit': '20',

# 请求的网址
url = "https://movie.douban.com/j/chart/top_list?"

# 发起请求  url网址   headers请求头  params请求携带的参数
res = requests.get(url=url,params=params,headers=headers)
data_list = res.json() # 返回的是序列化的列表
for i in data_list:
    title = i["title"]
    types = i["types"]
    print(title,types)
import requests

url = "http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword"
city = input("city name : ")
headers = 
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'

# 全站信息爬取
for i in range(1,111):
    # 获取餐厅地址所需要的动态参数,键值对,值为str
    data = 
        'cname': '',
        'pid': '',
        'keyword': city,    # 数据的搜索地址
        'pageIndex': str(i),    # 数据的页码数
        'pageSize': '10',   # 每一页的数据量
    
    
# headers请求头   data参数动态化
    pos_list = requests.post(url=url,headers=headers,data=data).json()["Table1"]    # 返回一个响应对象  .json()返回了一个序列化好的字典对象  ['Table1']获取Key所对应的value值
    
    for i in pos_list:
        s = i["addressDetail"]
        print(s)

requests中,get和post的区别就是参数一个是params,一个是data。

  • 需求:所有企业的详情数据

    • 网址:http://125.35.6.84:81/xk/
    • 分析
      • 每一家企业所对应的详情数据是动态加载的
      • 通过抓包工具进行了全局搜索,定位到了动态加载数据对赢得数据包
        • 提取url:每家企业对应的url都一样
        • 请求方式:都一样
        • 请求参数:都为ID,但是参数值不同
          • ID为每家企业的唯一标识
          • 捕获到每家企业的唯一标识id,可以完成需求
    • 对企业ID的捕获
      • 在首页中进行分析,使用抓包工具进行了企业名称的全局搜索,定位到的数据包的数据中就包含了企业名称和对应的id值
  • 代码实现全站爬取
import requests

headers = 
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'


url = "http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsList"

# 将企业ID存放到列表中
list_1 = []
# 爬取全栈(目前只爬取9页,爬多了之后会被限制)
for a in range(1,10):
    data = 
        'on': 'true',
        'page': str(a),
        'pageSize': '15',
        'productName': '',
        'conditionType': '1',
        'applyname': '',
        'applysn': '',
    
    ret_dic = requests.post(url=url,data=data,headers=headers).json()['list']   # .json()返回一个字典类型的对象   ['list']取字典中list对应的值
    # 捕获企业ID
    for i in ret_dic:
        _id = i['ID']
        list_1.append(_id)

detail_url = "http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsById"

for i in list_1:
    data = 
        'id': i
    
    com_data = requests.post(url=detail_url,headers=headers,data=data).json()
    legalPerson = com_data["legalPerson"]
    epsName = com_data["epsName"]
    print(legalPerson,epsName)
    # 测试了一遍,只爬取了50页,就限制了

总结

  • requests的基本使用
    • 编码流程
      • 指定url
      • 发起请求
      • 获取响应数据
      • 持久化存储
    • 搜狗首页数据爬取 ==> 流程
    • 参数动态化
    • UA伪装
    • 修改响应数据的编码格式
      • get/post返回值 .encoding=“编码格式”
    • get/post:
      • url
      • headers
      • params/data
    • 动态加载的数据
      • 通过非地址栏url所对应的地址请求到的数据
      • 如何检测数据为动态加载
        • 基于抓包工具进行局部搜索
    • 全站数据的爬取
      • 简单来说就是一个for循环,控制页码数

爬虫初识(爬取dytt电影列表及下载地址)(代码片段)

importrefromurllib.requestimporturlopendefgetPage(url):response=urlopen(url)returnresponse.read().decode(‘gbk‘,errors=‘ignore‘)defparsePage(s):com=re.compile(r‘<tdheight="26">.*?<b>.*?< 查看详情

爬虫(十四):scrapy框架初识scrapy第一个案例(代码片段)

...几乎可以应对所有反爬网站,是目前Python中使用最广泛的爬虫框架。1.1Scrapy介绍1.1.1架构介绍Scrapy是一个基于Twisted的异步处理框架,是纯Python实现的爬虫框架,其架构清晰,模块之间的耦合程度低,可扩展性极强,可以灵活完成... 查看详情

爬虫初识(代码片段)

爬虫什么是爬虫?通过编写代码,模拟浏览器发送请求,让其去网络上抓去数据的过程。爬虫分类?通用爬虫抓取整张网页的全部内容聚焦爬虫抓去一张页面的部分内容通用爬虫和聚焦爬虫的关联:聚焦是建立在通用爬虫的基础... 查看详情

走进爬虫的世界(代码片段)

初识爬虫一、了解爬虫和浏览器的原理1.浏览器的工作原理2.爬虫的工作原理2.1初识爬虫编写二、简要学习HTML1.什么是HTML2.HTML的标签和元素3.<head>和<body>3.1<head>3.2<body>4.设置标签的属性5.两个常用属性:class&am... 查看详情

爬虫初识(代码片段)

两个常用库确定自己要访问的页面和构建请求头:url="http://www.xxx.com"headers="User-Agent":"Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/79.0.3945.88Safari/537.36"query_string=form_data=两者都是字典类型(json... 查看详情

初识爬虫

何为爬虫  网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。  我们平时的上网就是浏览器提交请求->下载网页代... 查看详情

python爬虫最全总结(代码片段)

python爬虫–总结前文回顾python爬虫–类级别写法python爬虫–爬取9某1看剧网电视剧python爬虫–爬取网易云音乐评论python爬虫–scrapy(再探)python爬虫–scrapy(初识)python爬虫–selenium模块python爬虫–异步文章目录pyt... 查看详情

python爬虫最全总结(代码片段)

python爬虫–总结前文回顾python爬虫–类级别写法python爬虫–爬取9某1看剧网电视剧python爬虫–爬取网易云音乐评论python爬虫–scrapy(再探)python爬虫–scrapy(初识)python爬虫–selenium模块python爬虫–异步文章目录pyt... 查看详情

requests-html库初识+无资料解bug之i/oerror:encodererror,python爬虫第30例(代码片段)

本篇博客是《爬虫120例》的第30例,新学习一个爬虫框架requests-html,该框架作者就是requests的作者,所以盲猜就很好用啦。知识铺垫工作requests-html模块安装使用pipinstallrequests-html即可,官方手册查询地址:https:... 查看详情

requests-html库初识+无资料解bug之i/oerror:encodererror,python爬虫第30例(代码片段)

本篇博客是《爬虫120例》的第30例,新学习一个爬虫框架requests-html,该框架作者就是requests的作者,所以盲猜就很好用啦。知识铺垫工作requests-html模块安装使用pipinstallrequests-html即可,官方手册查询地址:https:... 查看详情

python小课堂专栏python小课堂33-初识原生爬虫优化

python小课堂33-初识原生爬虫优化前言上周写的爬虫代码分析思路,没多少人看丫…果然还是代码的讲解比较枯燥无聊吧…没看的可以回顾一下啦:​​python小课堂32-初识原生爬虫(二)​​本篇文章写完会将代码放在github上,想... 查看详情

python爬虫--类级别写法(代码片段)

类级别写法爬取糗事百科段子前文回顾python爬虫–爬取9某1看剧网电视剧python爬虫–爬取网易云音乐评论python爬虫–scrapy(再探)python爬虫–scrapy(初识)python爬虫–selenium模块文章目录前文回顾python爬虫--爬取9某... 查看详情

scrapy框架初识(代码片段)

...已经装了三.基础使用1.在命令行中使用命令进入即将创建爬虫项目的文件夹2.在命令行执行scrapystarproject爬虫项目名称(就会在当前文件夹创建项目名称的文件夹)---->创建项目3.在命令行执行cd项目名称文件夹4.在命令行执行scrapyg... 查看详情

python3网络爬虫:初识网络爬虫之夜探老王家(2020年最新版)(代码片段)

一、前言3年前,我在csdn写过Python3网络爬虫系列教程,经过三年的积累,累计阅读量近90W。同时,我也在Github开源了所有Python3网络爬虫代码,累积获得10.3k+的star,4.1k+的fork。可以说,这个系列教... 查看详情

爬虫jsonajax,来了解一下!(代码片段)

1初识1.1JSONJavaScript对象表示法(JavaScriptObjectNotation)。是一种轻量级的数据交换格式,它使得人们很容易的进行阅读和编写。同时也方便了机器进行解析和生成。适用于进行数据交互的场景,比如网站前台与后台... 查看详情

com.panie项目开发随笔_爬虫初识(2017.2.7)

(一)  本章打算研究一下爬虫。我想用爬虫简单的爬取几篇文章,以及收集一下常用网站的信息。 (二)  以开源项目JAVA爬虫WebCollector为源码研究。在此基础上改为适合自己项目的代码。 (三)WebCollector致... 查看详情

初识爬虫

什么是爬虫?网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程... 查看详情

初识爬虫

昨晚,有了试试爬虫项目的想法。总感觉光学基础语法知识不实战,有点纸上谈兵。既然想到了,那么就说干就干,在网上找了一些爬虫的资料,仔细阅读一番,算是做了初步了解。现在及时把这些想法记录下来,以备日后完善... 查看详情