如何用免费代理IP爬数据
如何用免费代理IP爬数据,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。
创新互联公司-专业网站定制、快速模板网站建设、高性价比永定网站开发、企业建站全套包干低至880元,成熟完善的模板库,直接使用。一站式永定网站制作公司更省心,省钱,快速模板网站建设找我们,业务覆盖永定地区。费用合理售后完善,10年实体公司更值得信赖。
一.前言
玩爬虫的都避免不了各大网站的反爬措施限制,比较常见的是通过固定时间检测某ip地址访问量来判断该用户是否为 “网络机器人”,也就是所谓的爬虫,如果被识别到,就面临被封ip的风险,那样你就不能访问该网址了。
通用的解决办法是用代理ip进行爬取,但是收费的代理ip一般都是比较贵的,网上倒是有很多免费的代理ip网站,但是受时效性影响,大部分地址都不能用,有很多维护代理ip池的教程,即把爬取并检测后能用代理ip放到“代理池里”,等以后要用的时候再从里面提取,在我看来,这种效率比较低,因为这类IP地址很快就失效,我们要做的是边检测边使用,充分保证免费IP的时效性。
二.抓取IP地址
下面就开始实战操作。
1.首先我们随便找一个免费代理ip网站,如下图所示。
2、打开网页查看器,分析其网页元素结构,如下图所示。
3、就是一个简单的静态网页,我们用requests和bs4将ip地址和对应端口爬下,如下图所示。
4、每一行ip地址都由5个标签组成,而我们需要的是第一个标签(对应IP地址)和第2个标签(对应端口),所以从第一个开始,每隔5个取出ip地址(item[::5]),从第二个开始,每隔5个取出对应端口(item[1::5]),参数n为页码,每次只在1页取1个有用的ip地址,最终效果如下图所示:
三.验证IP有效性
这里把百度百科作为目标网站,这个看似很普通的网站,反爬措施却极为严格,爬不了几条内容就开始请求失败了,下面我以在百度百科查询全国火车站归属地信息为例演示如何使用免费代理ip。
1、首先我在12306上把所有的火车站名都爬下来了,但是没有归属地信息。
2、然后以站名构造百度百科url信息,分析网页元素,把爬取爬取火车站地址信息,网页元素如下图所示:
3、所以,我们只需在class_='basicInfo-item'的标签内容里查找有无“省”或者“市”的字符,然后输出就行了,最后加一个while True循环,当该ip能正常爬数据时,则break该循环;若该ip被禁,则马上重新请求一个新ip进行爬取。直接上代码如下图所示:
4、其中for循环是遍历所有火车站,try是用于检测该ip还能不能用,若不能,则在except里请求1个新ip,爬取效果如下图所示:
下次再遇到爬虫被禁的情况就可以用此办法解决了。
主要介绍了去IP代理网站上抓取可用IP,并且Python脚本实现验证IP地址的时效性,如遇到爬虫被禁的情况就可以用本文的办法进行解决。
看完上述内容,你们掌握如何用免费代理IP爬数据的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注创新互联行业资讯频道,感谢各位的阅读!
文章标题:如何用免费代理IP爬数据
转载来源:http://myzitong.com/article/gojche.html