为什么使用ip代理
我们写爬虫程序,爬多了或者请求爬取数据快了,服务器就会拒绝访问,同时一个IP多次快速请求,网站会把你IP封掉,这时候 要么等一段时间,要么换IP。
基本思路
1.数据来源分析
找我们想要数据内容, 从哪里来的
2.发送请求
对于目标网址发送请求 https://www.kuaidaili.com/free/
3.获取数据
获取服务器返回响应数据(网页源代码)
4.解析数据
提取我们想要的数据内容
5.保存数据
爬音乐 视频 本地csv 数据库… IP检测, 检测IP代理是否可用 可用用IP代理 保存
代码展示
模块拓展
requests 是数据请求模块,属于第三方模块,安装方法 pip install requests
re 是正则表达式模块,属于内置模块,不需要安装;
parsel 是数据解析模块,属于第三方模块,这个是scrapy框架核心组件,安装方法 pip install parsel
from 从
import 导入
从 什么模块里面 导入 什么方法
from xxx import * 导入所有方法
全部代码
import requests
import re
import parsel
flis = []
lis_1 = []
for page in range(11, 21):
url = f'https://www.kuaidaili.com/free/inha/{page}/' # 确定请求url地址
# 用requests模块里面get 方法 对于url地址发送请求, 最后用response变量接收返回数据
response = requests.get(url)
# xpath 提取数据
selector = parsel.Selector(response.text) # 把html 字符串数据转成 selector 对象
ip_list = selector.xpath('//*[@id="list"]/table/tbody/tr/td[1]/text()').getall()
port_list = selector.xpath('//*[@id="list"]/table/tbody/tr/td[2]/text()').getall()
for ip, port in zip(ip_list, port_list):
proxy = ip + ':' + port
proxies_dict = {
"http": "http://" + proxy,
"https": "http://" + proxy,
}
lis.append(proxies_dict)
try:
response = requests.get(url=url, proxies=proxies_dict, timeout=1)
if response.status_code == 200:
print('当前代理IP: ', proxies_dict, '可以使用')
lis_1.append(proxies_dict)
except:
print('当前代理IP: ', proxies_dict, '请求超时, 检测不合格')
print('获取的代理IP数量: ', len(lis))
print('获取可用的IP代理数量: ', len(lis_1))
print('获取可用的IP代理: ', lis_1)
dit = {
'http': 'http://110.189.152.86:40698',
'https': 'http://110.189.152.86:40698'
}