本文共 1881 字,大约阅读时间需要 6 分钟。
代理ip是经常使用且不可缺少的一部分
1.request使用代理ip的方法# -*- coding: utf-8 -*-import requestsurl = "http://myip.kkcha.com"#使用proxies构建一个字典的形式使用proxies = { "http": "171.214.214.185:8118"}response = requests.get(url=url, proxies=proxies)print(response.text)
查看本地ip地址
import requests#这是一个ip地址查看的网站r = requests.get(url='http://httpbin.org/get')print(r.text)
关于代理ip网站有很多种但都是用一下就没了,或者找了半天没有一个可用的
我来推荐一个代理ip的网站亲测可靠稳定
因为这里每天有50个免费的测试ip可以使用 如果感觉好用可以找客服购买套餐亲测还蛮便宜的 网站地址 使用方法 #coding=utf-8 import requests#请求地址
targetUrl = “https://www.baidu.com”#代理服务器
proxyHost = “ip” proxyPort = “port”proxyMeta = “http://%(host)s:%(port)s” % {
"host" : proxyHost,"port" : proxyPort,
}
#pip install -U requests[socks] socks5
proxies = {
"http" : proxyMeta,"https" : proxyMeta
}
resp = requests.get(targetUrl, proxies=proxies)
print resp.status_code print resp.textimport requests#请求的url地址url = 'https://www.baidu.com/'#api接口用来获取ip池api_url = 'http://http.tiqu.alibabaapi.com/getip3?num=1&type=3&pack=63620&port=1&lb=1&pb=4&gm=4®ions='headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.101 Safari/537.36'}ip = requests.get(api_url).text.strip()proxies = { 'http': f'http://{ ip}'}print(f'你的ip是:{ proxies}')#加上proxies字典格式resp = requests.get(url=url,headers=headers,proxies=proxies)print(f'当前请求的链接:{ resp.url}')print(f'当前返回的响应码:{ resp.status_code}')选择ip提取的数量生成api链接 *生成API链接,调用HTTP GET请求即可返回所需的IP结果 *添加白名单接口: ty-http-d.hamir.net/index/white/add?neek=tyhttp718080&appkey=aab86175bb04bb28e8b197c51821227f&white=您的ip *删除白名单接口: ty-http-d.hamir.net/index/white/del?neek=tyhttp718080&appkey=aab86175bb04bb28e8b197c51821227f&white=您的ip(多个ip请用英文逗号隔开) 代理ip地址 使用之前不要忘记添加白名单 添加之后不要忘记保存 码字不易啊,喜欢的朋友可以关注一下,一位爱玩爬虫的学生 因为热爱,所以喜欢。 一起学爬虫呀!!!
转载地址:http://eoywi.baihongyu.com/