ChatGPT解决这个技术问题 Extra ChatGPT

带有 Python 'Requests' 模块的代理

关于 Python 的优秀 Requests 模块的简短说明。

我似乎无法在文档中找到变量“代理”应包含的内容。当我向它发送一个带有标准“IP:PORT”值的字典时,它拒绝了它要求 2 个值。所以,我猜(因为这似乎没有在文档中涵盖)第一个值是 ip 而第二个值是端口?

文档仅提及这一点:

proxies –(可选)到代理 URL 的字典映射协议。

所以我尝试了这个......我该怎么办?

proxy = { ip: port}

我应该在将它们放入字典之前将它们转换为某种类型吗?

r = requests.get(url,headers=headers,proxies=proxy)

A
Artemis

proxies' dict 语法为 {"protocol": "scheme://ip:port", ...}。有了它,您可以为使用 httphttpsftp 协议的请求指定不同(或相同)的代理:

http_proxy  = "http://10.10.1.10:3128"
https_proxy = "https://10.10.1.11:1080"
ftp_proxy   = "ftp://10.10.1.10:3128"

proxies = { 
              "http"  : http_proxy, 
              "https" : https_proxy, 
              "ftp"   : ftp_proxy
            }

r = requests.get(url, headers=headers, proxies=proxies)

requests documentation 推导出:

参数: method – 新 Request 对象的方法。 url – 新请求对象的 URL。 ... proxies –(可选)到代理 URL 的字典映射协议。 ...

在 linux 上,您还可以通过 HTTP_PROXYHTTPS_PROXYFTP_PROXY 环境变量执行此操作:

export HTTP_PROXY=10.10.1.10:3128
export HTTPS_PROXY=10.10.1.11:1080
export FTP_PROXY=10.10.1.10:3128

在 Windows 上:

set http_proxy=10.10.1.10:3128
set https_proxy=10.10.1.11:1080
set ftp_proxy=10.10.1.10:3128

@cigar 我知道,因为 urllib2 对其代理 dict 使用完全相同的格式,当我看到 docs.python-requests.org/en/latest/api/#module-requests 说“代理 - (可选)字典映射协议到代理的 URL。”时,我马上就知道了。
啊,我明白了,从来没有使用 urllib2 的代理,因为从这里获得了摆脱它的建议,用 8 行替换了 2 页代码:/ re:shoulder :))) 很好,你已经为我节省了几个小时全部的!如果您在音乐方面需要任何帮助,请大声疾呼,我可以提供建议,否则除了感谢或喝杯茶之外,想不出其他方式来回报!
似乎请求,而且 urllib3 在使用代理时无法进行 CONNECT :(
@dzen 我还没有使用 urllib3 所以我必须调查一下。感谢您的提醒。
@chown 语法随着请求 2.0.0 而改变。您需要将架构添加到 url:docs.python-requests.org/en/latest/user/advanced/#proxies 如果您可以在此处将其添加到您的答案中,那就太好了
A
Artemis

您可以参考proxy documentation here

如果您需要使用代理,您可以使用代理参数为任何请求方法配置单个请求:

import requests

proxies = {
  "http": "http://10.10.1.10:3128",
  "https": "https://10.10.1.10:1080",
}

requests.get("http://example.org", proxies=proxies)

要将 HTTP 基本身份验证与您的代理一起使用,请使用 http://user:password@host.com/ 语法:

proxies = {
    "http": "http://user:pass@10.10.1.10:3128/"
}

E
EddyG

我发现 urllib 有一些非常好的代码来获取系统的代理设置,并且它们恰好以正确的形式直接使用。您可以像这样使用它:

import urllib

...
r = requests.get('http://example.org', proxies=urllib.request.getproxies())

它工作得非常好,而且 urllib 也知道如何获取 Mac OS X 和 Windows 设置。


@jonasl 是的,即使没有定义系统代理,它也可以工作。在这种情况下,它只是一个空的 dict
它是否包括 no_proxy 并且请求是否尊重 no_proxy?没关系,似乎有解决方案:github.com/kennethreitz/requests/issues/879
出错:module 'urllib' has no attribute 'getproxies'
绿色:urllib.request.getproxies()
@Zahra 试试 urllib2.getproxies()
O
Owen B

接受的答案对我来说是一个好的开始,但我不断收到以下错误:

AssertionError: Not supported proxy scheme None

对此的解决方法是在代理 url 中指定 http:// :

http_proxy  = "http://194.62.145.248:8080"
https_proxy  = "https://194.62.145.248:8080"
ftp_proxy   = "10.10.1.10:3128"

proxyDict = {
              "http"  : http_proxy,
              "https" : https_proxy,
              "ftp"   : ftp_proxy
            }

我很想知道为什么原版对某些人有效,但对我无效。

编辑:我看到主要答案现在已更新以反映这一点:)


随 2.0.0 更改:代理 URL 现在必须具有明确的方案。如果不这样做,将引发 MissingSchema 异常。
U
User

如果你想持久化 cookie 和会话数据,你最好这样做:

import requests

proxies = {
    'http': 'http://user:pass@10.10.1.0:3128',
    'https': 'https://user:pass@10.10.1.0:3128',
}

# Create the session and set the proxies.
s = requests.Session()
s.proxies = proxies

# Make the HTTP request through the session.
r = s.get('http://www.showmemyip.com/')

我们是否必须在 python 请求中手动发送“Proxy-Connection: Keep-alive”标头?
q
qräbnö

晚了8年。但我喜欢:

import os
import requests

os.environ['HTTP_PROXY'] = os.environ['http_proxy'] = 'http://http-connect-proxy:3128/'
os.environ['HTTPS_PROXY'] = os.environ['https_proxy'] = 'http://http-connect-proxy:3128/'
os.environ['NO_PROXY'] = os.environ['no_proxy'] = '127.0.0.1,localhost,.local'

r = requests.get('https://example.com')  # , verify=False

我喜欢这里没有其他人提到的最后的解决方案。它只是节省了我的一天,因为没有其他方法可以将代理设置传递给我正在使用的第 3 方库。
A
Artemis

documentation 给出了一个非常清晰的代理使用示例

import requests

proxies = {
  'http': 'http://10.10.1.10:3128',
  'https': 'http://10.10.1.10:1080',
}

requests.get('http://example.org', proxies=proxies)

然而,没有记录的是,即使架构相同,您甚至可以为单个 url 配置代理!当您想为要抓取的不同网站使用不同的代理时,这会派上用场。

proxies = {
  'http://example.org': 'http://10.10.1.10:3128',
  'http://something.test': 'http://10.10.1.10:1080',
}

requests.get('http://something.test/some/url', proxies=proxies)

此外,requests.get 本质上使用了底层的 requests.Session,因此如果您需要更多控制,请直接使用它

import requests

proxies = {
  'http': 'http://10.10.1.10:3128',
  'https': 'http://10.10.1.10:1080',
}
session = requests.Session()
session.proxies.update(proxies)

session.get('http://example.org')

我用它来设置一个后备(默认代理)来处理与字典中指定的架构/url不匹配的所有流量

import requests

proxies = {
  'http': 'http://10.10.1.10:3128',
  'https': 'http://10.10.1.10:1080',
}
session = requests.Session()
session.proxies.setdefault('http', 'http://127.0.0.1:9009')
session.proxies.update(proxies)

session.get('http://example.org')

R
Rae mh

我刚刚制作了一个代理抓取器,也可以在没有任何输入的情况下连接相同的抓取代理:

#Import Modules

from termcolor import colored
from selenium import webdriver
import requests
import os
import sys
import time

#Proxy Grab

options = webdriver.ChromeOptions()
options.add_argument('headless')
driver = webdriver.Chrome(chrome_options=options)
driver.get("https://www.sslproxies.org/")
tbody = driver.find_element_by_tag_name("tbody")
cell = tbody.find_elements_by_tag_name("tr")
for column in cell:

        column = column.text.split(" ")
        print(colored(column[0]+":"+column[1],'yellow'))
driver.quit()
print("")

os.system('clear')
os.system('cls')

#Proxy Connection

print(colored('Getting Proxies from graber...','green'))
time.sleep(2)
os.system('clear')
os.system('cls')
proxy = {"http": "http://"+ column[0]+":"+column[1]}
url = 'https://mobile.facebook.com/login'
r = requests.get(url,  proxies=proxy)
print("")
print(colored('Connecting using proxy' ,'green'))
print("")
sts = r.status_code

m
mtt2p

这是我在 python 中的基本类,用于请求模块,带有一些代理配置和秒表!

import requests
import time
class BaseCheck():
    def __init__(self, url):
        self.http_proxy  = "http://user:pw@proxy:8080"
        self.https_proxy = "http://user:pw@proxy:8080"
        self.ftp_proxy   = "http://user:pw@proxy:8080"
        self.proxyDict = {
                      "http"  : self.http_proxy,
                      "https" : self.https_proxy,
                      "ftp"   : self.ftp_proxy
                    }
        self.url = url
        def makearr(tsteps):
            global stemps
            global steps
            stemps = {}
            for step in tsteps:
                stemps[step] = { 'start': 0, 'end': 0 }
            steps = tsteps
        makearr(['init','check'])
        def starttime(typ = ""):
            for stemp in stemps:
                if typ == "":
                    stemps[stemp]['start'] = time.time()
                else:
                    stemps[stemp][typ] = time.time()
        starttime()
    def __str__(self):
        return str(self.url)
    def getrequests(self):
        g=requests.get(self.url,proxies=self.proxyDict)
        print g.status_code
        print g.content
        print self.url
        stemps['init']['end'] = time.time()
        #print stemps['init']['end'] - stemps['init']['start']
        x= stemps['init']['end'] - stemps['init']['start']
        print x


test=BaseCheck(url='http://google.com')
test.getrequests()

佚名

有点晚了,但这里有一个包装类,它简化了抓取代理,然后进行 http POST 或 GET:

代理请求

https://github.com/rootVIII/proxy_requests

m
mobabel

已经过测试,以下代码有效。需要使用 HTTPProxyAuth。

import requests
from requests.auth import HTTPProxyAuth


USE_PROXY = True
proxy_user = "aaa"
proxy_password = "bbb"
http_proxy = "http://your_proxy_server:8080"
https_proxy = "http://your_proxy_server:8080"
proxies = {
    "http": http_proxy,
    "https": https_proxy
}

def test(name):
    print(f'Hi, {name}')  # Press Ctrl+F8 to toggle the breakpoint.
    # Create the session and set the proxies.
    session = requests.Session()
    if USE_PROXY:
        session.trust_env = False
        session.proxies = proxies
        session.auth = HTTPProxyAuth(proxy_user, proxy_password)

    r = session.get('https://www.stackoverflow.com')
    print(r.status_code)

if __name__ == '__main__':
    test('aaa')

L
Lambov

我分享了一些代码,如何从站点“https://free-proxy-list.net”获取代理并将数据存储到与“Elite Proxy Switcher”(格式 IP:PORT)等工具兼容的文件中:

##PROXY_UPDATER - 从 https://free-proxy-list.net/ 获取免费代理

from lxml.html import fromstring
import requests
from itertools import cycle
import traceback
import re

######################FIND PROXIES#########################################
def get_proxies():
    url = 'https://free-proxy-list.net/'
    response = requests.get(url)
    parser = fromstring(response.text)
    proxies = set()
    for i in parser.xpath('//tbody/tr')[:299]:   #299 proxies max
        proxy = ":".join([i.xpath('.//td[1]/text()') 
        [0],i.xpath('.//td[2]/text()')[0]])
        proxies.add(proxy)
    return proxies



######################write to file in format   IP:PORT######################
try:
    proxies = get_proxies()
    f=open('proxy_list.txt','w')
    for proxy in proxies:
        f.write(proxy+'\n')
    f.close()
    print ("DONE")
except:
    print ("MAJOR ERROR")

他们允许无限制的抓取吗?
这与OP的问题无关