📜  python beautifulsoup 从 url 加载 cookies 下载文件 - Python (1)

📅  最后修改于: 2023-12-03 14:45:56.124000             🧑  作者: Mango

Python使用BeautifulSoup从URL加载cookies下载文件

在Python中,可以使用BeautifulSoup模块从指定URL中加载Cookies,并且自动下载文件。以下是简单示例代码。

安装BeautifulSoup

首先,需要安装BeautifulSoup模块。可以使用pip包管理器进行安装:

pip install beautifulsoup4
加载Cookies并下载文件

以下是从URL加载Cookies并自动下载文件的示例代码:

import requests
from bs4 import BeautifulSoup

# 定义URL和Cookies
url = "http://example.com/"
cookies = {"cookie_name": "cookie_value"}

# 发送请求
response = requests.get(url, cookies=cookies)

# 使用BeautifulSoup解析HTML响应
soup = BeautifulSoup(response.content, 'html.parser')

# 找到下载链接
download_link = soup.find('a', {'class': 'download-link'})

if download_link is not None:
    # 下载文件
    file_url = download_link['href']
    file_response = requests.get(file_url, cookies=cookies)

    # 保存文件到本地
    file_name = file_url.split("/")[-1]
    with open(file_name, "wb") as file:
        file.write(file_response.content)

    print("文件已下载:", file_name)
else:
    print("未找到下载链接")

在上面的代码中,首先定义了要下载的网站URL以及Cookies,然后使用requests库向该URL发送请求并传递Cookies。接下来,使用BeautifulSoup解析HTML响应,查找包含下载链接的元素。如果找到该元素,则从链接中获取下载文件的URL,并使用requests库从该URL下载文件内容。最后,将文件保存到本地。

以上就是使用Python和BeautifulSoup模块从URL加载Cookies并自动下载文件的简单示例。