环境:python3, 要安装bs4这个第三方库
获取请求头的方法
这里使用的是Chrome浏览器。
打开你想查询的网站,按F12,或者鼠标右键一下选择检查。会弹出如下的审查元素页面:
然后点击上方选项中的Network选项:
此时在按Ctrl+R:
选择下方框中的第一个,单击:
选择Headers选项,其中就会有Request Headers,包括你需要的信息。
介绍:这个程序是用来批量获取网页的图片,用于新手入门
注意:由于是入门的程序在获取某些网页的图片时会出问题!!!!!
import os import urllib.request from bs4 import BeautifulSoup # 网址 url = "http://www2017.tyut.edu.cn/" # 建立请求对象 request = urllib.request.Request(url) # 加入请求头(一定要换成自己的!!!!) request.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36') # 获取请求 code = urllib.request.urlopen(request) # 得到html代码 html = code.read().decode('utf-8') # 将html的标签转成对象(方便后面的操作) bs = BeautifulSoup(html, 'html.parser') # 提取所有的img标签 imagesUrl = bs.find_all('img') sources = [] # 建立存放的路径(路径一定要存在!!!!!!) filepath = os.getcwd() + '\\images\\' def createFile(path: str, fpath): urllib.request.urlretrieve(path, fpath) # 获取图片的路径(网址+img标签的src属性的值) for img in imagesUrl: sources.append(url + str(img.get('src'))) for src in sources: # 用split是防止请求带参 baseName = os.path.basename(src).split('"url=" + src, "filename=" + fileName) createFile(src, fileName) print('这次您一共下载了图片' + str(len(sources)) + '张')
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
python,获取,网页图片
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。