Python爬取动态网页中图片的完整实例
动态网页爬取是爬虫学习中的一个难点。本文将以知名插画网站pixiv为例,简要介绍动态网页爬取的方法。
写在前面
本代码的功能是输入画师的pixiv id,下载画师的所有插画。由于本人水平所限,所以代码不能实现自动登录pixiv,需要在运行时手动输入网站的cookie值。
重点:请求头的构造,json文件网址的查找,json中信息的提取
分析
创建文件夹
根据画师的id创建文件夹(相关路径需要自行调整)。
def makefolder(id): # 根据画师的id创建对应的文件夹 try:folder = os.path.join('E:\pixivimages', id)os.mkdir(folder)return folder except(FileExistsError):print('the folder exists!')exit()
获取作者所有图片的id
【Python爬取动态网页中图片的完整实例】访问url:https://pixiv.net/ajax/user/画师id/profile/all(这个json可以在画师主页url:https://www.pixiv.net/users/画师id 的开发者面板中找到,如图:)
文章图片
json内容:
文章图片
将json文档转化为python的字典,提取对应元素即可获取所有的插画id。
def getAuthorAllPicID(id, cookie): # 获取画师所有图片的id url = 'https://pixiv.net/ajax/user/' + id + '/profile/all' # 访问存有画师所有作品 headers = {'User-Agent': user_agent,'Cookie': cookie,'Referer': 'https://www.pixiv.net/artworks/' # referer不能缺少,否则会403 } res = requests.get(url, headers=headers, proxies=proxies) if res.status_code == 200:resdict = json.loads(res.content)['body']['illusts'] # 将json转化为python的字典后提取元素return [key for key in resdict] # 返回所有图片id else:print("Can not get the author's picture ids!")exit()
获取图片的真实url并下载
访问url:https://www.pixiv.net/ajax/illust/图片id?lang=zh,可以看到储存有图片真实地址的json:(这个json可以在图片url:https://www.pixiv.net/artworks/图片id 的开发者面板中找到)
文章图片
用同样的方法提取json中有用的元素:
def getPictures(folder, IDlist, cookie): # 访问图片储存的真实网址 for picid in IDlist:url1 = 'https://www.pixiv.net/artworks/{}'.format(picid) # 注意这里referer必不可少,否则会报403headers = {'User-Agent': user_agent,'Cookie': cookie,'Referer': url1}url = 'https://www.pixiv.net/ajax/illust/' + str(picid) + '?lang = zh' #访问储存图片网址的jsonres = requests.get(url, headers=headers, proxies=proxies)if res.status_code == 200:data = https://www.it610.com/article/json.loads(res.content)picurl = data['body']['urls']['original'] # 在字典中找到储存图片的路径与标题title = data['body']['title']title = changeTitle(title) # 调整标题print(title)print(picurl)download(folder, picurl, title, headers)else:print("Can not get the urls of the pictures!")exit()def changeTitle(title): # 为了防止 global i title = re.sub('[*:]', "", title) # 如果图片中有下列符号,可能会导致图片无法成功下载 # 注意可能还会有许多不能用于文件命名的符号,如果找到对应符号要将其添加到正则表达式中 if title == '無題': # pixiv中有许多名为'無題'(日文)的图片,需要对它们加以区分以防止覆盖title = title + str(i)i = i + 1 return titledef download(folder, picurl, title, headers): # 将图片下载到文件夹中 img = requests.get(picurl, headers=headers, proxies=proxies) if img.status_code == 200:with open(folder + '\\' + title + '.jpg', 'wb') as file: # 保存图片print("downloading:" + title)file.write(img.content) else:print("download pictures error!")
完整代码
import requestsfrom fake_useragent import UserAgentimport jsonimport reimport osglobal ii = 0ua = UserAgent() # 生成假的浏览器请求头,防止被封ipuser_agent = ua.random # 随机选择一个浏览器proxies = {'http': 'http://127.0.0.1:51837', 'https': 'http://127.0.0.1:51837'} # 代理,根据自己实际情况调整,注意在请求时一定不要忘记代理!!def makefolder(id): # 根据画师的id创建对应的文件夹 try:folder = os.path.join('E:\pixivimages', id)os.mkdir(folder)return folder except(FileExistsError):print('the folder exists!')exit()def getAuthorAllPicID(id, cookie): # 获取画师所有图片的id url = 'https://pixiv.net/ajax/user/' + id + '/profile/all' # 访问存有画师所有作品 headers = {'User-Agent': user_agent,'Cookie': cookie,'Referer': 'https://www.pixiv.net/artworks/' } res = requests.get(url, headers=headers, proxies=proxies) if res.status_code == 200:resdict = json.loads(res.content)['body']['illusts'] # 将json转化为python的字典后提取元素return [key for key in resdict] # 返回所有图片id else:print("Can not get the author's picture ids!")exit()def getPictures(folder, IDlist, cookie): # 访问图片储存的真实网址 for picid in IDlist:url1 = 'https://www.pixiv.net/artworks/{}'.format(picid) # 注意这里referer必不可少,否则会报403headers = {'User-Agent': user_agent,'Cookie': cookie,'Referer': url1}url = 'https://www.pixiv.net/ajax/illust/' + str(picid) + '?lang = zh' #访问储存图片网址的jsonres = requests.get(url, headers=headers, proxies=proxies)if res.status_code == 200:data = https://www.it610.com/article/json.loads(res.content)picurl = data['body']['urls']['original'] # 在字典中找到储存图片的路径与标题title = data['body']['title']title = changeTitle(title) # 调整标题print(title)print(picurl)download(folder, picurl, title, headers)else:print("Can not get the urls of the pictures!")exit()def changeTitle(title): # 为了防止 global i title = re.sub('[*:]', "", title) # 如果图片中有下列符号,可能会导致图片无法成功下载 # 注意可能还会有许多不能用于文件命名的符号,如果找到对应符号要将其添加到正则表达式中 if title == '無題': # pixiv中有许多名为'無題'(日文)的图片,需要对它们加以区分以防止覆盖title = title + str(i)i = i + 1 return titledef download(folder, picurl, title, headers): # 将图片下载到文件夹中 img = requests.get(picurl, headers=headers, proxies=proxies) if img.status_code == 200:with open(folder + '\\' + title + '.jpg', 'wb') as file: # 保存图片print("downloading:" + title)file.write(img.content) else:print("download pictures error!")def main(): global i id = input('input the id of the artist:') cookie = input('input your cookie:') # 半自动爬虫,需要自己事先登录pixiv以获取cookie folder = makefolder(id) IDlist = getAuthorAllPicID(id, cookie) getPictures(folder, IDlist, cookie)if __name__ == '__main__': main()
效果
文章图片
总结
到此这篇关于Python爬取动态网页中图片的文章就介绍到这了,更多相关Python爬取动态网页图片内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!
推荐阅读
- python学习之|python学习之 实现QQ自动发送消息
- 逻辑回归的理解与python示例
- python自定义封装带颜色的logging模块
- 【Leetcode/Python】001-Two|【Leetcode/Python】001-Two Sum
- Python基础|Python基础 - 练习1
- Python爬虫|Python爬虫 --- 1.4 正则表达式(re库)
- 使用协程爬取网页,计算网页数据大小
- Python(pathlib模块)
- python青少年编程比赛_第十一届蓝桥杯大赛青少年创意编程组比赛细则
- Python数据分析(一)(Matplotlib使用)