python中Scrapy|python中Scrapy shell的使用
前言:
我们想要在爬虫中使用xpath
、beautifulsoup
、正则表达式,css选择器等来提取想要的数据,但是因为scrapy
是一个比较重的框架,每次运行都要等到一段时间,因此要去验证我们提取规则是否正确,是一个比较麻烦的事情,因此,scrapy
提供了一个shell。用来方便的测试规则,当然也不仅仅局限于这一个功能。
打开Scrapy shell:
进入命令行终端,进入到scrapy
项目所在的目录,然后进入到scrapy框架所在的虚拟环境中,输入命令 scrapy shell [链接]
,就会进入到scrapy的shell环境中。在这个环境中,你可以跟在爬虫的parse
方法中一样使用了。
进入到scrapy项目所在的目录:
cd /Volumes/development/Python_learn/PycharmProjects/scrapy_demo/bmw_img_demo/
进入到scrapy框架所在的虚拟环境中:
source /Volumes/development/Python_learn/PycharmProjects/venv/crawler_evn/bin/activate
输入命令 scrapy shell [链接] :
rapy shell https://car.autohome.com.cn/pic/series/66.html
【python中Scrapy|python中Scrapy shell的使用】
文章图片
输入我们需要测试的语句:
srcs = response.xpath('//div[contains(@class,"uibox-con")]/ul/li/a/img/@src').getall()
文章图片
到此这篇关于python入门之Scrapy shell的使用的文章就介绍到这了,更多相关Scrapy shell的使用内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!
推荐阅读
- python用socket实现协议TCP长连接框架
- 问题管理-- Struts2配置struts.xml中Action访问报There is no Action mapped for namespace...
- 投稿|万豪、温德姆跟进电竞酒店,中小玩家咋整?
- 如何使用Flood Element在实际浏览器中执行负载测试()
- Python3 常见数据类型的转换
- 讨论两种Redis中Token的存储方式
- 从Nginx中的服务器标题横幅中删除版本
- 如何在Ubuntu或CentOS/RHEL中安装Nginx()
- 在Apache和Nginx中实现自定义错误页面-使用ErrorDocument和error_page
- Mybatis的xml中使用if/else标签的具体使用