今天我们一起来学习一个 Python 爬虫实战案例,我们的目标网站就是东方财富网,废话不多说,开搞
网站分析
东方财富网地址如下
http://quote.eastmoney.com/ce...
文章图片
我们通过点击该网站的下一页发现,网页内容有变化,但是网站的 URL 却不变,也就是说这里使用了 Ajax 技术,动态从服务器拉取数据,这种方式的好处是可以在不重新加载整幅网页的情况下更新部分数据,减轻网络负荷,加快页面加载速度。
我们通过 F12 来查看网络请求情况,可以很容易的发现,网页上的数据都是通过如下地址请求的
http://38.push2.eastmoney.com...|0|0|0|web&fid=f3&fs=m:0+t:6,m:0+t:80,m:1+t:2,m:1+t:23,m:0+t:81+s:2048&fields=f1,f2,f3,f4,f5,f6,f7,f8,f9,f10,f12,f13,f14,f15,f16,f17,f18,f20,f21,f23,f24,f25,f22,f11,f62,f128,f136,f115,f152&_=1658838404848
文章图片
接下来我们多请求几次,来观察该地址的变化情况,发现其中的
pn
参数代表这页数,于是,我们可以通过修改&pn=
后面的数字来访问不同页面对应的数据import requestsjson_url = "http://48.push2.eastmoney.com/api/qt/clist/get?cb=jQuery112402508937289440778_1658838703304&pn=1&pz=20&po=1&np=1&ut=bd1d9ddb04089700cf9c27f6f7426281&fltt=2&invt=2&wbp2u=|0|0|0|web&fid=f3&fs=m:0+t:6,m:0+t:80,m:1+t:2,m:1+t:23,m:0+t:81+s:2048&fields=f1,f2,f3,f4,f5,f6,f7,f8,f9,f10,f12,f13,f14,f15,f16,f17,f18,f20,f21,f23,f24,f25,f22,f11,f62,f128,f136,f115,f152&_=1658838703305"res = requests.get(json_url)
数据处理 接下来我们观察返回的数据,可以看出数据并不是标准的 json 数据
文章图片
于是我们先进行 json 化
result = res.text.split("jQuery112402508937289440778_1658838703304")[1].split("(")[1].split(");
")[0]
result_json = json.loads(result)
result_json
Output:
文章图片
这样数据就整齐多了,所有的股票数据都在
data.diff
下面,我们只需要编写解析函数即可返回各参数对应含义:
- f2:最新价
- f3:涨跌幅
- f4:涨跌额
- f5:成交量(手)
- f6:成交额
- f7:振幅
- f8:换手率
- f9:市盈率
- f10:量比
- f12:股票代码
- f14:股票名称
- f15:最高
- f16:最低
- f17:今开
- f18:昨收
- f22:市净率
def save_data(data, date):
if not os.path.exists(r'stock_data_%s.csv' % date):
with open("stock_data_%s.csv" % date, "a+", encoding='utf-8') as f:
f.write("股票代码,股票名称,最新价,涨跌幅,涨跌额,成交量(手),成交额,振幅,换手率,市盈率,量比,最高,最低,今开,昨收,市净率\n")
for i in data:
Code = i["f12"]
Name = i["f14"]
Close = i['f2']
ChangePercent = i["f3"]
Change = i['f4']
Volume = i['f5']
Amount = i['f6']
Amplitude = i['f7']
TurnoverRate = i['f8']
PERation = i['f9']
VolumeRate = i['f10']
Hign = i['f15']
Low = i['f16']
Open = i['f17']
PreviousClose = i['f18']
PB = i['f22']
row = '{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{}'.format(
Code,Name,Close,ChangePercent,Change,Volume,Amount,Amplitude,
TurnoverRate,PERation,VolumeRate,Hign,Low,Open,PreviousClose,PB)
f.write(row)
f.write('\n')
else:
...
然后再把前面处理好的 json 数据传入
stock_data = https://www.it610.com/article/result_json['data']['diff']
save_data(stock_data, '2022-07-28')
这样我们就得到了第一页的股票数据
文章图片
最后我们只需要循环抓取所有网页即可
for i in range(1, 5):
print("抓取网页%s" % str(i))
url = "http://48.push2.eastmoney.com/api/qt/clist/get?cb=jQuery112402508937289440778_1658838703304&pn=%s&pz=20&po=1&np=1&ut=bd1d9ddb04089700cf9c27f6f7426281&fltt=2&invt=2&wbp2u=|0|0|0|web&fid=f3&fs=m:0+t:6,m:0+t:80,m:1+t:2,m:1+t:23,m:0+t:81+s:2048&fields=f1,f2,f3,f4,f5,f6,f7,f8,f9,f10,f12,f13,f14,f15,f16,f17,f18,f20,f21,f23,f24,f25,f22,f11,f62,f128,f136,f115,f152&_=1658838703305" % str(i)
res = requests.get(json_url)
result = res.text.split("jQuery112402508937289440778_1658838703304")[1].split("(")[1].split(");
")[0]
result_json = json.loads(result)
stock_data = https://www.it610.com/article/result_json['data']['diff']
save_data(stock_data, '2022-07-28')
这样我们就完成了整个股票数据的抓取,喜欢就点个赞吧~
后面我们还会基于以上代码,完成一个股票数据抓取 GUI 程序,再之后再一起完成一个股票数据 Web 展示程序,最终完成一个股票量化平台,敬请期待哦!
【用 Python 爬取股票实时数据】本文由mdnice多平台发布
推荐阅读
- 程序人生|程序员在写作这条路上到底能走多远()
- java|我常用的4个备份工具
- 解读三大财务报表
- 程序员|全网已破千万点击,MyBatis源码(配置、映射文件SQL执行过程等等)
- 程序员|2021年Android岗位BAT大厂面试题知识点小结,小白也能看明白
- 程序员|Java线程池中的线程复用是如何实现的(稳进大厂)
- 程序员|java开发买什么笔记本好,详细解说
- 程序员|java如何获取随机数,这原因我服了
- 使用Python自动制作历史上的今天宣传图片