Apriori算法源代码解析
关于Apriori算法的原理介绍参考:
点击打开链接
点击打开链接
算法主要包括两个步骤:
1、频繁项集的寻找
2、关联规则的产生
【Apriori算法源代码解析】核心公式:
support(A?B)=P(A∪B)
confidence(A?B)=P(B|A)=support(A∪B)support(A)
先看看处理好的数据
JavaPHPPython爬虫Spark数据分析机器学习
01.01.01.01.01.01.0
11.01.00.01.00.01.0
20.00.01.00.00.00.0
30.00.01.00.01.00.0
40.00.01.00.01.01.0
50.00.00.00.01.00.0
60.00.01.00.00.01.0
71.00.01.01.00.00.0
81.01.00.00.01.00.0
90.00.01.00.00.01.0
每一行代表一个学员,1表示购买了该课程
定义连接函数:
import pandas as pd
# 自定义连接函数,用于实现L_{k-1}到C_k的连接
def connect_string(x, ms):
x = list(map(lambda i: sorted(i.split(ms)), x))
l = len(x[0])
r = []
for i in range(len(x)):
for j in range(i, len(x)):
if x[i][:l - 1] == x[j][:l - 1] and x[i][l - 1] != x[j][l - 1]:
r.append(x[i][:l - 1] + sorted([x[j][l - 1], x[i][l - 1]]))
return r
x传入的参数是L_{K-1},即所有频繁K-1项集的集合,ms是自己设定的分隔符,这里用的‘--’。
循环的思路:两两判断,如果两个项集的前K-1项相同,但第K项不同,则把两者拼接起来,组成备选项集,继而形成C_K。
def find_rule(d, support, confidence, ms=u'--'):
support_series = 1.0 * d.sum() / len(d)# 单项支持度序列
d为数据,support为支持度阈值,confiden为置信度阈值。
>>>support_series
Java0.4
PHP0.3
Python爬虫0.7
Spark0.3
数据分析0.5
机器学习0.5
dtype: float64
column = list(support_series[support_series > support].index)# 初步根据支持度筛选
>>>column
['Java', 'Python爬虫', '数据分析', '机器学习'] #这里支持度设置为0.3
while len(column) > 1:
column = connect_string(column, ms)#连接
sf = lambda i: d[i].prod(axis=1, numeric_only=True) #定义连乘函数
d_2 = pd.DataFrame(list(map(sf, column)), index=[ms.join(i) for i in column]).T#创建连接数据
>>>column
[['Java', 'Python爬虫'], ['Java', '数据分析'], ['Java', '机器学习'], ['Python爬虫', '数据分析'], ['Python爬虫', '机器学习'], ['数据分析', '机器学习']]
>>> d_2
Java--Python爬虫Java--数据分析Java--机器学习Python爬虫--数据分析Python爬虫--机器学习\
01.01.01.01.01.0
10.00.01.00.00.0
20.00.00.00.00.0
30.00.00.01.00.0
40.00.00.01.01.0
50.00.00.00.00.0
60.00.00.00.01.0
71.00.00.00.00.0
80.01.00.00.00.0
90.00.00.00.01.0...
dataframe.prod()表示对数据框内每一列的值进行累乘,参数axis=1就是对行相乘,通过累乘可以判断某个事务中是否包含该项集。
如:
>>> data[['Java', 'Python爬虫']].prod(axis=1, numeric_only=NONE)
01.0
10.0
20.0
30.0
40.0
50.0
60.0
71.0
80.0
90.0
dtype: float64
support_series_2 = 1.0 * d_2[[ms.join(i) for i in column]].sum() / len(d)# 计算连接后的支持度
column = list(support_series_2[support_series_2 > support].index)# 新一轮支持度筛选
support_series = support_series.append(support_series_2)#将频繁项集添加到支持度序列中
关联规则的产生:
column2 = []
for i in column:# 关联规则的发现
i = i.split(ms)
for j in range(len(i)):
column2.append(i[:j] + i[j + 1:] + i[j:j + 1])cofidence_series = pd.Series(index=[ms.join(i) for i in column2])# 定义置信度序列for i in column2:# 计算置信度序列
cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))] / support_series[ms.join(i[:len(i) - 1])]
置信度筛选
result = pd.DataFrame(index=['support', 'confidence'])# 定义输出结果
for i in cofidence_series[cofidence_series > confidence].index:# 置信度筛选
result[i] = 0.0
result[i]['confidence'] = cofidence_series[i]
result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]
result = result.T.sort_values(['confidence', 'support'], ascending=False)# 结果整理,输出
print(result)
return resul
示例:
spt=0.2
cfd=0.5
find_rule(data,spt,cfd,"-->")
结果:
结果为:
supportconfidence
PHP-->Java0.31.000000
Spark-->Java0.31.000000
机器学习-->Python爬虫0.40.800000
Java-->PHP0.30.750000
Java-->Spark0.30.750000
数据分析-->Python爬虫0.30.600000
Python爬虫-->机器学习0.40.571429
完整代码:
# -*- coding: utf-8 -*-
from __future__ import print_function
import pandas as pd# 自定义连接函数,用于实现L_{k-1}到C_k的连接
def connect_string(x, ms):
x = list(map(lambda i: sorted(i.split(ms)), x))
l = len(x[0])
r = []
for i in range(len(x)):
for j in range(i, len(x)):
if x[i][:l - 1] == x[j][:l - 1] and x[i][l - 1] != x[j][l - 1]:
r.append(x[i][:l - 1] + sorted([x[j][l - 1], x[i][l - 1]]))
return r# 寻找关联规则的函数
def find_rule(d, support, confidence, ms=u'--'):
result = pd.DataFrame(index=['support', 'confidence'])# 定义输出结果support_series = 1.0 * d.sum() / len(d)# 支持度序列
column = list(support_series[support_series > support].index)# 初步根据支持度筛选
k = 0while len(column) > 1:
k = k + 1
print(u'\n正在进行第%s次搜索...' % k)
column = connect_string(column, ms)
print(u'数目:%s...' % len(column))
sf = lambda i: d[i].prod(axis=1, numeric_only=None)# 新一批支持度的计算函数# 创建连接数据,这一步耗时、耗内存最严重。当数据集较大时,可以考虑并行运算优化。
d_2 = pd.DataFrame(list(map(sf, column)), index=[ms.join(i) for i in column]).Tsupport_series_2 = 1.0 * d_2[[ms.join(i) for i in column]].sum() / len(d)# 计算连接后的支持度
column = list(support_series_2[support_series_2 > support].index)# 新一轮支持度筛选
support_series = support_series.append(support_series_2)
column2 = []for i in column:# 遍历可能的推理,如{A,B,C}究竟是A+B-->C还是B+C-->A还是C+A-->B?
i = i.split(ms)
for j in range(len(i)):
column2.append(i[:j] + i[j + 1:] + i[j:j + 1])cofidence_series = pd.Series(index=[ms.join(i) for i in column2])# 定义置信度序列for i in column2:# 计算置信度序列
cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))] / support_series[ms.join(i[:len(i) - 1])]for i in cofidence_series[cofidence_series > confidence].index:# 置信度筛选
result[i] = 0.0
result[i]['confidence'] = cofidence_series[i]
result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]result = result.T.sort_values(['confidence', 'support'], ascending=False)# 结果整理,输出
print(u'\n结果为:')
print(result)return result
数据和源码是《数据挖掘与分析》课程的文件,此文只是本人学习过程中的笔记。
推荐阅读
- 画解算法(1.|画解算法:1. 两数之和)
- Guava|Guava RateLimiter与限流算法
- 一个选择排序算法
- SG平滑轨迹算法的原理和实现
- 《算法》-图[有向图]
- 《机器学习实战》高清中文版PDF英文版PDF+源代码下载
- LeetCode算法题-11.|LeetCode算法题-11. 盛最多水的容器(Swift)
- 虚拟DOM-Diff算法详解
- 《数据结构与算法之美》——队列
- 算法回顾(SVD在协同过滤推荐系统中的应用)