Apriori算法源代码解析

关于Apriori算法的原理介绍参考:
点击打开链接

点击打开链接
算法主要包括两个步骤:
1、频繁项集的寻找
2、关联规则的产生
【Apriori算法源代码解析】核心公式:
support(A?B)=P(A∪B)
confidence(A?B)=P(B|A)=support(A∪B)support(A)

先看看处理好的数据

JavaPHPPython爬虫Spark数据分析机器学习 01.01.01.01.01.01.0 11.01.00.01.00.01.0 20.00.01.00.00.00.0 30.00.01.00.01.00.0 40.00.01.00.01.01.0 50.00.00.00.01.00.0 60.00.01.00.00.01.0 71.00.01.01.00.00.0 81.01.00.00.01.00.0 90.00.01.00.00.01.0

每一行代表一个学员,1表示购买了该课程
定义连接函数:
import pandas as pd # 自定义连接函数,用于实现L_{k-1}到C_k的连接 def connect_string(x, ms): x = list(map(lambda i: sorted(i.split(ms)), x)) l = len(x[0]) r = [] for i in range(len(x)): for j in range(i, len(x)): if x[i][:l - 1] == x[j][:l - 1] and x[i][l - 1] != x[j][l - 1]: r.append(x[i][:l - 1] + sorted([x[j][l - 1], x[i][l - 1]])) return r

x传入的参数是L_{K-1},即所有频繁K-1项集的集合,ms是自己设定的分隔符,这里用的‘--’。
循环的思路:两两判断,如果两个项集的前K-1项相同,但第K项不同,则把两者拼接起来,组成备选项集,继而形成C_K。
def find_rule(d, support, confidence, ms=u'--'): support_series = 1.0 * d.sum() / len(d)# 单项支持度序列

d为数据,support为支持度阈值,confiden为置信度阈值。
>>>support_series Java0.4 PHP0.3 Python爬虫0.7 Spark0.3 数据分析0.5 机器学习0.5 dtype: float64

column = list(support_series[support_series > support].index)# 初步根据支持度筛选 >>>column ['Java', 'Python爬虫', '数据分析', '机器学习'] #这里支持度设置为0.3

while len(column) > 1: column = connect_string(column, ms)#连接 sf = lambda i: d[i].prod(axis=1, numeric_only=True) #定义连乘函数 d_2 = pd.DataFrame(list(map(sf, column)), index=[ms.join(i) for i in column]).T#创建连接数据

>>>column [['Java', 'Python爬虫'], ['Java', '数据分析'], ['Java', '机器学习'], ['Python爬虫', '数据分析'], ['Python爬虫', '机器学习'], ['数据分析', '机器学习']] >>> d_2 Java--Python爬虫Java--数据分析Java--机器学习Python爬虫--数据分析Python爬虫--机器学习\ 01.01.01.01.01.0 10.00.01.00.00.0 20.00.00.00.00.0 30.00.00.01.00.0 40.00.00.01.01.0 50.00.00.00.00.0 60.00.00.00.01.0 71.00.00.00.00.0 80.01.00.00.00.0 90.00.00.00.01.0...

dataframe.prod()表示对数据框内每一列的值进行累乘,参数axis=1就是对行相乘,通过累乘可以判断某个事务中是否包含该项集。
如:

>>> data[['Java', 'Python爬虫']].prod(axis=1, numeric_only=NONE) 01.0 10.0 20.0 30.0 40.0 50.0 60.0 71.0 80.0 90.0 dtype: float64

support_series_2 = 1.0 * d_2[[ms.join(i) for i in column]].sum() / len(d)# 计算连接后的支持度 column = list(support_series_2[support_series_2 > support].index)# 新一轮支持度筛选 support_series = support_series.append(support_series_2)#将频繁项集添加到支持度序列中

关联规则的产生:
column2 = [] for i in column:# 关联规则的发现 i = i.split(ms) for j in range(len(i)): column2.append(i[:j] + i[j + 1:] + i[j:j + 1])cofidence_series = pd.Series(index=[ms.join(i) for i in column2])# 定义置信度序列for i in column2:# 计算置信度序列 cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))] / support_series[ms.join(i[:len(i) - 1])]

置信度筛选
result = pd.DataFrame(index=['support', 'confidence'])# 定义输出结果 for i in cofidence_series[cofidence_series > confidence].index:# 置信度筛选 result[i] = 0.0 result[i]['confidence'] = cofidence_series[i] result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]

result = result.T.sort_values(['confidence', 'support'], ascending=False)# 结果整理,输出 print(result) return resul

示例:
spt=0.2 cfd=0.5 find_rule(data,spt,cfd,"-->")

结果:
结果为: supportconfidence PHP-->Java0.31.000000 Spark-->Java0.31.000000 机器学习-->Python爬虫0.40.800000 Java-->PHP0.30.750000 Java-->Spark0.30.750000 数据分析-->Python爬虫0.30.600000 Python爬虫-->机器学习0.40.571429

完整代码:
# -*- coding: utf-8 -*- from __future__ import print_function import pandas as pd# 自定义连接函数,用于实现L_{k-1}到C_k的连接 def connect_string(x, ms): x = list(map(lambda i: sorted(i.split(ms)), x)) l = len(x[0]) r = [] for i in range(len(x)): for j in range(i, len(x)): if x[i][:l - 1] == x[j][:l - 1] and x[i][l - 1] != x[j][l - 1]: r.append(x[i][:l - 1] + sorted([x[j][l - 1], x[i][l - 1]])) return r# 寻找关联规则的函数 def find_rule(d, support, confidence, ms=u'--'): result = pd.DataFrame(index=['support', 'confidence'])# 定义输出结果support_series = 1.0 * d.sum() / len(d)# 支持度序列 column = list(support_series[support_series > support].index)# 初步根据支持度筛选 k = 0while len(column) > 1: k = k + 1 print(u'\n正在进行第%s次搜索...' % k) column = connect_string(column, ms) print(u'数目:%s...' % len(column)) sf = lambda i: d[i].prod(axis=1, numeric_only=None)# 新一批支持度的计算函数# 创建连接数据,这一步耗时、耗内存最严重。当数据集较大时,可以考虑并行运算优化。 d_2 = pd.DataFrame(list(map(sf, column)), index=[ms.join(i) for i in column]).Tsupport_series_2 = 1.0 * d_2[[ms.join(i) for i in column]].sum() / len(d)# 计算连接后的支持度 column = list(support_series_2[support_series_2 > support].index)# 新一轮支持度筛选 support_series = support_series.append(support_series_2) column2 = []for i in column:# 遍历可能的推理,如{A,B,C}究竟是A+B-->C还是B+C-->A还是C+A-->B? i = i.split(ms) for j in range(len(i)): column2.append(i[:j] + i[j + 1:] + i[j:j + 1])cofidence_series = pd.Series(index=[ms.join(i) for i in column2])# 定义置信度序列for i in column2:# 计算置信度序列 cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))] / support_series[ms.join(i[:len(i) - 1])]for i in cofidence_series[cofidence_series > confidence].index:# 置信度筛选 result[i] = 0.0 result[i]['confidence'] = cofidence_series[i] result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]result = result.T.sort_values(['confidence', 'support'], ascending=False)# 结果整理,输出 print(u'\n结果为:') print(result)return result

数据和源码是《数据挖掘与分析》课程的文件,此文只是本人学习过程中的笔记。



















    推荐阅读