Python常用的几种去重方法case1:用集合python定义去重函数的特性set()python定义去重函数,去重后顺序会改变
case1.1python定义去重函数:可以通过列表中索引(index)python定义去重函数的方法保证去重后的顺序不变
case2:使用循环查找的方式python定义去重函数,不改变顺序
case3:通过删除索引
case4:itertools.groupby
case5:fromkeys
case6:reduce方法
python删除重复数据利用集合的不重复属性,可以先转换至集合,再用list()函数转换回来即可 。
比如,a是一个列表,a=list(set(a)),即可完成列表去重 。
Python 去重 , 统计,lambda函数【python定义去重函数 python去重求和】df.drop_duplicates('item_name')
方法一:
df.drop_duplicates('item_name').count()
方法二:
df['item_name'].nunique()
结果:50
附:nunique()和unique()的区别:
unique()是以 数组形式(numpy.ndarray)返回列的所有唯一值(特征的所有唯一值)
nunique()即返回的是唯一值的个数
比如:df['item_name'].unique()
要求:将下表中经验列将按周统计的转换为经验不限 , 保留学历
df1['经验'] = df1['经验'].apply(lambda x: '经验不限'x[-2:] if '周' in x else x)
#解释:将‘5天/周6个月’变成‘经验不限’,然后保留学历‘本科’
方法二:定义函数
def dataInterval(ss):
if '周' in ss:
return '经验不限'ss[-2:]
return ss
df1['经验'] = df1['经验'].apply(dataInterval)
python用drop_duplicates()函数保留数据集的重复行前两天处理数据的时候,需要得到两个数据的交集数据,所以要去除数据中非重复部分,只保留数据中的重复部分 。
网上看了一下大家的教程,大部分都是教去除重复行,很少有说到仅保留重复行的 。所以在这里用drop_duplicates这个去重函数来实现这个功能 。
drop_duplicates函数介绍 :
data.drop_duplicates(subset=[‘A’,‘B’],keep=‘first’,inplace=True)
#subset对应的值是列名,表示只考虑这两列,将这两列对应值相同的行进行去重 。
默认值为subset=None表示考虑所有列 。
keep='first’表示保留第一次出现的重复行,是默认值 。
keep另外两个取值为"last"和False,分别表示保留最后一次出现的重复行和去除所有重复行 。
inplace=True表示直接在原来的DataFrame上删除重复项,而默认值False表示生成一个副本 。
要用函数取得数据集data中的重复列,分三个步骤 :
(提前导入pandas模块)
data0_1 = data.drop_duplicates() #保留第一个重复行
data0_2 = data.drop_duplicates(keep=False) #去除所有重复行
data0_3=pd.concat([data0_1,data0_2]).drop_duplicates(keep=False)
#合并起来再去重 , 只剩下真的重复行 。
举例:data中wangwu行和tony行重复,需要把它们两行取出 。
第一步:#保留第一个重复行
第二步:#去除所有重复行
第三步:#合并起来再去重
通过以上步骤实现取出数据中的重复行 。
关于python定义去重函数和python去重求和的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站 。
推荐阅读
- redis进入枯黄的,redis怎么进入
- 情侣农场经营游戏,情侣农场游戏手游
- go语言进阶圈 go语言入门项目
- 腾讯云mongodb生产环境,腾讯云部署mysql
- 青岛区块链培训学校,青岛区块链项目交流群
- vbnet导入导出 vbnet复制文件
- 怎么用u盘把图片投到电视,u盘照片怎么传到电视上
- css图片滚动代码6,图片滚动代码html
- app免费下载软件,软件免费下载安装