MySQL 大批量插入,如何快速过滤掉重复数据?
-data-and-keeping-only-one/线上库有6个表存在重复数据,其中2个表比较大,一个96万+、一个30万+,因为之前处理过相同的问题,就直接拿来了
来源:telami.cn/2019/mysql-removes-duplicate -data-and-keeping-only-one/线上库有6个表存在重复数据,其中2个表比较大,一个96万+、一个30万+,因为之前处理过相同的问题,就直接拿来了上次的Python去重脚本,脚本很简单,就是连接数据库,查出来重复数据,循环删除。 emmmm,但是这个效率嘛,实在是太低了,1秒一条,重复数据大约2万+,预估时间大约在8个小时左右。。。 盲目依靠前人的东西,而不去自己思考是有问题的!总去想之前怎么可以,现在怎么不行了MySQL 处理重复数据,这也是有问题的!我发现,最近确实状态不太对,失去了探索和求知的欲望,今天算是一个警醒,颇有迷途知返的感觉。 言归正传,下面详细介绍去重步骤。
目标:我们要去掉name相同的数据。 先看看哪些数据重复了
输出: namecount(1) cat2 dog2 name为cat和dog的数据重复了,每个重复的数据有两条; Select * From 表 Where 重复字段 In (Select 重复字段 From 表 Group By 重复字段 Having Count(1)>1) 删除全部重复数据,一条不留 直接删除会报错
报错: 1093 - You can't specify target table 'student' for update in FROM clause, Time: 0.016000s 原因是:更新这个表的同时又查询了这个表,查询这个表的同时又去更新了这个表,可以理解为死锁。mysql不支持这种更新查询同一张表的操作 解决办法:把要更新的几列数据查询出来做为一个第三方表,然后筛选更新。
删除表中删除重复数据,仅保留一条 在删除之前,我们可以先查一下,我们要删除的重复数据是啥样的
(编辑:好传媒网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |