前言
最近又是一轮代码review , 发现了一些实现去重的代码,在使用 lsit.contain ......
如:
我沉思,是不是其实很多初学者也存在这种去重使用问题?
所以我选择把这个事情整出来,分享一下。
基于 Spring Boot + MyBatis Plus + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能
- 项目地址:https://github.com/YunaiV/ruoyi-vue-pro
- 视频教程:https://doc.iocoder.cn/video/
正文
首先是造出一个 List
模拟数据,一共2W条,里面有一半数据1W条是重复的:
publicstaticListgetTestList() {
Listlist=newArrayList<>();
for(inti=1;i<= 10000;i++){
list.add(String.valueOf(i));
}
for(inti=10000;i>=1;i--){
list.add(String.valueOf(i));
}
returnlist;
}
先看看 我们用contain 去重的 代码:
/**
*使用list.contain去重
*
*@paramtestList
*/
privatestaticvoiduseContain2Distinct(ListtestList) {
System.out.println("contains 开始去重,条数:"+testList.size());
ListtestListDistinctResult=newArrayList<>();
for(Stringstr:testList){
if(!testListDistinctResult.contains(str)){
testListDistinctResult.add(str);
}
}
System.out.println("contains 去重完毕,条数:"+testListDistinctResult.size());
}
我们调用一下看看耗时:
publicstaticvoidmain(String[]args){
ListtestList=getTestList();
StopWatchstopWatch=newStopWatch();
stopWatch.start();
useContainDistinct(testList);
stopWatch.stop();
System.out.println("去重最终耗时"+stopWatch.getTotalTimeMillis());
}
耗时:
评价:list.contain 的效率,我的建议是,知道就行,别用。
众所周知Set 不存在 重复数据, 所以我们来看看 使用HashSet去重的性能:
ps:这里是采取使用 set的add 方法做去重
/**
*使用set去重
*
*@paramtestList
*/
privatestaticvoiduseSetDistinct(ListtestList) {
System.out.println("HashSet.add 开始去重,条数:"+testList.size());
ListtestListDistinctResult=newArrayList<>(newHashSet(testList));
System.out.println("HashSet.add 去重完毕,条数:"+testListDistinctResult.size());
}
我们调用一下看看耗时:
publicstaticvoidmain(String[]args){
ListtestList=getTestList();
StopWatchstopWatch=newStopWatch();
stopWatch.start();
useSetDistinct(testList);
stopWatch.stop();
System.out.println("去重最终耗时"+stopWatch.getTotalTimeMillis());
}
耗时:
评价:HashSet 的效率,我的建议是,推荐。
为什么耗时 差距这么大?
不多说,我们看源码:
list.contains(o)
:
可以看到里面用到了 index(o)
:
时间复杂度 :O(n)
,n: 元素个数
那么我们看看 set.add(o)
是怎么样的 :
map的add , 老生常谈就不谈了,hash完 直接塞到某个位置, 时间复杂度 : O(1)
。
所以 O(n)
和 O(1)
谁快 谁慢 ?显然。
ps:顺嘴说下 hashset的 contain
时间复杂度也是 :O(1)
那么我们最后再看看别的去重:
双for循环 ,remove去重
/**
*使用双for循环去重
*@paramtestList
*/
privatestaticvoiduse2ForDistinct(ListtestList) {
System.out.println("list 双循环开始去重,条数:"+testList.size());
for(inti=0;i< testList.size(); i++) {
for(intj=i+1;j< testList.size(); j++) {
if(testList.get(i).equals(testList.get(j))){
testList.remove(j);
}
}
}
System.out.println("list 双循环去重完毕,条数:"+testList.size());
}
publicstaticvoidmain(String[]args){
ListtestList=getTestList();
StopWatchstopWatch=newStopWatch();
stopWatch.start();
use2ForDistinct(testList);
stopWatch.stop();
System.out.println("去重最终耗时"+stopWatch.getTotalTimeMillis());
}
耗时:
评价:知道就行,图个乐,别用,贼慢,而且代码看起来乱:。
stream的distinct去重:
/**
*使用Stream去重
*
*@paramtestList
*/
privatestaticvoiduseStreamDistinct(ListtestList) {
System.out.println("stream 开始去重,条数:"+testList.size());
ListtestListDistinctResult=testList.stream().distinct().collect(Collectors.toList());
System.out.println("stream 去重完毕,条数:"+testListDistinctResult.size());
}
publicstaticvoidmain(String[]args){
ListtestList=getTestList();
StopWatchstopWatch=newStopWatch();
stopWatch.start();
useStreamDistinct(testList);
stopWatch.stop();
System.out.println("去重最终耗时"+stopWatch.getTotalTimeMillis());
}
耗时:
评价:还不错,主要是代码也蛮简洁,有一点点动心。
好了,该篇就到这。
-
数据
+关注
关注
8文章
6983浏览量
88931 -
代码
+关注
关注
30文章
4774浏览量
68502 -
spring
+关注
关注
0文章
340浏览量
14333
原文标题:不好意思,list.contain 去重该换换了!
文章出处:【微信号:芋道源码,微信公众号:芋道源码】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论