《Dubbo 实现原理与源码解析 —— 精品合集》 《Netty 实现原理与源码解析 —— 精品合集》
《Spring 实现原理与源码解析 —— 精品合集》 《MyBatis 实现原理与源码解析 —— 精品合集》
《Spring MVC 实现原理与源码解析 —— 精品合集》 《数据库实体设计合集》
《Spring Boot 实现原理与源码解析 —— 精品合集》 《Java 面试题 + Java 学习指南》

摘要: 原创出处 yes的练级攻略 「是Yes呀」欢迎转载,保留摘要,谢谢!


🙂🙂🙂关注微信公众号:【芋道源码】有福利:

  1. RocketMQ / MyCAT / Sharding-JDBC 所有源码分析文章列表
  2. RocketMQ / MyCAT / Sharding-JDBC 中文注释源码 GitHub 地址
  3. 您对于源码的疑问每条留言将得到认真回复。甚至不知道如何读源码也可以请教噢
  4. 新的源码解析文章实时收到通知。每周更新一篇左右
  5. 认真的源码交流微信群。

今天在网上冲浪,看到有文章说 LinkedList 的作者说他自己都不用 LinkedList,我就特意去翻了翻他的推特,发现他确实说过这话!

可能这就是大佬吧,我造轮子,但是我不用!或者这就是传说中的厨子不吃自己做的菜?

不扯了,言归正传。其实我个人觉得大佬说好像是事实,因为在业务上好像都用不到 LinkedList ,大多数场景下都是用 ArrayList 比较合适,我细数了下自己平日里的使用情况,真的都是 ArrayList 。

说到这,可能有人不同意了,说我可是看过面试题的,LinkedList 可是有它的优势的!

这题我也看过,没记错的话应该是:说说 ArrayList 和 LinkedList 的之间区别?

我觉得这题可谓之为“八股文前三甲”,其实这题映射过来也就是关于数组与链表的比较。

只要你在网上看过这道面试题,你看到的答案必然是:

  • 数组的随机访问快,插入和删除慢
  • 链表的插入删除快,随机访问慢
  • 频繁增删的情况下,用链表比较合适
  • 在随机查找多的情况下,用数组比较合适

问题就出在链表的频繁增删这一点。如果单从增加查这三个方法的时间复杂度来看,确实如此,没有错。

但是,在平时的使用上来说,这个说法就完全不成立!你想想,如果你要在链表中删除某个元素,你首先得找到它啊!这个链表的查找可耗时的呀!

所以在实际使用的时候,如果你有频繁的增删,也不应该用链表。

不信?我们来做个实验看看咯。

public class YesArrayLinkedBattle {
private static final int COUNT = 100000;

static List<Integer> fillList(List<Integer> list) {
for (int i = 0; i < COUNT; i++) {
list.add(i); //将list填满,假装我们在数据库里得到这么多数据
}
return list;
}
static void randomAdd(List<Integer> list, String listType) {
long t1 = System.currentTimeMillis();
for (int i = 0; i < COUNT; i++) {
list.add(ThreadLocalRandom.current().nextInt(0,COUNT), i);
}
long t2 = System.currentTimeMillis();
System.out.println(listType +"随机位置插入" + COUNT + "次耗时:" + (t2-t1));
}

public static void main(String[] args) {

randomAdd(fillList(new ArrayList<>(COUNT)), "数组");

randomAdd(fillList(new LinkedList<>()), "链表");

}
}

这个实验很粗暴简单,但也很直观,分别对被填满数据的 ArrayList 和 LinkedList 执行 10 万次随机的插入操作,然后分别统计耗时。

执行结果如下:

是吧,在随机插入的情况下,链表不占优势反而大弱于数组!

所以说对于链表的插入操作,不能只关注其插入的时间复杂度,也要算上查找到前节点的开销,因此不能武断地说:频繁增删的情况下,用链表比较合适

当然,如果数据量很小的话,其实两者都是差不多的,比如长度都为 100 ,执行 100 次,则耗时如下:

长度都为 1000 ,执行 1000 次,则耗时如下:

所以,在数据量不大且操作次数不多的情况其实不必过于纠结到底用哪个。但在数据量较大且对时延敏感的情况下,建议还是做好测试,不能平白的根据一些“网上结论”而下定论。

文章目录