《java并发编程的艺术》读后笔记-part1(代码片段)

LL.LEBRON LL.LEBRON     2022-12-16     764

关键词:

《Java并发编程的艺术》读后笔记-part1

第一章 并发编程的挑战

并发编程的目的是为了让程序运行得更快,但是,并不是启动更多的线程就能让程序最大限度地并发执行。在进行并发编程时,如果希望通过多线程执行任务让程序运行得更快,会面临非常多的挑战,比如上下文切换的问题死锁的问题,以及受限于硬件和软件的资源限制问题。

1.上下文切换

即使是单核处理器也支持多线程执行代码,CPU通过给每个线程分配CPU时间片来实现这个机制。时间片是CPU分配给各个线程的时间,因为时间片非常短,所以CPU通过不停地切换线程执行,让我们感觉多个线程是同时执行的,时间片一般是几十毫秒(ms)。

CPU通过时间片分配算法来循环执行任务,当前任务执行一个时间片后会切换到下一个任务。但是,在切换前会保存上一个任务的状态,以便下次切换回这个任务时,可以再加载这个任务的状态。所以任务从保存到再加载的过程就是一次上下文切换。

举个栗子:

这就像我们同时读两本书,当我们在读一本英文的技术书时,发现某个单词不认识,于是便打开中英文字典,但是在放下英文技术书之前,大脑必须先记住这本书读到了多少页的第多少行,等查完单词之后,能够继续读这本书。这样的切换是会影响读书效率的,同样上下文切换也会影响多线程的执行速度。

1.1多线程就一定快吗?

我们先看个栗子:

下面的代码分别演示串行和并发执行并累加操作的时间。

public class demo1Main1 
    private static final long count = 100001;

    public static void main(String[] args) throws InterruptedException 
        concurrency();
        serial();
    

    private static void serial() 
        long start = System.currentTimeMillis();
        int a = 0;
        for (long i = 0; i < count; i++) 
            a += 5;
        
        int b = 0;
        for (long i = 0; i < count; i++) 
            b--;
        
        long time = System.currentTimeMillis() - start;
        System.out.println("serial:" + time + "ms,b=" + b + ",a=" + a);
    

    private static void concurrency() throws InterruptedException 
        long start = System.currentTimeMillis();
        Thread thread = new Thread(new Runnable() 
            @Override
            public void run() 
                int a = 0;
                for (long i = 0; i < count; i++) 
                    a += 5;
                
            
        );
        thread.start();
        int b = 0;
        for (long i = 0; i < count; i++) 
            b--;
        
        long time = System.currentTimeMillis() - start;
        thread.join();//属于线程 Thread 的方法,在主线程上运行调用该方法,会让主线程休眠,不会释放锁,让调用join()方法的线程先执行完毕,这里是为了防止thread线程还未执行完,就已经执行了主线程的sout语句。
        System.out.println("concurrency:" + time + "ms,b=" + b);
    

最后我们得出的结果:

结论:可以看出,循环次数较小时,串行执行比并发执行更快。而到了一个大的数量级并发则明显好于串行。这是因为循环次数小时,并发执行的线程创建上下文切换的开销占总执行时间更大,当循环次数更大时,执行这些操作的时间和总时间相比就不值一提了,此时并行就显现出它的优势。

1.2如何减少上下文切换呢?

  1. 无锁并发编程:多线程竞争锁时,会引起上下文切换,所以多线程处理数据时,可以用一些办法来避免使用锁,如将数据的ID按照Hash算法取模分段,不同的线程处理不同段的数据。
  2. CAS算法:Java的Atomic包使用CAS算法来更新数据,而不需要加锁。
  3. 使用最少线程:避免创建不需要的线程,比如任务很少,但是创建了很多线程来处理,这样会造成大量线程都处于等待状态。
  4. 协程:在单线程里实现多任务的调度,并在单线程里维持多个任务间的切换

2.死锁

锁是个非常有用的工具,运用场景非常多,因为它使用起来非常简单,而且易于理解。但同时它也会带来一些困扰,那就是可能会引起死锁,一旦产生死锁,就会造成系统功能不可用。

这里我们举个栗子:


public class demo1Main1 
    private static String A = "A";
    private static String B = "B";

    public static void main(String[] args) 
        new demo1Main1().deadLock();
    

    private void deadLock() 
        Thread t1 = new Thread(new Runnable() 
            @Override
            public void run() 
                synchronized (A) 
                    try 
                        Thread.currentThread().sleep(2000);//属于线程 Thread 的方法,让线程暂缓执行,等待预计时间之后再恢复,交出CPU使用权,不会释放锁。这里是为了防止t1对A和B全部加锁了,t2还没有对B加锁。让执行顺序保证为t1->A,t2->B...
                     catch (InterruptedException e) 
                        e.printStackTrace();
                    
                    synchronized (B) 
                        System.out.println("1");
                    
                
            
        );
        Thread t2 = new Thread(new Runnable() 
            @Override
            public void run() 
                synchronized (B) 
                    synchronized (A) 
                        System.out.println("2");
                    
                
            
        );
        t1.start();
        t2.start();
    

可以看出当t1拿到A的锁后,t2又拿到了B的锁,然后都等对方释放对方的锁,这样造成一个互等局面,从而死锁。

2.1避免死锁的几个方法

  1. 避免一个线程同时获取多个锁。
  2. 避免一个线程在锁内同时占用多个资源,尽量保证每个锁只占用一个资源。
  3. 尝试使用定时锁,使用lock.tryLock(timeout)来替代使用内部锁机制。
  4. 对于数据库锁,加锁和解锁必须在一个数据库连接里,否则会出现解锁失败的情况。

3.资源限制的挑战

1.什么是资源限制?

资源限制是指在进行并发编程时,程序的执行速度受限于计算机硬件资源或软件资源。

例如,服务器的带宽只有2Mb/s,某个资源的下载速度是1Mb/s每秒,系统启动10个线程下载资源,下载速度不会变成10Mb/s,所以在进行并发编程时,要考虑这些资源的限制。硬件资源限制有带宽的上传/下载速度、硬盘读写速度和CPU的处理速度。软件资源限制有数据库的连接数和socket连接数等。

2.资源限制引发的问题?

在并发编程中,将代码执行速度加快的原则是将代码中串行执行的部分变成并发执行,但是如果将某段串行的代码并发执行,因为受限于资源,仍然在串行执行,这时候程序不仅不会加快执行,反而会更慢,因为增加了上下文切换和资源调度的时间。

例如,之前看到一段程序使用多线程在办公网并发地下载和处理数据时,导致CPU利用率达到100%,几个小时都不能运行完成任务,后来修改成单线程,一个小时就执行完成了。

3.如何解决资源限制的问题呢?

  • 对于硬件资源限制:可以考虑使用集群并行执行程序。既然单机的资源有限制,那么就让程序在多机上运行。比如使用ODPS、Hadoop或者自己搭建服务器集群,不同的机器处理不同的数据。可以通过“数据ID%机器数”,计算得到一个机器编号,然后由对应编号的机器处理这笔数据。
  • 对于软件资源限制:可以考虑使用资源池将资源复用。比如使用连接池将数据库和Socket连接复用,或者在调用对方webservice接口获取数据时,只建立一个连接。

4.如何在资源限制情况下进行并发编程?

根据不同的资源限制调整程序的并发度,比如下载文件程序依赖于两个资源——带宽和硬盘读写速度。有数据库操作时,涉及数据库连接数,如果SQL语句执行非常快,而线程的数量比数据库连接数大很多,则某些线程会被阻塞,等待数据库连接。

《java并发编程的艺术》读后笔记-part4(代码片段)

文章目录《Java并发编程的艺术》读后笔记-part4第四章Java并发编程基础1.线程简介1.1什么是线程?1.2为什么要使用多线程?1.3线程优先级1.4线程的状态1.5Daemon线程2.启动和终止线程2.1构造线程2.2启动线程2.3理解中断3.线程间... 查看详情

《java并发编程的艺术》读后笔记-第五章java中的锁(代码片段)

文章目录《Java并发编程的艺术》读后笔记-第五章Java中的锁第五章Java中的锁1.Lock接口1-1定义1-2Lock的使用1-3Lock与synchronized区别1-4Lock的API2.队列同步器2-1定义2-2队列同步器的接口和示例2-3队列同步器的实现分析1)同步队列2ÿ... 查看详情

)(代码片段)

文章目录《Java并发编程的艺术》读后笔记-ScheduledThreadPoolExecutor详解(第十章)1.ScheduledThreadPoolExecutor简介2.ScheduledThreadPoolExecutor的运行机制3.ScheduledThreadPoolExecutor的实现《Java并发编程的艺术》读后笔记-ScheduledThread 查看详情

)(代码片段)

文章目录《Java并发编程的艺术》读后笔记-ScheduledThreadPoolExecutor详解(第十章)1.ScheduledThreadPoolExecutor简介2.ScheduledThreadPoolExecutor的运行机制3.ScheduledThreadPoolExecutor的实现《Java并发编程的艺术》读后笔记-ScheduledThread 查看详情

)(代码片段)

文章目录《Java并发编程的艺术》读后笔记-ThreadPoolExecutor详解(第十章)1.ThreadPoolExecutor简介2.FixedThreadPool详解3.SingleThreadExecutor详解4.CachedThreadPool详解《Java并发编程的艺术》读后笔记-ThreadPoolExecutor详解(第十章ÿ 查看详情

)(代码片段)

文章目录《Java并发编程的艺术》读后笔记-ThreadPoolExecutor详解(第十章)1.ThreadPoolExecutor简介2.FixedThreadPool详解3.SingleThreadExecutor详解4.CachedThreadPool详解《Java并发编程的艺术》读后笔记-ThreadPoolExecutor详解(第十章ÿ 查看详情

)(代码片段)

文章目录《Java并发编程的艺术》读后笔记-ThreadPoolExecutor详解(第十章)1.ThreadPoolExecutor简介2.FixedThreadPool详解3.SingleThreadExecutor详解4.CachedThreadPool详解《Java并发编程的艺术》读后笔记-ThreadPoolExecutor详解(第十章ÿ 查看详情

)(代码片段)

文章目录《Java并发编程的艺术》读后笔记-FutureTask详解(第十章)1.FutureTask简介2.FutureTask的使用3.FutureTask的实现《Java并发编程的艺术》读后笔记-FutureTask详解(第十章)1.FutureTask简介FutureTask除了实现Future接口外&#x... 查看详情

java并发编程的艺术,读书笔记第六章concurrenthashmap以及并发容器的介绍

ConcurrentHashMap的原理将数据一段一段的存储然后给每一段数据分配一把锁,当线程访问数据的一段时,为每段分配一把锁,同时其他段的数据可以被其他线程数据访问2)concurrentHashMap的结构concurrentHashMap由segament数组和hashentry数组... 查看详情

java并发编程的艺术,读书笔记第三章

final域的内存语义写final域的重排规则:禁止把final域的写重排序到构造方法之外,主要包括俩个个方面1)JMM禁止编译器把final域的写重排序到构造方法之外2)编译器会在final域写之后,构造函数return之前插入一个storestore屏障,... 查看详情

java并发编程的艺术读书笔记——java并发编程基础(代码片段)

学习参考资料:《Java并发编程的艺术》文章目录1、线程的几种状态2、如何安全的终止线程3、线程间通信(重要)3.1共享内存3.2消息传递1、线程的几种状态线程在运行的生命周期中可能处于六种状态其一:新建&#... 查看详情

深入理解java多线程-java并发编程的艺术

今天深度学习一下《Java并发编程的艺术》的第1章并发编程的挑战,深入理解Java多线程,看看多线程中的坑。注意,哈肯的程序员读书笔记并不是抄书,而是将书中精华内容和哈肯的开发经验相结合,给你系统地讲述我对相关知... 查看详情

java并发编程的艺术目录

第7章:JAVA中的13个原子操作类第8章:JAVA中的并发工具类第9章:JAVA中的线程池 查看详情

java并发编程的艺术记录

模拟死锁packagecom.gjjun.concurrent;/***模拟死锁,来源于《Java并发编程的艺术》*@Authorgjjun*@Create2018/8/12**/publicclassDeadLockDemo{privatestaticStringA="A";privatestaticStringB="B";publicstaticvoidmain(String[]args){D 查看详情

)(代码片段)

文章目录《Java并发编程的艺术》读后笔记-Executor框架简介(第十章)1.Executor框架的两级调度模型2.Executor框架的结构与成员2.1Executor框架的结构2.2Executor框架的成员一、ThreadPoolExecutor二、ScheduledThreadPoolExecutor三、Future接口... 查看详情

)(代码片段)

文章目录《Java并发编程的艺术》读后笔记-FutureTask详解(第十章)1.FutureTask简介2.FutureTask的使用3.FutureTask的实现《Java并发编程的艺术》读后笔记-FutureTask详解(第十章)1.FutureTask简介FutureTask除了实现Future接口外&#x... 查看详情

并发编程的挑战(java并发编程的艺术)

1.上下文切换CPU通过给每个线程分配CPU时间片来实现并发,切换过程中线程的信息从保存到再加载就是一个上下文切换。由于频繁的进行上下文切换,会消耗资源,所以并发不一定比串行快。可以通过Lmbench3测量上下文切换的时... 查看详情

java并发编程实战--读后总结(代码片段)

1.简介  1.1并发简史    产生原因:资源利用率、公平性、便利性  1.2线程的优势    1.2.1发挥多处理器的强大功能    1.2.2建模的简单性    1.2.3异步事件的简化处理    1.2.4响应更灵敏的用户界面 ... 查看详情