Java 线程、进程、CPU缓存、MESI
一、进程线程1、什么是进程process进程是操作系统中运行的一个任务一个应用程序运行在一个进程中。进程是一块包含了某些资源的内存区域操作系统利用进程把它的工作划分为一些功能单元。进程中包含的一个或多个执行单元称为线程进程还拥有一个私有的虚拟地址空间该空间仅能被它所包含的线程访问。线程只能归属于一个进程并且它只能访问该进程所拥有的资源当操作系统创建一个进程后该进程会自动申请一个名为主线程或者首要线程的线程。2、什么是线程thread一个线程是进程的一个顺序执行流。同类的多个线程共享一块内存空间和一组系统资源线程本身有一个供程序执行时的堆栈。线程在切换时负荷小因此线程也被称为轻负荷线程。一个进程可以包含多个线程。3、进程和线程的区别进程与线程的一个简单的解释例子一个进程至少有一个线程线程的划分尺度小于一个进程使得多线程程序的并发性高另外进程在执行过程中拥有独立的内存单元而多个线程共享内存从而极大地提高了程序的运行效率。线程在执行过程中与进程的区别在于每个独立的进程有一个程序运行的入口、顺序执行序列和程序的出口。但是线程不能独立执行必须已存在应用程序中由应用程序提供多个线程执行控制。从逻辑的角度来看多线程的意义在于一个应用程序中有多个执行部分可以同时执行但操作系统并没有将多个线程看做多个独立的应用来实现进程的调度和管理以及资源分配。进程进程是程序资源的基本单位线程线程是CPU执行的基本单位3、volatilevolatile 在多处理器开发中保证变量的可见性但不保证原子性。可见性的意思当一个线程修改变量的值时另一个线程能看到这个被修改的值。如果一个变量被声明为volatile时java内存模型保证所有线程看到这个变量的值都是一致的。与synchronized不同volatile不会引起线程上下文切换和调度在适当的场景下拥有更低的执行成本和更高的效率。二、CPU缓存CPU缓存的出现主要是为了解决CPU运算速度与内存读写速度之间的矛盾。因为CPU的运算速度要比内存的读写速度快得多。一次主存的访问可能需要几十个到几百个时钟周期。一次一级缓存的访问可能只需要几个时钟周期。一次二级缓存的访问可能需要几十个时钟周期。针对速度上的差异CPU可能需要花费很长时间去等待数据到来或者把数据写入内存。基于此现代CPU多数读取数据不会直接访问内存而是从缓存中去读取CPU缓存是位于CPU与内存之间临时存储器它的容量较小但读取速度却比内存快得多CPU优先从缓存中读取读取不到再从内存中读取。缓存同样有优先级优先从一级缓存中读取再到二级缓存中读取再到三级缓存中读取。一级缓存、二级缓存、三级缓存它们的读写速度依次递减价格也依次递减因此存储容量依次递增。注意缓存中存放的只是内存中的一小部分数据这部分数据是短时间内CPU即将访问的。按照读写速度以及CPU紧密结合程度CPU缓存可分为以下三种一级缓存 简称L1 Cache紧靠CPU内核是与CPU联系最为紧密高速缓存。二级缓存 简称L2 Cache三级缓存 简称L3 Cache三、CPU 三级缓存详解1、CPU 的三级缓存各自的作用与存储内容可以把三级缓存想象成一个层层递进、速度与容量兼顾的数据中转站。缓存级别别称作用速度与大小存储的数据类型L1 缓存一级缓存极致速度匹配CPU核心的取指速度减少停顿。最快最小(通常 32KB-64KB 每核)指令 (L1i)即将执行的指令流。数据 (L1d)即将使用的数据如变量、寄存器溢出内容。L2 缓存二级缓存缓冲与预取为 L1 提供充足的“弹药”缓解 L1 未命中后的性能损失。较快适中(通常 256KB-512KB 每核)L1 未命中后从 L3 或内存中预取到的指令和数据块。它同时缓存指令和数据。L3 缓存三级缓存共享与最后防线多核共享减少访问内存的次数提高多核协作效率。较慢最大(通常 2MB-36MB 甚至更多多核共享)所有核心共享的数据如操作系统内核代码、共享库、多线程共享的变量。它是访问内存前的最后一道缓存。2、核心关系查找顺序CPU 核心先找 L1 → 未命中找 L2 → 未命中找 L3 → 未命中找内存。包含策略现代 Intel/AMD CPU 通常采用“非严格包含”策略。L3 通常包含所有 L2 的数据L2 包含所有 L1 的数据。这保证了数据的一致性当 L3 被逐出时可以通知 L1/L2 无效。四、CPU 的一级缓存为什么有多个L1i 和 L1d这是哈佛架构在 CPU 内部的具体体现。核心原因有四点1、消除结构冲突消除瓶颈如果只有一个 L1CPU 在一个时钟周期内既要取指令取指单元又要读写数据执行单元会争抢同一个缓存端口导致流水线停顿。分开后指令预取单元独占 L1i执行单元中的加载/存储单元独占 L1d。两者可以并行操作一个时钟周期内同时完成取指令和读写数据。2、优化数据组织形式指令 (L1i)是只读的没有写操作。缓存行不需要支持写回脏位硬件可以做得更简单、更快。数据 (L1d)可读可写。缓存行需要维护脏位、状态位支持写策略写回/写通逻辑更复杂。分开设计可以为两者分别采用最合适的物理设计。3、提高缓存效率指令流是顺序访问为主的有分支预测。L1i 可以用虚拟索引物理标签 (VIPT)等技术来优化指令预取。数据访问是随机或规律性的数组、链表、随机变量。L1d 需要更复杂的替换算法如伪LRU和写缓冲。L1 分开是为了让取指令和读写数据能同时进行避免流水线停顿而 L2/L3 统一是为了节省面积提高容量利用率。4、缓存一致性问题当系统运行时CPU执行的流程简单地概括为以下几个步骤加载程序以及数据到内存中加载程序指令以及数据到CPU缓存中CPU执行指令将结果写到高速缓存中将高速缓存中数据写到内存中CPU - CPU缓存 - 内存读取数据 之间的关系如下图所示可以想象如下场景核0读取一个字节到缓存中那么它相邻字节必然也会被读入核0缓存中核3也读取同样的字节到自己所在缓存中此时核0与核3缓存中有相同字节的数据核0修改了那个字节的数据然后写回自己所在的缓存中但并没有写回内存中核3此时去访问该字节的数据由于核0并未将该字节的数据写回到内存中故此时将导致核0与核3的数据不同步为了解决上述问题就有了如下缓存一致性协议1、缓存一致性协议每个CPU都有一级缓存但是我们却没有办法保证每个CPU一级缓存的数据都是一样的所以同一个应用程序CPU进行切换的时候切换前与切换后的数据可能会不一样。那么怎么保证CPU缓存数据是一致就是CPU缓存一致性问题。2、总线锁一种处理一致性问题的办法是使用总线锁Bus Locking当CPU对其缓存的数据进行操作时往总线中发送一个Lock信号这个时候所有CPU收到这个信号之后就不操作自己缓存中对应的数据了。当操作结束后释放锁之后所有的CPU就会去内存中获取数据。但是用总线锁的方式会导致CPU性能下降。因此出现了如下维护缓存一致性的方式MESI。3、MESIMESI是保持一致性协议它的方法是在CPU缓存中保存一个标记位这个标记位有四种方式。MModify修改缓存当前CPU缓存已经被修改即与内存中数据不一致了EExclusive独立缓存当前CPU缓存数据与内存中的一致且其它CPU没有可用的缓存数据SShare共享缓存和内存保持一致的一份拷贝多组缓存可以同时拥有针对同一地址的共享缓存段IInvalid无效缓存说明CPU中的缓存已经不能再使用了五、线程的使用线程通常用于在一个程序中需要同时完成多个任务的情况我们可以将每个任务定义为一个线程使它们得以一同工作。也可以用于单一线程中可以完成但是使用多线程可以更快的情况下载。并发原理多个线程同时运行只是我们感官上的一种表现事实上线程是并发运行的OS将时间划分为很多很多的时间片段时间片尽可能的均匀分配给每一个线程获取时间片的线程被CPU运行而其它线程全部等待。所以微观上的走走停停宏观上都在运行这种现象叫并发但是不是绝对意义上的同时发生。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2501015.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!