Java系列课----高性能编程专题----CPU缓存和内存屏障
CPU缓存和内存屏障
CUP性能优化手段
手段一----------缓存
为了提高程序运行的性能,现代CPU在很多方面对程序进行了优化
例如:CPU高速缓存,尽可能地避免处理器访问主内存的时间开销,处理器大多会利用缓存以提高性能
上图提及到L1-L3缓存,下面我们来具体的讲讲缓存
缓存
经过上述的学习,我们了解到三大缓存,让我们逐一介绍
L1 Cache
L1 Cache(一级缓存)是CPU第一层高速缓存,分为数据缓存和指令缓存,一般服务器CPU的L1缓存的容量通常在32-4096KB
L2 Cache
L2 由于L1高速缓存容量的限制,为了再次提高CPU的运算速度,在CPU外部放置-高速存储器,即二级缓存
L3 Cache
L3现在的都是内置的,而它的实际作用即是,L3缓存的应用可以进一步降低内存延迟,同时提升大数据量计算时处理器的性能。具有较大L3缓存的处理器提供更有效的文件系统缓存行为及较短消息和处理器队列长度。一般是多核共享一个L3缓存
处理顺序
CPU在读数据时,先在L1中寻找,再从L2寻找,再从L3寻找,然后是内存,再后是外存储器
当然讲到这个,你会觉得这么多缓存处理数据是怎么使得缓存保证同步,现在我们就介绍MESI协议
MESI协议
它规定每条缓存有个状态位,同时定义了下面四个状态:
修改态 此cache行已被修改过(脏行),内容已不同于主存,为此cache专有
专有态 此cache行内容同于注册,但不出现于其他cache中
共享态 此cache行内容同于主存,但也出现于其他cache中
无效态 此cache行内容无效
最重要的是多处理器时,单个cpu对缓存中数据进行改动,需要通知其他cpu。也就是意味着,cpu处理要控制自己的读写操作,还要监听其他cpu发出的通知,从而保证最终一致----缓存的同步协议
手段二---------运行时指令重排
当CPU写缓存区块正被其他cpu占用,为了提高cpu处理性能,可能将后面的读缓存命令优先执行
并非随便重排,需要遵守as-if-serial语义
as-if-serial语义的意思指:不管怎么重排序(编译器和处理器为了提高并行度),(单线程)程序的执行结果不能被改变。编译器,runtime和处理器都必须遵守as-if-serial语义。也就是说:编译器和处理器不会对存在数据依赖关系的操作做重排序
两个问题
上述两个优化存在两个问题
问题一
1.cpu高速缓存下有一个问题:
缓存中的数据与主内存的数据并不是实时同步,各cpu(或cpu核心)间缓存的数据也不是实时同步。在同一时间点,各cpu所看到同一内存地址的数据的值可能是不一致的。----这个过程在多线程安全会重提
问题二
2.cpu执行指令重排序优化下有一个问题:
虽然遵守了as-if-serial语义,单仅有单cpu自己执行的情况下能保证结果正确
多核多线程中,指令逻辑无法分辨因果关联,可能出现乱序执行,导致程序运行结果错误
内存屏障
现在可以使用内存屏障来解决上述两个问题
写内存屏障
写内存屏障:在指令之后插入Store Barrier,能让写入缓存中的最新数据更新写入主内存,让其他线程可见
强制写入主内存,这种显示调用,cpu就不会因为性能考虑而去对指令重排
读内存屏障
读内存屏障:在指令前插入Load Barrier,可以让高速缓存中的数据失效,强制重新从主内存加载数据。强制读取主内存内容,让cpu缓存与主内存保存一致,避免了缓存导致的一致性问题
这篇博客大概的讲解了cpu缓存,主要是为了后面JVM线程安全问题的做铺垫,希望小伙伴学到东西