标签:9.png 最大的 银行 队列优先级 结构 article 检查 mmu 效率
并发:同一段时间内多个程序执行(注意区别并行和并发,前者是同一时刻的多个事件,后者是同一时间段内的多个事件)
共享:系统中的资源可以被内存中多个并发执行的进线程共同使用
虚拟:通过时分复用(如分时系统)以及空分复用(如虚拟内存)技术实现把一个物理实体虚拟为多个
异步:系统中的进程是以走走停停的方式执行的,且以一种不可预知的速度推进
1)PCB(Process Control Block):用来记录进程信息的数据结构(管理进程的核心,包含了PID等进程的所有关键信息)https://blog.csdn.net/rongwenbin/article/details/9860253
2)进程的状态:1:就绪状态,2:执行状态,3:阻塞状态(多线程时也是这些状态)
3)队列:就绪队列、等待(阻塞)队列。
先了解两个概念:
先来先服务调度算法FCFS:按作业或者进程到达的先后顺序依次调度;(平均周转时间可能会很长 )
短作业优先调度算法SJF:算法从就绪队列中选择估计时间最短的作业进行处理,直到得出结果或者无法继续执行(周转时间短,但是响应时间长 )
高相应比算法HRN:响应比=(等待时间+要求服务时间)/要求服务时间;
时间片轮转调度RR:按到达的先后对进程放入队列中,然后给队首进程分配CPU时间片,时间片用完之后计时器发出中断,暂停当前进程并将其放到队列尾部,循环 ;(响应时间可以得到保证)
多级反馈队列调度算法:目前公认较好的调度算法;设置多个就绪队列并为每个队列设置不同的优先级,第一个队列优先级最高,其余依次递减。优先级越高的队列分配的时间片越短,进程到达之后按FCFS放入第一个队列,如果调度执行后没有完成,那么放到第二个队列尾部等待调度,如果第二次调度仍然没有完成,放入第三队列尾部…。只有当前一个队列为空的时候才会去调度下一个队列的进程。
https://www.cnblogs.com/xdyixia/p/9257160.html
线程有自己的TCB(thread control block线程控制块), 只负责这条流程的信息,包括PC程序计数器,SP栈,State状态,和寄存器,线程id。
线程有内核级线程和用户级线程,我们一般说的都是用户级线程,内核级线程由内核管理。
补充小知识:
1)只有内核级线程才能发挥多核性能,因为内核级线程共用一套MMU(即内存映射表),统一分配核1核2(即有多个CPU,可以一个CPU执行一个内核级线程)。进程 无法发挥多核性能,因为进程切换都得切MMU
2)为什么需要内核级线程??如果只有用户级线程,在内核中只能看到进程,所以当用户级线程中一个线程进行IO读写阻塞时,内核会将该线程所在的进程直接切换。例如当用浏览器打开网页,这个进程中有下载数据线程,有显示数据线程,当数据下载读写阻塞时,内核直接切到qq(这些切换是指在CPU上运行的程序的切换)
进程是系统进行资源调度和分配的基本单位;线程是CPU调度的基本单位。
进程 = 资源 (包括寄存器值,PCB,内存映射表)+ TCB(栈结构)
线程 = TCB(栈结构)
线程 的资源是共享的
进程 间的资源是分隔独立的,内存映射表不同,占用物理内存地址是分隔的
线程 的切换只是切换PC,切换了TCB(栈结构)
进程 的切换不仅要切换PC,还包括切换资源,即切换内存映射表
https://www.cnblogs.com/xdyixia/p/9257668.html
经典的进程同步问题:生产者-消费者问题;哲学家进餐问题;读者-写者问题
同步的解决方案:管程,信号量。
死锁定义:
在两个或多个并发进程中,如果每个进程持有某种资源而又都等待别的进程释放它或它们现在保持着的资源,在未改变这种状态之前都不能向前推进,称这一组进程产生了死锁。通俗地讲,就是两个或多个进程被无限期地阻塞、相互等待的一种状态。
产生条件:
1:互斥条件 -- 一个资源一次只能被一个进程使用
2:请求保持条件 -- 一个进程因请求资源而阻塞时,对已经获得资源保持不放
3:不可抢占条件 -- 进程已获得的资源在未使用完之前不能强行剥夺
4:循环等待条件 -- 若干进程之间形成一种头尾相接的循环等待资源的关系
死锁处理:
预防死锁:破坏产生死锁的4个必要条件中的一个或者多个;实现起来比较简单,但是如果限制过于严格会降低系统资源利用率以及吞吐量
避免死锁:在资源的动态分配中,防止系统进入不安全状态(可能产生死锁的状态)-如银行家算法
检测死锁:允许系统运行过程中产生死锁,在死锁发生之后,采用一定的算法进行检测,并确定与死锁相关的资源和进程,采取相关方法清除检测到的死锁。实现难度大
解除死锁:与死锁检测配合,将系统从死锁中解脱出来(撤销进程或者剥夺资源)。对检测到的和死锁相关的进程以及资源,通过撤销或者挂起的方式,释放一些资源并将其分配给处于阻塞状态的进程,使其转变为就绪态。实现难度大
死锁忽略: windows,Linux个人版都不做死锁处理,直接忽略,大不了重启就好了,小概率事件,代价可以接受
要解决的两个问题
1)每个进程代码中使用的地址可能相同。解决思路:对代码中的地址重定向(加个基地址)。
2)物理内存可能比较小,不能同时放很多进程进来。解决思路:把要运行的代码移到内存,暂时不用的代码移入磁盘,即交换(swap),内存置换
一个程序分成多个段(每个段特性不同为了方便管理,例如代码段只读、数据段等等),当然这都是逻辑上的。
管理段的结构叫段表,段表保存中进程的PCB中。
把程序按段分对程序员是友好的,但是如果物理存储也按段存,则会导致大块的内存碎片,例如现在需要分个10M的段但是连续的存储空间只有8M/9M/5M三个。解决办法: (将段打散存到页中)不要对内存进行连续的分配,将内存划分成1页1页,按页分配,1页4kb大小,最多浪费的也就4KB。这样不会有内存碎片,也不会出现没有符合要求大小的内存可以申请的情况,因为可以打散了分散到一页一页中。
整个系统的页表就是https://www.cnblogs.com/xdyixia/p/9253138.html中说的多级页表(这个整个系统的多级页表简单来说就是把物理地址都进行了按页划分,保存了每页的基地址(对应下图中的页框号))。程序向系统申请时内存时,系统就会把哪几个页框号分给程序的某个段,程序再把它段0中的第3页数据放到页框6中。
说明:进程需要有自己的“页表”,里面映射双方是程序的逻辑地址中的页号和系统分给这給程序的页框号。
实际在内存管理中的段页结合如下图,页号加偏移称为虚拟地址,MMU负载从虚拟地址到物理地址的转换,同时也负责权限检查。
上面解决了每个进程代码中使用的地址可能相同,系统给每个进程分配基地址,进程保存在PCB中。
但是进程可操作的虚拟地址为4G(32位系统),可物理地址为1G怎么办。
CPU对数据进行请求时,才会进行映射(虚拟内存到物理内存)。
例如进程1正在运行,进行映射拿数据,查页表发现页框号中没有数据或有进程2的数据,则需要页表调入内存。
有页表需要调入,那么谁调出。
页面置换算法
1:最佳置换算法(Optimal):一种理论的算法,选着淘汰的页面是以后一定不再使用的页面(理想化的),该算法无法实现,只能作为其他算法好坏的一个评价对比。
2:先进先出(FIFO)算法:总是最先淘汰最先进去的页面,该算法容易实现。缺点:通常程序调入内存的先后顺序和程序执行的先后顺序不一致,导致缺页率高。
3:最近最久未使用算法LRU:算法赋予每个页面一个访问字段,用来记录上次页面被访问到现在所经历的时间t,每次置换的时候把t值最大的页面置换出去(实现方面可以采用寄存器或者栈的方式实现)。
4:时钟算法clock(也被称为是最近未使用算法NRU):页面设置一个访问位R,并将页面链接为一个环形队列,页面被访问的时候访问位设置R为1。页面置换的时候,如果当前指针所指页面访问R为0,那么置换,否则将其置为0,循环直到遇到一个访问为位0的页面。
但是这个方法有缺点:缺页比较少的时候(最近没有使用淘汰中的“最近”太长了),所有的R都为1(很少变成0),每次都要转一圈才能找到换出去的页,退化成FIFO,效率不高。
改进: 双指针,一个快,一个慢,像时钟一样 (定时清除R位)(更像clock)
快时钟做R的清0定时清0,等到慢指针转到这里的时候R=0,说明在定时时间片内没有备访问,该页可以被替换了。
参见:
哈尔滨工业大学李治军老师的操作系统课程
标签:9.png 最大的 银行 队列优先级 结构 article 检查 mmu 效率
原文地址:https://www.cnblogs.com/xdyixia/p/9274909.html