操作系统八股2


✅线程上下文切换(Thread Context Switch)


一、什么是上下文切换(Context Switch)?

上下文:指一个程序(进程或线程)在某一时刻运行所需的状态数据,包括:

  • 程序计数器(PC)
  • 寄存器(Register)
  • 堆栈指针(Stack Pointer)
  • 内核数据结构(如 PCB、TCB)
  • 页表指针(进程独有)

上下文切换:是指操作系统暂停当前运行的线程或进程,并保存其状态,然后恢复另一个线程或进程的状态,使 CPU 能继续执行新的任务。


二、线程上下文切换的两种情况

1️⃣ 不同进程的线程之间切换(线程属于不同进程)

这种切换实质上是进程上下文切换,涉及:

切换项 原因
页表(Page Table) 不同进程使用不同虚拟内存空间
CPU 寄存器 保存和恢复原线程/进程的计算状态
内核栈、用户栈 每个进程都有自己的栈,需切换
内存缓存(TLB 缓存) 地址空间变了,会导致 TLB 失效(称为 TLB flush)
其他内核结构(PCB) 保存进程状态、优先级、调度信息等

开销大,因为涉及虚拟内存切换、TLB 清空、I/O 管理等。


2️⃣ 同一进程内的线程切换(线程属于同一进程)

线程属于同一进程,它们共享:

  • 虚拟地址空间(代码段、数据段、堆等)
  • 文件描述符、I/O 资源
  • 页表(Page Table)

切换时只需更换线程自己的内容:

切换项 原因
寄存器 每个线程有独立寄存器状态
程序计数器(PC) 指向线程执行的位置
栈指针(SP) 每个线程有独立的用户栈、内核栈
TCB(线程控制块) 保存线程状态、调度信息等

开销小,无需切换虚拟内存、页表或刷新 TLB。


三、总结对比:线程 vs 进程 上下文切换

比较项 线程上下文切换(同进程) 进程上下文切换(或跨进程线程)
虚拟内存 不变 需要切换页表
页表切换
TLB 刷新
共享资源
切换开销
性能影响 较小 较大

四、线程切换的时机(由内核线程调度器决定)

  • 时间片到期(抢占式调度)
  • 主动让出 CPU(如调用 yield()sleep()
  • 等待 I/O 或资源阻塞(如锁、信号量)
  • 高优先级线程抢占低优先级线程

五、面试答题模板(简洁表达)

线程上下文切换的开销取决于线程是否属于同一进程:

  • 若线程属于不同进程,那么线程切换就等同于进程切换,涉及页表、虚拟内存、TLB 缓存的切换,开销大
  • 若线程属于同一进程,因为共享虚拟内存空间,只需要切换寄存器、程序计数器、堆栈等私有部分,开销小
  • 因此,一般来说,线程上下文切换的开销远小于进程切换

✅ 线程的三种实现方式


一、线程的本质

线程(Thread)是程序执行的最小单位,多个线程可以共享一个进程的地址空间和资源。不同的操作系统对线程的支持方式不同,线程的实现方式影响线程调度、性能、阻塞行为等。


二、线程的三种主要实现方式


1️⃣ 用户态线程(User-Level Thread, ULT)

✅ 定义:

线程完全在用户空间由用户自己实现,操作系统内核感知不到线程的存在。

✅ 特点:

优点 缺点
线程切换无需陷入内核,切换开销小、速度快 内核无法感知线程,一个线程阻塞,整个进程阻塞
可移植性强,跨平台运行 无法利用多核 CPU,线程只能在一个核上执行
用户可定制线程调度策略 系统无法进行真正并发

✅ 示例:

  • Green Thread(Java 早期实现)
  • 用户态线程库(如 GNU Pth)

✅ 调度方式:

用户自己维护线程队列和上下文,调用库函数完成调度。


2️⃣ 内核态线程(Kernel-Level Thread, KLT)

✅ 定义:

线程由操作系统内核直接支持和管理,每个线程都被内核感知并调度

✅ 特点:

优点 缺点
一个线程阻塞不影响其他线程,线程独立性高 上下文切换需要进入内核态,开销较大
能充分利用多核 CPU 资源,实现真正并发 线程的创建、销毁、调度都需要系统调用
内核调度更合理、安全性更强 用户无法自定义调度策略

✅ 示例:

  • Linux (pthread)、Windows (CreateThread)
  • Solaris、FreeBSD 等操作系统

✅ 调度方式:

由操作系统内核进行调度,线程切换涉及上下文切换与内核态参与。


3️⃣ 混合实现(Hybrid Thread 或 M:N 模型)

✅ 定义:

结合用户态与内核态线程的优点,在用户空间管理多个用户态线程,对应少量内核态线程

✅ 模型结构:

  • 一个进程中有 M 个用户线程(由用户线程库管理)
  • 映射到 N 个内核线程(由操作系统调度)

→ 称为 M:N 模型(例如 M 个用户线程映射到 N 个内核线程)

✅ 特点:

优点 缺点
兼具用户线程的低开销、内核线程的阻塞处理能力 实现复杂,调度需要用户和内核协同管理
可实现线程绑定、并发执行、多核利用 同步、线程映射、阻塞模型较难设计
一些线程库支持协程(Coroutine)优化调度 Debug 和调试难度较大

✅ 示例:

  • Solaris LWP(轻量级进程)
  • Windows Fiber + 内核线程
  • Linux 用户线程库与 pthread 配合使用

三、三种线程实现方式对比总结

比较项 用户态线程(ULT) 内核态线程(KLT) 混合线程(M:N)
管理者 用户线程库 操作系统内核 用户线程库 + 内核调度
切换效率 高(不需陷入内核) 低(需内核参与) 较高,取决于实现方式
系统开销
阻塞影响 一个线程阻塞,全部挂起 不影响其他线程 不一定(看调度策略)
是否支持多核
实现复杂度 简单

四、面试答题模板(简洁表达)

线程的实现方式有三种:

  1. 用户态线程:由用户空间线程库管理,内核不感知线程,切换快但无法处理阻塞;
  2. 内核态线程:由内核直接管理,支持多核并发,但切换开销大;
  3. 混合线程:结合两者优势,在用户空间管理多个线程,由少量内核线程调度执行,兼顾效率与并发性。

✅ 线程间同步(Thread Synchronization)


一、线程同步的目的

线程同步解决的是多个线程并发访问共享资源时可能出现的数据不一致或冲突问题。

✨目标:

不管线程之间如何交替执行,最终执行结果都应正确


二、临界区(Critical Section)

✅ 定义:

临界区是指一段访问共享资源的代码区域。如果多个线程同时进入临界区,就会导致竞态条件(race condition),因此必须保证临界区的互斥访问

✅ 特性:

  • 一个线程进入临界区时,其他线程必须等待
  • 临界区可用于线程间,也适用于进程间同步。

三、线程同步的常见实现方式


1️⃣ 互斥锁(Mutex Lock)

✅ 原理:

通过加锁与解锁控制共享资源的访问,确保同一时间只有一个线程执行临界区代码。

✅ 关键操作:

  • lock(mutex):尝试加锁;
    • 如果锁空闲,线程加锁成功,进入临界区;
    • 如果锁已被占用,线程等待。
  • unlock(mutex):释放锁,唤醒等待线程。

✅ 类型:

类型 描述
自旋锁(忙等待锁) 尝试加锁失败时不停地循环检测锁是否释放,占用 CPU 资源,适合锁持有时间短的场景。
阻塞锁(无忙等待) 尝试加锁失败时,线程进入休眠/阻塞状态,释放 CPU,适合锁持有时间长的场景。

✅ 示例:

1
2
3
4
pthread_mutex_t lock;
pthread_mutex_lock(&lock);
// 临界区
pthread_mutex_unlock(&lock);

2️⃣ 信号量(Semaphore)

✅ 定义:

一种通用的同步机制,用于控制访问特定数量的共享资源。

✅ 信号量值(sem):

  • sem 为整数,表示资源数;
  • 初始值可以设为资源总量;
  • 常用于限制线程并发数,如连接池、线程池。

✅ 两个原子操作:

操作 含义
P()(等待操作) 如果信号量值 > 0,则减 1 并继续执行;否则线程阻塞
V()(释放操作) 信号量值加 1,可能唤醒阻塞的线程

✅ 示例:

1
2
3
sem_wait(&sem);   // P 操作:尝试进入临界区
// 临界区
sem_post(&sem); // V 操作:离开临界区

四、互斥锁 vs 信号量:对比

比较维度 互斥锁(Mutex) 信号量(Semaphore)
本质 二值锁(0 或 1) 整数计数器
互斥性 是,专为互斥设计 也可用于互斥,但功能更通用
计数能力 无,只能控制单线程进入临界区 有,可控制多个线程并发进入
死锁可能性 有,使用不当会死锁 有,P/V 不匹配也会死锁
常见用途 保护临界区,线程间互斥 控制资源数量(连接池等)

五、线程同步进阶机制(了解)

同步机制 简要说明
条件变量(Condition Variable) 用于线程等待特定条件,配合互斥锁使用
读写锁(Read-Write Lock) 多个线程可以同时读,但写操作必须独占
屏障(Barrier) 所有线程都到达屏障点后才能继续
原子操作(atomic) 由硬件或编译器保证操作的不可中断性,如 atomic<int>

六、总结:线程同步的选择建议

场景 建议使用
互斥访问一个资源 互斥锁
控制同时访问资源的数量 信号量
条件等待/唤醒线程 条件变量
多读少写场景 读写锁
精细控制共享数据更新 原子操作/自旋锁

✅死锁


✅ 一、什么是死锁(Deadlock)?

定义: 在两个或多个并发进程或线程中,每个都持有某些资源,并等待其它线程释放它们当前占有的资源,所有线程因此相互等待、无法推进,就产生了死锁

通俗理解: 就像两个人在狭窄的走廊里面对面,都不肯先让一步,谁也不能动,僵持不下——这就是死锁。


✅ 二、死锁产生的四个必要条件(必须同时满足)

条件名称 说明 示例
1. 互斥(Mutual Exclusion) 某资源一次只能被一个线程占有,不能共享 打印机一次只能由一个人使用
2. 占有且等待(Hold and Wait) 一个进程占有部分资源,并等待其他资源 进程A占有资源1,等待资源2
3. 不可剥夺(No Preemption) 已分配的资源不能被强行剥夺,只能主动释放 系统不能强制拿走资源1
4. 循环等待(Circular Wait) 存在一个进程环,环中的每个进程等待下一个进程所占资源 A等B的资源,B等C的资源,C又等A的资源

✅ 三、经典死锁场景举例

假设有两个进程 P1、P2 和两个资源 R1、R2

  • P1 持有 R1,请求 R2
  • P2 持有 R2,请求 R1

形成如下关系图:

1
2
3
4
5
P1 —持有→ R1
P1 —请求→ R2(被P2持有)

P2 —持有→ R2
P2 —请求→ R1(被P1持有)

此时,满足四个条件:

  1. 互斥:R1 和 R2 不能被同时占用
  2. 占有且等待:P1 和 P2 都持有一个资源并请求另一个
  3. 不可剥夺:资源不能强制拿走
  4. 循环等待:P1 等 P2,P2 等 P1,形成环路

因此产生死锁


✅ 四、总结

  • 死锁=资源争夺+相互等待
  • 只有当四个条件同时满足时,死锁才可能发生
  • 实际系统中通过破坏其中至少一个条件,就可以避免死锁(如:破坏循环等待)

死锁的避免


✅ 一、如何避免死锁(Deadlock Avoidance)

死锁产生的四个必要条件如下:

  1. 互斥(Mutual Exclusion)
  2. 占有并等待(Hold and Wait)
  3. 不可剥夺(No Preemption)
  4. 循环等待(Circular Wait)

只要破坏其中一个条件,就可以避免死锁。


🔹 1. 消除互斥条件 ❌(通常不能破坏

  • 说明:某些资源本身就不支持共享(如:打印机、锁等),因此互斥很难避免。
  • 结论:一般 不能通过破坏互斥条件避免死锁

🔹 2. 消除“占有并等待”条件 ✅

  • 做法:一个线程在申请资源时,必须一次性申请它需要的所有资源,不允许先拿一部分再等。
  • 缺点:可能会造成资源浪费(即使暂时不需要,也要先申请到)。

🔹 3. 消除“不可剥夺”条件 ✅

  • 做法:如果一个线程申请不到所需资源,就主动释放当前已占有的资源,稍后重新申请。
  • 实现方法:操作系统强制让占用者放弃资源(或提供 API 让其手动释放)。

🔹 4. 消除“循环等待”条件 ✅

  • 做法:对资源进行线性排序(编号),进程必须按顺序申请资源(比如先申请资源编号小的)。
  • 效果:打破资源申请的“环”,从而避免了循环等待。

🔄 总结:死锁避免方法对照表

条件 是否可破坏 避免策略
互斥 ❌通常不能 资源本身不能共享
占有并等待 ✅可以 一次申请所有资源
不可剥夺 ✅可以 无法获得新资源就释放已有资源
循环等待 ✅可以 给资源排序,按顺序申请

✅ 二、活锁(Livelock)与饥饿(Starvation)

🔸 饥饿(Starvation)

定义:线程一直得不到资源,但系统中其他线程可能都在运行,导致它长期“被饿着”。

原因

  • 优先级不公平(高优先级线程一直抢资源)
  • 调度策略不合理
  • 被频繁抢占

特点

  • 线程被动等待,长期得不到资源
  • 没有资源分配的“公平性”

🔸 活锁(Livelock)

定义:线程虽然状态在不断变化(不断做出“让步”),但始终无法向前推进。

形象比喻: 两个人在窄桥上相遇,都想让对方先走,于是不断变换方向,但总是撞在一起,状态变了但谁也过不去

特点

  • 状态不断变(不是阻塞)
  • 没有实质性进展
  • 通常由过度退让或响应引起

🔄 饥饿 vs 活锁 对比

项目 饥饿(Starvation) 活锁(Livelock)
本质 一直得不到资源 一直尝试但无进展
状态变化 很少变化 状态不断变化
典型原因 资源调度不公平 反复退让导致
是否阻塞 否(活着但原地踏步)
可解决方式 引入公平策略 设置重试上限、随机退让

✅ 三、总结

  • 避免死锁的关键:破坏四个必要条件之一,尤其常用“请求顺序”、“一次性请求”策略。
  • 饥饿和活锁虽不是死锁,但也会导致程序“卡死”或长时间无响应。
  • 实际编程中,应设计公平、有限重试的机制来应对这些问题。

物理内存与虚拟内存


✅ 一、物理内存(Physical Memory)

📌 定义:

  • 物理内存是计算机中真实存在的硬件内存(RAM)
  • 应用程序最终运行的指令和数据,必须被加载到物理内存中才能执行。

📌 特点:

  • 容量有限,如 8GB、16GB、64GB 等。
  • 所有程序最终都依赖物理内存执行。
  • 没有地址转换时,直接使用物理地址。

✅ 二、虚拟内存(Virtual Memory)

📌 定义:

  • 虚拟内存是由操作系统和硬件(MMU)协同实现的一种内存管理机制。
  • 为每个进程提供一个连续、隔离的虚拟地址空间,即使物理内存不足,也可以运行大型程序。

📌 特点:

  • 进程使用的是虚拟地址(逻辑地址),不是物理地址。
  • 每个进程都有自己的虚拟地址空间,相互隔离。
  • 虚拟内存空间远大于实际物理内存,可通过磁盘空间扩展。

✅ 三、地址转换与页表机制

步骤 说明
1️⃣ CPU 发出虚拟地址(由程序指令使用)
2️⃣ MMU(内存管理单元) 查找页表,将虚拟地址转换为物理地址
3️⃣ 页表中保存虚拟页与物理页之间的映射关系
4️⃣ 若所需页不在内存,触发缺页中断,操作系统将数据从磁盘加载到内存
5️⃣ 数据成功加载后,程序继续运行

✅ 四、虚拟内存的组成与结构

  • 虚拟内存空间被分成若干“页”(Page)
  • 物理内存空间被分成相同大小的“页框”(Frame)
  • 每个虚拟页可能被映射到某个页框中,也可能还在磁盘里(Swap 区)

✅ 五、虚拟内存的优势

优势 说明
✅ 隔离性 每个进程都在自己的空间运行,互不干扰,提升安全性
✅ 大空间 虚拟内存远大于物理内存,可运行大程序
✅ 简化编程 程序员无需关心物理内存地址,只需使用逻辑地址
✅ 支持内存换页 不活跃的页面可换出到磁盘,提高内存利用率

✅ 六、物理内存 vs 虚拟内存 对比总结

比较项 物理内存 虚拟内存
是否真实存在 是(RAM) 否(操作系统模拟)
地址类型 物理地址 虚拟地址(逻辑地址)
是否共享 所有程序共享 每个进程独享
大小限制 被硬件限制 理论上更大,可扩展到磁盘
访问机制 直接访问 需通过页表映射访问
核心功能 存储运行数据 提供隔离与扩展能力

✅ 七、关键术语回顾

术语 解释
页(Page) 虚拟内存划分的单位
页框(Frame) 物理内存划分的单位
页表(Page Table) 存储虚拟页到物理页框的映射关系
缺页中断(Page Fault) 所需页不在内存时,触发中断从磁盘加载
交换空间(Swap) 把不常用的页临时存放到磁盘的区域

内存分段


✅ 一、什么是内存分段(Segmentation)?

📌 定义:

内存分段是一种将程序从逻辑结构上划分成若干段的内存管理方式。每一段代表一类逻辑功能,如:

  • 代码段(Code Segment):存放程序指令
  • 数据段(Data Segment):存放全局变量、静态变量
  • 栈段(Stack Segment):存放函数调用栈帧
  • 堆段(Heap Segment):存放动态分配的内存

📌 核心思想:

将程序划分为多个逻辑段,每个段独立管理,段与段之间物理位置不一定连续,但逻辑上是清晰的。


✅ 二、虚拟地址结构(逻辑地址)

在分段系统中,一个虚拟地址由两部分组成:

1
虚拟地址 = <段号 s, 段内偏移量 d>
  • s:段号,表示访问的是哪一个段
  • d:段内偏移量,表示在该段内的偏移位置

✅ 三、段表(Segment Table)

系统为每个进程维护一个段表(Segment Table),每个段有一个表项,包含:

字段 含义
段基址 Base 该段在物理内存中的起始地址
段界限 Limit 该段的长度(限制偏移量的最大值)

✅ 四、地址转换过程

当进程访问逻辑地址 <s, d> 时,系统做如下转换:

  1. 查找段表中段号 s 的基址和界限;

  2. 检查偏移量 d 是否越界(是否 d < Limit[s]);

  3. 如果不越界,则:

    1
    物理地址 = Base[s] + d
  4. 如果越界,则抛出段错误(Segment Fault)。


✅ 五、自定义示例:分段地址映射

假设进程有以下段表(单位为字节):

段号 (s) 段名 段基址(Base[s]) 段界限(Limit[s])
0 代码段 1000 400
1 数据段 2000 300
2 栈段 3000 200
3 堆段 4000 500

🔍 示例问题 1:

虚拟地址 = <1, 120>(即访问数据段偏移量为 120)

解答过程:

  1. 段号 s = 1,查表得:Base[1] = 2000Limit[1] = 300

  2. 偏移量 d = 120,满足 d < 300,合法

  3. 转换物理地址:

    1
    Physical Address = 2000 + 120 = 2120

✅ 结果:物理地址为 2120


🔍 示例问题 2:

虚拟地址 = <2, 250>(即访问栈段偏移量为 250)

解答过程:

  1. 段号 s = 2,查表得:Base[2] = 3000Limit[2] = 200
  2. 偏移量 d = 250,超过界限 200,非法!

❌ 结果:发生段越界错误(Segment Fault)


✅ 六、分段的优点与缺点

✅ 优点:

  • 更接近程序员对程序的逻辑结构划分
  • 支持代码共享数据保护
  • 每段可以有不同的访问权限
  • 支持非连续内存分配,减少内存浪费

❌ 缺点:

  • 地址转换需要查段表,有一定开销
  • 每段管理需要段表、段寄存器,增加复杂性
  • 如果段过多,段表会变大

✅ 七、分段与分页的比较

项目 分段 分页
单位 逻辑段(大小不等) 固定大小页(如4KB)
地址结构 段号 + 偏移 页号 + 页内偏移
管理目标 程序的逻辑结构 内存空间的等分管理
外部碎片 无(但有内部碎片)
易于共享 支持段级共享 支持页级共享

内存分页


✅ 一、什么是内存分页(Paging)?

📌 定义:

分页是一种将内存划分为固定大小的页(Page)*的管理机制。分页的目标是将*虚拟内存和物理内存都划分为固定大小的块,分别称为:

  • 虚拟页(Virtual Page)
  • 物理页框(Page Frame)

这种划分方式可以有效解决内存碎片问题,并使程序不再需要使用连续的物理地址空间。


✅ 二、分页机制的核心思想

  1. 虚拟地址空间 被划分为若干个大小相等的页(page)
  2. 物理地址空间 被划分为同样大小的页框(page frame)
  3. 操作系统通过一个称为页表(Page Table)的数据结构,记录每一个虚拟页和物理页框之间的映射关系。

✅ 三、地址结构与转换过程

📌 虚拟地址结构:

一个虚拟地址分为两部分:

1
虚拟地址 = <页号 p, 页内偏移 d>
  • p:虚拟页号(Page Number)
  • d:页内偏移(Page Offset),在该页内的具体位置

📌 地址转换流程:

  1. 查页表:用页号 p 找到页表中对应的物理页框号

  2. 检查有效性:判断该页是否已经加载到内存(如果没有,就发生缺页中断)

  3. 计算物理地址

    1
    物理地址 = 物理页框起始地址 + 页内偏移量 d

✅ 四、分页示例

已知:

  • 每页大小:4KB(即 2¹² 字节)
  • 虚拟地址:32 位
    • → 高 20 位为页号(因为 2³² / 2¹² = 2²⁰ 页)
    • → 低 12 位为页内偏移

🧠 示例问题:

一个进程访问虚拟地址 0x12345678,页表中该虚拟页号 0x12345 被映射到物理页框号 0xABC。求物理地址。

✍️ 解题步骤:

  1. 提取页号和偏移

    • 虚拟地址 = 0x12345678

    • 二进制结构为:

      1
      2
      页号 p  = 0x12345
      页内偏移 d = 0x678
  2. 页框号:根据页表查得页号 0x12345 对应的物理页框是 0xABC

  3. 物理地址计算

    • 每页大小为 4KB = 2^12 = 4096 字节
    • 页框基址 = 0xABC * 0x1000 = 0xABC000
    • 物理地址 = 0xABC000 + 0x678 = 0xABC678

✅ 答案:物理地址为 0xABC678


✅ 五、分页系统的性能问题与优化

📌 访问内存需要两次内存访问:

  1. 第一次:访问页表(找物理页框号)
  2. 第二次:访问物理内存(取数据)

为了解决这个性能瓶颈,引入了:


✅ TLB(Translation Lookaside Buffer)

  • TLB 是页表缓存,是一种小型、快速的联想存储器
  • 作用:缓存页表中最近使用的页号和页框号映射
  • 如果 TLB 命中,就不需要再访问内存查页表
  • 如果 TLB 未命中,就要从内存访问页表,然后把新的映射加载到 TLB 中

✅ 六、分页的优缺点

✅ 优点:

  • 内存管理简单,页大小固定、便于分配
  • 消除外部碎片(但会有内部碎片)
  • 支持虚拟内存与进程隔离
  • 易于实现按需分页与交换

❌ 缺点:

  • 每次访问需要额外查页表,效率低(TLB 缓解)
  • 页表可能很大,管理页表本身成为开销
  • 存在内部碎片(最后一页可能浪费空间)

✅ 七、分页 vs 分段 对比

特点 分段(Segmentation) 分页(Paging)
划分方式 按逻辑功能(段) 按固定大小(页)
大小 不固定 固定(如 4KB)
地址结构 段号 + 段内偏移 页号 + 页内偏移
碎片类型 外部碎片多 无外部碎片,但有内部碎片
逻辑意义 无,只是划块
易共享性 段易共享 页易共享

多级页表


✅ 一、什么是多级页表?

多级页表是一种 将页表本身也分页 的技术,目的是解决单级页表在大地址空间下的空间浪费问题。


✅ 二、背景:单级页表的问题

在一个 32 位系统中,虚拟地址空间为 4GB:

  • 页大小:4KB(即 2122^{12})
  • 页数:232212=220 = 2^{20} 个页
  • 每个页表条目(PTE)占 4 字节
  • 总页表大小:220×4=4MB2^{20} = 4

⚠️ 问题:

  • 对于一个只用了几页的进程,也要分配整张 4MB 页表,造成严重浪费。

✅ 三、核心思想:页表分页 → 分层管理

📌 多级页表的基本结构(以两级页表为例):

  1. 第一级页表(页目录 Page Directory)
    • 每项称为页目录项(PDE),存储第二级页表的物理地址
  2. 第二级页表(页表 Page Table)
    • 每项称为页表项(PTE),存储实际页框的物理地址

📌 虚拟地址划分:

以 32 位虚拟地址 & 4KB 页大小为例:

1
2
虚拟地址结构(32 位):
[ 10位页目录号 | 10位页表号 | 12位页内偏移 ]
  • 高 10 位(位 31~22):页目录索引
  • 中 10 位(位 21~12):页表索引
  • 低 12 位(位 11~0):页内偏移

✅ 四、地址转换过程(两级页表)

假设我们要访问虚拟地址 0x12345678,页大小为 4KB:

✍️ 1. 拆分地址:

  • 二进制表示:0001 0010 0011 0100 0101 0110 0111 1000
  • 页目录索引(PDI)= 高 10 位 = 0001001000 = 0x048
  • 页表索引(PTI)= 中 10 位 = 1101000101 = 0x345
  • 页内偏移(OFFSET)= 低 12 位 = 011001111000 = 0x678

✍️ 2. 查表转换:

  1. 使用 PDI (0x48) 查页目录表,找到对应的页表地址
  2. 用 PTI (0x345) 查该页表,得到对应页框的起始物理地址(比如 0xABC000
  3. 最终物理地址 = 页框地址 + 页内偏移 0x6780xABC000 + 0x678 = 0xABC678

✅ 最终访问的是物理地址 0xABC678


✅ 五、优点与缺点

✅ 优点:

  • 节省内存:只有访问过的页目录/页表才会被分配内存
  • 支持稀疏地址空间:适合实际程序只用小部分地址空间的情况
  • 方便地址空间扩展:适应从 32 位扩展到 64 位架构

❌ 缺点:

  • 地址转换更复杂:从1次页表访问 → 变成 2 次或多次
  • 性能下降:多次内存访问(靠 TLB 缓解)

✅ 六、常见的多级页表结构

架构 虚拟地址 页大小 分级结构
x86 32 位 32 位 4KB 两级页表(页目录 + 页表)
x86_64(Linux) 48 位 4KB 四级页表(PGD → PUD → PMD → PTE)

✅ 七、补充:Linux 四级页表结构(x86_64)

1
2
虚拟地址结构(48 位):
[ 9位 PGD | 9位 PUD | 9位 PMD | 9位 PTE | 12位页内偏移 ]
  • 每层表项数:29=5122^9 = 512
  • 每层表大小:512 × 8B = 4KB(刚好一页)

✅ 八、总结

项目 单级页表 多级页表
页表结构 扁平结构 分层结构
地址转换次数 1 次 多次(如 2~4 次)
内存使用 固定大页表 实际用多少分配多少
适合场景 小型系统 支持大虚拟空间

快表


✅ 什么是快表(TLB:Translation Lookaside Buffer)

📌 一、定义

TLB(快表) 是一种位于 CPU 内部的高速缓存,用于缓存最近使用过的页表项,加快虚拟地址到物理地址的转换速度。

✅ 全称:Translation Lookaside Buffer ✅ 中文:地址变换旁路缓冲区,也称「快表」


📌 二、背景知识

  • 在分页机制中,虚拟地址需要通过页表转换为物理地址
  • 页表在内存中,访问页表本身就需要一次内存访问
  • 如果每次访问都要查页表,会导致 效率低(两次内存访问)

📌 三、TLB 的作用:减少访问内存的次数

情况 描述
TLB 命中(Hit) CPU 在 TLB 中找到了页表项,直接计算物理地址,只访问一次内存
TLB 未命中(Miss) 去内存中查页表,找到页表项,再访问数据,通常需要两次访问

📌 四、局部性原理支撑

程序访问局部区域的概率大,短时间内会频繁访问相同页面。

  • 时间局部性:刚访问的数据很可能再次访问
  • 空间局部性:访问了某个地址,可能访问其邻近地址

TLB 只缓存最近访问的部分页表项(如 32~512 项),命中率高。


📌 五、TLB 工作示意图

1
2
3
4
5
6
7
8
9
10
11
12
13
CPU 虚拟地址 →
┌────────────┐
│ TLB 查找 │ ←—— 近期常用页表项
└────────────┘
↓命中?
是 ↓否
┌───────┐
│ 查页表 │ ←—— 从内存中查页表
└───────┘

┌────────────┐
│ 物理地址输出 │
└────────────┘

📌 六、补充概念

  • TLB 是 全相联缓存(每个项都能放任意页表映射)
  • TLB 是硬件级实现,由 CPU 自动维护
  • TLB Miss 时,通常需要:
    • 在页表中查找
    • 更新 TLB 缓存项(淘汰旧的)

✅分页与分段的区别

比较项 分页 Paging 分段 Segmentation
单位类型 物理单位 逻辑单位
面向对象 面向系统(操作系统管理内存) 面向用户(程序按功能划分)
对用户是否可见 不可见(程序员无需知道页) 可见(程序员知道代码段、数据段等)
分割依据 固定大小划分(如每页4KB) 按程序逻辑模块划分(如代码段、堆段)
尺寸大小 固定大小(系统统一) 不固定(取决于段内容)
地址结构 虚拟地址 = 页号 + 页内偏移 虚拟地址 = 段号 + 段内偏移
地址转换机制 页表(Page Table) 段表(Segment Table)
地址空间 一维 二维
优点 简化内存管理,避免碎片 有利于信息共享、保护
缺点 存储保护和共享不方便 内存利用率低,外部碎片

📌 补充:分页 vs 分段

  • 分页是为系统服务的:简化内存分配,提高内存利用
  • 分段是为用户服务的:便于程序结构组织、共享和保护

✅ 总结速记

对比点 分页 分段
单位 固定页 逻辑段
地址 页号 + 偏移 段号 + 偏移
维度 一维 二维
保护性 较弱 较强
用户可见

✅ 27、什么是交换空间(Swap Space)

📌 一、定义

交换空间(Swap Space) 是磁盘上的一块区域,用作内存的“后备扩展”,当物理内存不足时,操作系统会将部分暂时不使用的页面从内存转移到交换空间,以释放内存。


📌 二、为什么需要 Swap?

原因:物理内存有限,而程序运行又需要更多内存

  • 当 RAM 不够用时,可以临时借助磁盘(Swap)避免程序崩溃。
  • 利用了磁盘空间,扩大了虚拟内存的容量

📌 三、Swap 的位置

通常是:

  • 一个磁盘分区(swap 分区),或
  • 一个专用的swap 文件(如 /swapfile

📌 四、Swap 的用途

用途 描述
1️⃣ 内存不足时 把不常用的页换到磁盘,腾出内存
2️⃣ 启动程序时 程序初始加载的内存页,有些之后不再访问,可交换出
3️⃣ 系统挂起/休眠 将整个内存内容写入 Swap,实现挂起恢复(如 Linux suspend)

📌 五、工作机制简要

  1. 程序运行需要内存
  2. 物理内存已满
  3. 操作系统选择一部分“冷数据页”
  4. 将其写入 swap 区
  5. 释放 RAM,用于当前活跃程序

📌 六、图示类比(图书馆)

1
2
3
4
物理内存 = 书架  
交换空间 = 仓库

书架满了(内存满)→ 把不常读的书放仓库(Swap)→ 腾出空间放新书

📌 七、优点 & 缺点

优点 缺点
避免系统 OOM 崩溃 访问磁盘速度远慢于内存,性能下降
扩展虚拟内存 频繁交换会导致 thrashing(抖动)
支持系统休眠 SSD 上频繁写入会影响寿命

✅什么是缺页中断(Page Fault)

📌 一、定义

缺页中断是指程序访问某个页时,该页不在物理内存中,导致操作系统中断当前程序运行,将该页从磁盘中调入内存的过程。


📌 二、详细过程

  1. 程序访问虚拟地址中的某页
  2. 页表查不到该页的物理页号(页不在内存)
  3. 缺页中断触发
  4. 操作系统调用页调度程序:
    • 从交换空间(或程序文件)读出页面
    • 如内存已满,使用页面置换算法淘汰一页
  5. 更新页表
  6. 重新执行刚刚被中断的指令(透明给用户)

📌 三、图书馆类比(超经典🌟)

1
2
3
4
📚 你想找一本书(访问某页) → 书架上没有(页不在内存)  
→ 请图书管理员(操作系统)从仓库取书(从磁盘加载页)
→ 如果书架满了,先移走一本冷门书(页面置换算法)
→ 把新书放上来(调页),然后你再来读(重新执行指令)

📌 四、页面置换算法(简略提及)

在缺页中断中,内存满时必须移除某页:

  • FIFO(先进先出)
  • LRU(最近最少使用)
  • 最佳置换(OPT,理论最优)
  • Clock(二次机会)

📌 五、缺页中断频率与性能关系

缺页频率 系统状态
偶尔发生 正常、可接受
高频发生 内存不足,性能下降,可能出现抖动(Thrashing)

✅ 总结对比速记

概念 交换空间(Swap) 缺页中断(Page Fault)
本质 一块磁盘区域 一种中断机制
作用 扩展虚拟内存 调入缺失页
是否主动 被动使用 被动触发
位置 磁盘(Swap区) CPU → OS
是否涉及 IO 是(涉及磁盘) 是(加载页面)

✅ 页面置换算法详解

📌 一、背景:为什么需要页面置换算法?

在虚拟内存系统中,物理内存容量有限,当程序访问的页面不在内存中,就会发生缺页中断。如果内存已满,就需要置换(替换)一个已有的页面出来,为新页面腾空间。

所以,页面置换算法的目标是:

在内存已满时,尽量选择“不太会再用的页面”进行淘汰,以减少缺页中断的次数(Page Fault Rate)


📌 二、常见页面置换算法对比总览

算法名称 简写 思路 是否可实现 缺页率 实现复杂度
最佳置换算法 OPT 淘汰将来最久不使用的页 ❌ 理论存在 最低
先进先出算法 FIFO 淘汰最早进入内存的页 ✅ 简单实现 容易抖动
最近最久未使用算法 LRU 淘汰最长时间没访问的页 ✅ 常用 中-高
时钟算法(近似LRU) Clock 使用“二次机会”淘汰未访问页 ✅ 常用 接近LRU
最不常用算法 LFU 淘汰访问次数最少的页 ✅ 偶用 可能失效

✅ ① 最佳页面置换算法(OPT)

🔧 原理

  • 理论最优:淘汰“未来最长时间不会使用的页面”
  • 设想你能知道程序将来要访问哪些页。

🧠 类比

就像你知道接下来 1 小时你要读哪几本书,就先把不看的收起来。

✅ 优点

  • 缺页率最低,理论最优。

❌ 缺点

  • 无法实现:操作系统无法预知未来访问情况
  • 仅用于衡量其他算法性能的基准(Benchmark)。

✅ ② 先进先出页面置换算法(FIFO)

🔧 原理

  • 淘汰最早进入内存的页面
  • 使用队列结构:新页进队尾,淘汰队头页。

🧠 类比

像排队买票,最早排进去的最先被处理。

✅ 优点

  • 实现简单:只需要记录每页的进入时间顺序。

❌ 缺点

  • 会出现 Belady 异常:页框增加反而缺页率增加。
  • 不考虑页的实际使用频率。

✅ ③ 最近最久未使用算法(LRU)

🔧 原理

  • 淘汰最近最长时间未被访问的页面
  • 假设最近访问过的页面将来可能还会访问。

🧠 类比

像你用微信聊天,常聊的人排前面,不聊的会被滑走。

✅ 优点

  • 接近最优效果,缺页率低。
  • 实际中比较常用。

❌ 缺点

  • 实现开销大,需要维护每个页的访问时间(可用链表或硬件支持)。

✅ ④ 时钟页面置换算法(Clock)

🔧 原理

  • 是 LRU 的一种近似实现。
  • 每个页有一个访问位(Use Bit)
  • 页面按环形队列排列,像时钟指针一样转圈。
  • 当页面被访问时,访问位设为 1。
  • 替换时:
    • 如果访问位 = 1:清 0,跳过。
    • 如果访问位 = 0:替换该页。

🧠 类比

一圈人轮流举手(被访问),没举手的人(未访问)要被请出圈。

✅ 优点

  • 性能较好,接近 LRU
  • 实现简单,开销小。

❌ 缺点

  • 不是严格的 LRU,仅为近似。

✅ ⑤ 最不常用页面置换算法(LFU)

🔧 原理

  • 淘汰历史上被访问次数最少的页面
  • 统计每页的访问频率。

🧠 类比

像删朋友圈,经常联系的人保留,冷淡的先删。

✅ 优点

  • 适合访问频率长期稳定的应用。

❌ 缺点

  • 实现复杂,要记录访问计数。
  • 可能把近期活跃但总访问次数少的页面误删。

📌 三、图示对比类比(简图理解)

1
2
3
4
5
6
7
内存页框数 = 3,访问序列:A B C A B D A B C D

OPT: 淘汰未来最久不用的 → 缺页数最少(理想)
FIFO: 淘汰最早进来的 → 缺页多,可能出现Belady异常
LRU: 淘汰最长时间没访问 → 靠谱但实现复杂
Clock: 淘汰使用位为0的页 → 接近LRU,效率高
LFU: 淘汰使用最少的页 → 稳定但容易误伤“短期热点”

✅ 四、总结记忆口诀

📘 记忆口诀:

最优看未来,先进靠时间,最近最久用,时钟转一圈,最少靠频率。

算法 记忆点
OPT 未来不会访问
FIFO 最早进来
LRU 最近没用
Clock 给二次机会
LFU 最少用的淘汰