os

1. Course

2. 系统启动

现代计算机使用UEFI,可以一次加载超过512B的boot sector。

以下为JOS启动流程。

  • 计算机通电后先读取BIOS,加载到960KB~1MB地址出。
  • BIOS进行硬件自检,同时打印硬件信息在屏幕上。有问题蜂鸣器会响。
  • 之后计算机读取BIOS设置好的优先级最高的外部存储设备。读取第一个扇区(512字节,即主引导记录MBR)到0x7c00处。如果这个扇区最后两个字节是0x550XAA表明可以启动,否则不能。
  • 主引导记录即boot.S,其中的主要流程包括:
    • 关中断,开A20线(兼容性问题,寻找范围更大),加载段表(lgdt gdtdesc)(包含操作系统内核的段信息),寻址方式变为segment:offset
    • 设置CR0寄存器的CR0_PE_ON为1:从实模式(16bit寻址)切换到保护模式(32bit寻址)
      • 实模式下寻址方式:物理地址 = 段基址<<4 + 段内偏移,早期寄存器是16位,地址线是20位,只能访问1MB
        • 例如:%cs = xff00%ax = 0x0110,则物理地址为:0xff00<<4 + 0x0110 = 0xff110
      • 保护模式下寻址方式:segment:offset,segment找到该段的基址base,(检查flags可访问的话)之后直接与offset相加得到线性地址,如果没有分页则线性地址等于物理地址。
        • 程序员看到的是虚拟地址,但指令中出现的是逻辑地址即segment:offset
    • 跳转到保护模式代码段,该段主要执行:
      • 设置各寄存器的值,包括cs指令地址,ds数据段地址,ss栈指针等,jos设置其指向0x7c00
      • call bootmain:即boot/main.c中的代码
  • bootmain的主要工作:
    • 将硬盘上的kernel加载到内存里的0x10000处,其中.text段在0x100000处。并执行ELFHDR->e_entry(0x10000C处,boot/entry.S)。内核映像为ELF格式。
      • entry处的代码主要:这是CR3寄存器,开启分页,设置内核堆栈的起始地址(0xf0110000),之后call i386_init

3. 内存管理

3.1、分页

  • JOS采用二级页表,CR3指向page dircectory,虚拟地址高10位查找page dircectory中的Page Table Entry(PTE),每个PTE存放了一个页地址的高20位,PTE的低12位用作标志位,物理地址的低12位是从原虚拟地址直接拷贝过来的。

  • 现代X86是flat模式,即只有一个段,即段基址为0,所以虚拟地址=线性地址。

    • 在平坦模式下,段机制在两个地方会被用上,一个是per-cpu变量(内核开发中使用),另一个是线程局部存储(用户态开发中使用),它们分别会用到gs段和fs段。
  • 现代X86是四级页表。

  • 32位三级页表

    • PDE和PTE的每一项为32位。PD和PT的大小为4K。

    • 这种模式下仅能访问到4G的物理地址空间,应用程序和内核能用到的线性地址空间为4G。

      1560843558017

  • 32位PAE模式

    • PDE和PTE的每一项为64位。PD和PT的大小为4K

    • 这种模式下能访问到64G的物理地址空间,应用程序和内核能用到的线性地址空间为4G

      1560843571145

  • X86_64(IA32E/AMD64)下的4级页表

    • PDE和PTE的每一项为64位。PD和PT的大小为4K

    • 理论上,这种模式下能访问到2^64大小的物理地址空间,应用程序和内核能用到的线性地址空间为2^64。实际上,能访问的线性地址空间大小为2^48次方。

    • 在linux内核中,这四级页表分别被称为PGD、PUD、PMD、PT

      1560843673406

    • PTE项各字段的作用

      • P位,表示PTE指向的物理内存是否存在(Present),这可以用于标识物理页面是否被换出
      • R/W位,表示这个页是否是可读/可写的。这可以用于fork的cow机制
      • D位,表示这个页是否是脏页。一旦有数据写入到这个页面,CPU会自动将这个位置位。这可以用来在内核做页面回收及换入换出时,判断是否需要将这个页的数据写入到磁盘中。(实际的实现机制不清楚,但理论上是可以的)
      • U/S位,表示这个页面是否能够在用户态下被访问,内核通过此位来识别用户空间或内核空间的页
      • CPL(current privilege level),用两位表示,分别对应0-3共四个级别,放在CS段选择子的低两位,表示当前的运行等级(ring0-ring3)CPL<3为supervisor模式,CPL=3为user模式
      • 在用户态下,访问U/S位为0的页将引起page fault,这用来阻止用户程序对内核空间的非法访问。

      1560844318534

3.2、页框管理

1560848883315

  • 页框号pfnstruct page之间的转换,配置了SPARSEMEM_VMEMMAP的情况下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
// 此处相当于做了一个优化,加速转换,但是mem_section还是存在的
#if defined(CONFIG_SPARSEMEM_VMEMMAP)
#define __pfn_to_page(pfn) (vmemmap + (pfn))
#define __page_to_pfn(page) (unsigned long)((page) - vmemmap)
#elif defined(CONFIG_SPARSEMEM)
#define __page_to_pfn(pg) \
({ const struct page *__pg = (pg); \
int __sec = page_to_section(__pg); \
(unsigned long)(__pg - __section_mem_map_addr(__nr_to_section(__sec))); \
})

#define __pfn_to_page(pfn) \
({ unsigned long __pfn = (pfn); \
struct mem_section *__sec = __pfn_to_section(__pfn); \
__section_mem_map_addr(__sec) + __pfn; \
})
1
2
3
4
5
6
7
8
9
10
11
12
13
14
#define NR_SECTION_ROOTS  DIV_ROUND_UP(NR_MEM_SECTIONS, SECTIONS_PER_ROOT) //1<<(19/8)=2k
#define SECTIONS_SHIFT (MAX_PHYSMEM_BITS - SECTION_SIZE_BITS) // 46 - 27 = 19
#define NR_MEM_SECTIONS (1UL << SECTIONS_SHIFT) // 1 << 19
#define SECTIONS_PER_ROOT (PAGE_SIZE / sizeof (struct mem_section)) // 4k/16 = 256
// SECTION_SIZE_BITS 为 27 表示每个 section 为 128M
struct mem_section {
unsigned long section_mem_map;
unsigned long *pageblock_flags;
};

#define PAGES_PER_SECTION (1UL << PFN_SECTION_SHIFT) // 1 << 15 = 32k
#define PFN_SECTION_SHIFT (SECTION_SIZE_BITS - PAGE_SHIFT) // 27 - 12 = 15
// 即每个 section 管理 32k * 4k = 128M 的物理内存
// 每个 struct pages 大小为 64B, 即每个 section 所存的 struct page 数组的大小为 32k*64B = 2M
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
// 全局的,每个 NUMA 节点一个 pglist_data
struct pglist_data *node_data[MAX_NUMNODES] __read_mostly;
#define MAX_NUMNODES (1 << NODES_SHIFT)
#define NODES_SHIFT CONFIG_NODES_SHIFT // 自己的服务器上为 10, 阿里云单核为 4 ?

#define MAX_NR_ZONES 5
// MAX_ZONELISTS 为 1, NUMA下 为 2, 本节点的 node_zonelists 不够可使用备用的 node_zonelists 分配
typedef struct pglist_data {
struct zone node_zones[MAX_NR_ZONES];
struct zonelist node_zonelists[MAX_ZONELISTS];
int nr_zones;
unsigned long node_start_pfn;
unsigned long node_present_pages; /* total number of physical pages */
/* total size of physical page range, including holes */
unsigned long node_spanned_pages;
int node_id;
}pg_data_t;

struct zone {
struct free_area free_area[MAX_ORDER]; // 每个 free_area 即伙伴系统的一个2^i个连续页框的节点
}

enum zone_type {
ZONE_DMA,
ZONE_DMA32,
ZONE_NORMAL,
ZONE_HIGHMEM,
ZONE_MOVABLE,
ZONE_DEVICE,
__MAX_NR_ZONES
};

// strcut page 中的 flags 成员中的某些位可以反推出该 page 属于哪一个 node 及哪一个 zone
// 每个zone中都有

3.3、buddy系统

  • 用于管理页框缓冲池,解决频繁申请不同大小的连续页框导致的外部碎片问题。
  • 把所有的空闲页框组织为11个块链表:每个链表分别含2^0~2^10个连续的空闲页框。
  • 假设要找256个连续空闲页框,先定位到256对应的链表,如果没有再定位到512对应的链表,有的话就分割,并把剩余的256加入256对应的链表,以此类推。

3.4、slab分配器

  • 对若干来自于buddy系统的页框块进行有效管理,以满足不同大小“对象”分配的请求。
  • kmalloc_index函数返回kmalloc_caches数组的索引。
  • kmalloc根据对象大小,到相应的缓冲区中进行分配。
  • 当所分配对象大于8KB时,kmalloc维护的13个缓冲区已经无法使用了。
  • 通过调用buddy系统获取页框。
    | kmalloc_caches数组索引 | 对象大小范围(字节) |
    | ———————- | ——————– |
    | 1 | (64, 96] |
    | 2 | (128, 192] |
    | 3 | (0, 8] |
    | 4 | (8, 16] |
    | 5 | (16, 32] |
    | 6 | (32, 64] |
    | 7 | (96, 128] |
    | 8 | (192, 256] |
    | 9 | (256, 512] |
    | 10 | (512, 1024] |
    | 11 | (1024, 2048] |
    | 12 | (2048, 4096] |
    | 13 | (4096, 8192] |

3.5、kmalloc和vmalloc

  • kmalloc
    • 根据flags找到slab中对应的kmem_cache(如__GFP_DMA__GFP_NORMAL等),并从中分配内存。
    • 分配的内存地址在物理地址和虚拟地址是上都连续。
  • vmalloc
    • 分配的内存地址虚拟地址上连续,在物理地址上不要求连续。
    • 需要建立专门的页表项把物理上不连续的页转换为虚拟地址空间上的页。映射时会出现TLB抖动,因为多次查映射表可能在TLB(Translation lookaside buffer,是一种硬件缓冲区)中不断切换。

3.6、用户态内存管理:mmap和brk

简单来说就是先从per-thread vma缓存中找再从红黑树中找满足大小要求的vm_area_struct。虚拟地址空间映射好后,物理内存的的分配与映射是通过page fault完成的。对于文件映射会先预读数据到内核中。如果指定了populate选项会直接先建立到物理内存的分配与映射。匿名映射是先创建一个创建一个临时的shm file(包括它的dentryinodefile结构体)再与合适的vma映射。

  • mmap的那些范围通过vm_area_struct结构体管理。这个结构体以起始范围为key,通过红黑树连接起来,每个相邻的vm_area_struct之间同时还使用双向链表连接。
  • 用户态与mmap有关的流程:
    • 调用mmap,映射一个文件的一部分或者一段内存空间
    • 如果mmap的时候要求populate,则需要先建立相关的映射(对于文件而言,需要预读数据到内核中,并建立映射关系;对于内存而言,需要映射相关的内存空间)
    • 在用户态的运行过程中,可能会在访问某个地址时出现page fault。这时,page fault经过层层检查,发现是mmap的一段区域引发的,就会去建立映射关系(如上文)。
    • 在建立好映射关系后,重新执行引起page fault的指令
    • 调用msync或者取消映射时,对于文件而言,需要将数据刷到磁盘上
    • 调用munmap取消映射
  • mmap内部的实现:
    • 通过sys_mmap进入内核(函数实现在/arch/x86/kernel/sys_x86_64.c中)
    • 调用到了sys_mmap_pgoff(函数实现在/mm/mmap.c中)
      • 如果是非匿名映射,获取fd对应的file。如果file是大页文件系统的文件,将length对齐到2M
      • 否则,如果设置了MAP_HUGETLB标志,在大页文件系统中创建一个file
      • 调用vm_mmap_pgoff
        • 安全检查
        • 调用do_mmap_pgoff,这个函数转发数据到do_mmapdo_mmap的流程见下文。
        • 如果用户指定了要populate,则调用mm_populate创建具体的映射关系
    • 完成mmap,将file的引用计数减一
  • do_mmap
    • 参数检查
    • 获取未映射的内存区域
      • 如果是文件映射,且file->f_op->get_unmapped_area不为NULL,则调用该函数搜索未映射的内存区域
      • 如果是共享内存映射,则调用shmem_get_unmapped_area搜索未映射的内存区域
      • 如果上述两者都为NULL,则调用current->mm->get_unmapped_area,该函数一般对应到arch_get_unmapped_area(位于/arch/x86/kernel/sys_x86_64.c中)
    • 对其他参数进行检查
    • 调用mmap_region进行映射。
  • mmap_region
    • 将映射范围内原来的那些已经被映射的空间unmap
    • 判断能否和前后范围内的vma合并,如果能合并,则函数返回
    • 否则,新建一个vma并初始化
    • 如果是文件映射,则调用file->f_op->mmap来进行具体的映射
    • 否则,如果是匿名共享内存映射,则创建一个临时的shm file(包括它的dentryinodefile结构体),并使用shmem_file_operations/shmem_inode_operations/shmem_aops等来初始化file/inode/address_space,对于vma,使用shmem_vm_ops来初始化
    • 接下来,将vma加入到红黑树中
  • brk也会去把已经映射的区域unmap掉,然后再做mmapbrk其实是一个简陋的mmap,它不管文件,cow之类的问题,只匿名映射内存。在malloc的实现中,有了mmap,一般不会去调用brk,因为它有可能把原来的映射给释放掉。

3.7、内核地址空间共享机制

  • 内核地址空间是共享的,每当fork一个进程时,内核会拷贝属于内核地址空间的那部分pgd表,使得所有的进程的pgd表中关于内核地址空间的部分都指向同样的pud表。
  • 但是在运行过程中,内核可能又在vmalloc区域映射了一些新的页,而其他进程是不知道的,这些进程在陷内核访问这些页时,会触发page fault。在page fault的处理例程中,会去init_mm中查找对应区域的这些页表项,将这些页表项拷贝到触发page fault的进程的页表项中。(事实上,只有pgd表项为空,才会触发vmallocpage fault
  • 对于内核module来说,如果在运行时动态加载了一个module,那么它的代码会被加载到一个专门的区域中,但这个区域并不在vmalloc区域内,那么内核中的其他进程怎么知道这一新映射的module代码的位置呢?事实上,这一区域能够被一个pgd表项cover住,那么,在fork的时候,所有进程的这一个pgd表项,已经对应到了同一个对应的pud页。内核在映射module的时候,是修改的pud/pmd等页表项,其他进程自然能够看到这一映射关系,而不会引发page fault

3.8、共享内存

  • 这一套是在glibc里面实现的
    • shm_open创建一个file,获取对应的fd
    • mmap映射fd
    • munmap取消映射
    • shm_unlink减少引用计数
  • 这一套机制是通过open/dev/shm下面创建文件,用mmap来映射的。这套机制会经过fdtable,所以更为安全。

3.9、 ptmalloc

  • ptmalloc通过mmap或brk(仅main_arena使用)每次批发64MB大小的内存(称为heap)来管理。
  • ptmalloc中有多个arena,即struct malloc_state。只有一个main_arena,其它的arena是动态分配的,但数量有上限,这些arena以链表的形式组织。分配内存找arena时可能会逐个对空闲的arena进行try_lock
  • 每个arena管理多个heap。每个heap通过prev指针连接起来,arena->top指向最近分配的heap中的,未分配给用户的,包含了heap尾部的那个chunk。通过arena->top,能够找到最近的那个heap。通过最近的那个heapprev指针,能够依次找到以前所有的heap
  • heap释放时会出现某一个heap未全部空闲则该heap前面的空闲的heap无法得到释放的问题。
  • 用户请求的空间都用chunk来表示。
  • 所有的空闲的chunk被组织在fastbinunsorted binsmall binlarge bin中。
  • fastbin可看作small bin的缓存,缓存16B~64B(以8B递进,共10个)的chunk
  • unsorted binsmall binlarge bin都是在bins数组中,只是不同index范围区分了他们。
  • chunk被分配出去时,其在空闲链表中的前后指针以及前后chunk size的字段会被复用给用户作为空闲区域。
  • 每个线程有tcache,并且每个线程有一个thread_arena指向当前线程正在使用的arena
  • unsorted bin可以看作small binlarge bin的缓冲,链表头是bins[1]fastbin中的空闲chunk合并时会先放到unsorted bin中。分配时检查unsorted bin没有合适的chunk就会将unsorted bin中的chunk放到small binlarge bin中。
  • small bin中的chunk大小范围为32B~1088B(以16B递增,共62bin链表,bin[2]~bin[63])。
  • large bin中的chunk大小范围为1024B以上。
  • 另外,每个线程有一个tcache,共64项,从最小的32字节开始,以16字节为单递增。
  • 链表操作通过CASarena争用需要加锁。

3.10、jemalloc

  • jemalloc 中大量使用了宏生成代码,比较晦涩。
    • 通过避免 false cache line sharing,使用内存着色等,提高 cache line 效率
    • 使用多个 arena 管理、更细粒度的锁、 tsdtcache等,最小化锁竞争
    • 使用 slab 分配不同大小的对象,精心选择 size classes,减少内存碎片
    • 使用多层缓存,内存的释放和分配会经历很多阶段,提升速度
  • 每个线程有一个thread specific datastruct tsd_s tsd,其中有两个指针,iarenaarena分别指向用于元数据分配和用于普通数据分配的arena。所以,tsd需要找两个arena进行绑定(这两个arena可能是同一个)。
  • jemalloc会创建多个arena,每个线程由一个 arena 负责。arena有引用计数字段nthreads[2]nthreads[0]计录普通数据分配arena指针绑定这个arena的次数,nthreads[1]记录元数据分配iarena指针绑定这个arena的次数。一个tsd绑定arena后,就不会改变arena
  • 有一个全局变量narenas_auto,它在初始化时被计算好,表示能够创建的arena的最大数量。
  • 有多个arena,以全局数组的形式组织。每个线程有一个tcache,其中有指向某个arena的指针。
  • 当需要绑定一个arena时,遍历所有已创建的arena,并保存所有arenanthreads值最小的那个(根据是绑定元数据还是普通数据,判断使用nthreads[0]还是nthreads[1])。
    • 如果在遍历途中发现数组中有NULL(也就是说数组有slot,还可以创建新的arena),那么就创建一个新的arena,将arena放到那个slot中,并绑定在那个arena
    • 如果遍历途中发现所有的slot都被用上了,那么就选择nthreads值最小的那个,绑定那个arena
  • jemalloc通过mmapchunk(默认2M)为单位向操作系统申请内存。每个chunk的头部会有一个extent_node_t记录其元数据信息,如所属的arena和起始地址。这些chunk会以基数树的形式组织起来,保存 chunk 地址到 extent_node_t 的映射
  • jemalloc内部动态分配的内存通过base组织。base 使用 extent_node_t 组成的红黑树 base_avail_szad 管理 chunk。每次需要分配时,会从红黑树中查找内存大小相同或略大的、地址最低的 node, 然后从 node 负责的 chunk 中分配内存。
  • chunk 使用 Buddy allocation 划分为不同大小的 runrun 使用 Slab allocation 划分为固定大小的 region,大部分内存分配直接查找对应的 run,从中分配空闲的 region,释放就是标记 region 为空闲。
  • jemalloc 将对象按大小分为3类,不同大小类别的分配算法不同:
    • small8B-14K): 从对应 bin 管理的 run 中返回一个 region
    • large(16K-1792K: 大小比 chunk 小,比 page 大,会单独返回一个 run
    • huge(2M-64M: 大小为 chunk 倍数,会分配 chunk
  • mutex 尽量使用 spinlock,减少线程间的上下文切换

4. 进程管理

  • 0号进程idle进程,1号是initsystemd进程,2号是kthreadd进程
  • 当没有进程需要调度器调度时,就执行idle进程,其task_struct通过宏初始化,存放在内核data
  • 内核init_taskidle进程的栈大小:x6416kx86_328k
  • task_struct内部存一个void *stack指向栈的基址

5. 地址空间

0000000000000000 - 00007fffffffffff (=47 bits) user space, different per mm
hole caused by [47:63] sign extension
ffff800000000000 - ffff87ffffffffff (=43 bits) guard hole, reserved for hypervisor
ffff880000000000 - ffffc7ffffffffff (=64 TB) direct mapping of all phys. memory
ffffc80000000000 - ffffc8ffffffffff (=40 bits) hole
ffffc90000000000 - ffffe8ffffffffff (=45 bits) vmalloc/ioremap space
ffffe90000000000 - ffffe9ffffffffff (=40 bits) hole
ffffea0000000000 - ffffeaffffffffff (=40 bits) virtual memory map (1TB) //vmemmap,存放所有struct page*

  • 用户地址空间

    从低地址到高地址:

    • text 代码段 —— 代码段,一般是只读的区域;
    • static_data 段 =
    • stack 栈区 —— 局部变量,函数的参数,返回值等,由编译器自动分配释放;
    • heap 堆区 —— 动态内存分配,由程序员分配释放;
  • 用户空间和内核空间

    • CPU其实并不知道什么用户空间和内核空间,它是通过PTE的U/S位与CPL来判断这个页是否可以被访问。所以,内核空间的那些页面对应的PTE与用户空间对应的PTE中,U/S位实际上是不同的,内核通过这一方式来划分用户空间和内核空间。
    • 用户态显然不可以访问内核空间,但是内核态下也不一定就能访问用户空间。这与CPU的配置有关,规则很复杂,可以参考Intel手册卷三4.6节,这里提一个关键字SMAP,有兴趣可以自行搜索,在较新的内核版本中,这一机制已经被使用。
    • 关于vdso和vvar:主要将部分安全的内核代码映射到用户空间,这使得程序可以不进入内核态直接调用系统调用。

      1560844894694

    • 线性地址空间划分如上图所示。内核空间的划分是确定的,写在内核代码中的,而用户态的空间在可执行文件被装载时才知道,由装载器和链接器来决定(可能需要参考elf相关的文档,才知道具体的装载位置)。不过,用户态空间整体的布局如上图所示,内核的current->mm结构体中记录着相关段的位置。

  • task_struct

  • thread_info

  • task_struct->active_mm

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
     typedef unsigned long	pgdval_t;
    typedef struct { pgdval_t pgd; } pgd_t;

    struct mm_struct {
    // 管理mmap出来的内存,brk出来的也是在这brk就是一个简化版的 mmap, 只映射匿名页
    struct vm_area_struct *mmap;
    struct rb_root mm_rb; // 通过红黑树组织
    u32 vmacache_seqnum; /* per-thread vmacache */
    pgd_t * pgd; // 页表指针,与 arch 相关, x64 下 pgd_t 为 unsigned long
    };

    struct task_struct {
    struct thread_info thread_info; // 位于栈顶部,可用来定位 task_struct
    void *stack; // 指向栈
    struct mm_struct *mm, *active_mm; // 内核线程没有 mm, 但有 active_mm
    // active_mm 用于 context_switch 时的加速

    // 每个vma表示一个虚拟内存区域
    // VMACACHE_SIZE 为 4,per-thread vma缓存
    // 4.4 为 struct vm_area_struct *vmacache[VMACACHE_SIZE];
    // 通过 #define VMACACHE_HASH(addr) ((addr >> PAGE_SHIFT) & VMACACHE_MASK)
    // 决定vma的数组存储位置,PAGE_SHIFT 为 12,VMACACHE_MASK 为 VMACACHE_SIZE-1 即 3
    struct vmacache vmacache;

    };

    struct vm_area_struct {
    // [vm_start, vm_end)
    unsigned long vm_start; /* Our start address within vm_mm. */
    unsigned long vm_end; // The first byte after our end address within vm_mm.
    unsigned long vm_flags; /* 设置读写等权限和是否为共享内存等等,见 mm.h */
    /* linked list of VM areas per task, sorted by address */
    struct vm_area_struct *vm_next, *vm_prev; // 2.6 只有 next
    struct rb_node vm_rb;
    struct mm_struct *vm_mm; /* The address space we belong to. */
    /* Function pointers to deal with this struct. */
    const struct vm_operations_struct *vm_ops;
    struct file * vm_file; /* File we map to (can be NULL). */
    /* Information about our backing store: */
    unsigned long vm_pgoff; /* Offset (within vm_file) in PAGE_SIZE units */
    };

    struct vmacache {
    u32 seqnum; // 4.4放在 task_struct 中, 当其与 mm_struct 中的 seqnum 不一致时缓存失效
    struct vm_area_struct *vmas[VMACACHE_SIZE];
    };

6. 文件系统

7. 系统调用

8. 信号

9. IO管理

10. 中断和异常

1、中断、异常和陷入

  • 中断:是为了设备与CPU之间的通信。
    • 典型的有如服务请求,任务完成提醒等。比如我们熟知的时钟中断,硬盘读写服务请求中断。
    • 断的发生与系统处在用户态还是在内核态无关,只决定于EFLAGS寄存器的一个标志位。我们熟悉的sti, cli两条指令就是用来设置这个标志位,然后决定是否允许中断。
    • 中断是异步的,因为从逻辑上来说,中断的产生与当前正在执行的进程无关。
  • 异常:异常是由当前正在执行的进程产生。异常包括很多方面,有出错(fault),有陷入(trap),也有可编程异常(programmable exception)。
    • 出错(fault)和陷入(trap)最重要的一点区别是他们发生时所保存的EIP值的不同。出错(fault)保存的EIP指向触发异常的那条指令;而陷入(trap)保存的EIP指向触发异常的那条指令的下一条指令。
    • 因此,当从异常返回时,出错(fault)会重新执行那条指令;而陷入(trap)就不会重新执行。
    • 缺页异常(page fault),由于是fault,所以当缺页异常处理完成之后,还会去尝试重新执行那条触发异常的指令(那时多半情况是不再缺页)。
    • 陷入的最主要的应用是在调试中,被调试的进程遇到你设置的断点,会停下来等待你的处理,等到你让其重新执行了,它当然不会再去执行已经执行过的断点指令。
    • 关于异常,还有另外一种说法叫软件中断(software interrupt),其实是一个意思。

2、中断向量表

  • IDTR寄存器指向中断向量表。

11. 进程间通信

12. 网络

13.内核同步机制

问题

  • 内核RCU机制
  • seq_lock:写友好
  • rcu:读友好,更新时先拷贝,设置拷贝项的先修改再设置自身指向的前后指针,再设置前面的指向它,再设置自己指向后面的。删除时,与更新相同,只是最后释放的时候调用synchronize_rcu()call_rcu()在一段间隔后回收,间隔(grace period)的确定是等待当前时间点所有未完成的read操作执行完
  • madvise
  • 平常调用mmap实际调的是glibcmmap,其对内核的系统调用mmap进行了封装,最终调用的是mmap2 -> do_mmap
  • sys_mmap源码应当搜索SYSCALL_DEFINE6(mmap,里面调用SYSCALL_DEFINE6(mmap_pgoff,再进入ksys_mmap_pgoff -> vm_mmap_pgoff -> do_mmap_pgoff -> do_mmap
  • mmap的最初起始位置有随机页偏移
  • 内核配置一般是没有开启CONFIG_PREEMPT,只开启了CONFIG_PREEMPT_VOLUNTARY
  • 内核的各种中断和异常
  • 缺页异常的处理
  • 内存碎片
  • CPU执行一条指令的过程:取指、译码、执行、访存、写回
  • CPU指令乱序
    • cpu为了提高流水线的运行效率,会做出比如:1)对无依赖的前后指令做适当的乱序和调度;2)对控制依赖的指令做分支预测;3)对读取内存等的耗时操作,做提前预读;等等。以上总总,都会导致指令乱序的可能。
    • 但是对于x86的cpu来说,在单核视角上,其实它做出了Sequential consistency的一致性保障,指令在cpu核内部确实是乱序执行和调度的,但是它们对外表现却是顺序提交的,cpu只需要把内部真实的物理寄存器按照指令的执行顺序,顺序映射到ISA寄存器上,也就是cpu只要将结果顺序地提交到ISA寄存器,就可以保证Sequential consistency。
  • per-cpu变量和线程局部存储。