Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


Release 1.0
[palacios.git] / palacios / include / palacios / vmm_paging.h
diff --git a/palacios/include/palacios/vmm_paging.h b/palacios/include/palacios/vmm_paging.h
new file mode 100644 (file)
index 0000000..313afc7
--- /dev/null
@@ -0,0 +1,341 @@
+/*
+ * This file is part of the Palacios Virtual Machine Monitor developed
+ * by the V3VEE Project with funding from the United States National 
+ * Science Foundation and the Department of Energy.  
+ *
+ * The V3VEE Project is a joint project between Northwestern University
+ * and the University of New Mexico.  You can find out more at 
+ * http://www.v3vee.org
+ *
+ * Copyright (c) 2008, Jack Lange <jarusl@cs.northwestern.edu> 
+ * Copyright (c) 2008, The V3VEE Project <http://www.v3vee.org> 
+ * All rights reserved.
+ *
+ * Author: Jack Lange <jarusl@cs.northwestern.edu>
+ *
+ * This is free software.  You are permitted to use,
+ * redistribute, and modify it as specified in the file "V3VEE_LICENSE".
+ */
+
+
+#ifndef __VMM_PAGING_H__
+#define __VMM_PAGING_H__
+
+
+#ifdef __V3VEE__
+
+#include <palacios/vmm_types.h>
+#include <palacios/vmm_util.h>
+
+/*
+
+In the following, when we say "page table", we mean the whole 2 or 4 layer
+page table (PDEs, PTEs), etc.
+
+
+guest-visible paging state
+ This is the state that the guest thinks the machine is using
+ It consists of
+   - guest physical memory
+       The physical memory addresses the guest is allowed to use
+       (see shadow page maps, below)
+   - guest page tables 
+       (we care about when the current one changes)
+   - guest paging registers (these are never written to hardware)
+        CR0
+        CR3
+
+
+shadow paging state
+ This the state that the machine will actually use when the guest
+ is running.  It consists of:
+   - current shadow page table
+        This is the page table actually useed when the guest is running.
+        It is changed/regenerated when the guest page table changes
+        It mostly reflects the guest page table, except that it restricts 
+        physical addresses to those the VMM allocates to the guest.
+   - shadow page maps
+        This is a mapping from guest physical memory addresses to
+        the current location of the guest physical memory content.   
+        It maps from regions of physical memory addresses to regions 
+        located in physical memory or elsewhere.  
+        (8192,16384) -> MEM(8912,...)
+        (0,8191) -> DISK(65536,..) 
+   - guest paging registers (these are written to guest state)
+        CR0
+        CR3
+
+host paging state
+  This is the state we expect to be operative when the VMM is running.
+  Typically, this is set up by the host os into which we have embedded
+  the VMM, but we include the description here for clarity.
+    - current page table
+        This is the page table we use when we are executing in 
+        the VMM (or the host os)
+    - paging regisers
+        CR0
+        CR3
+
+
+The reason why the shadow paging state and the host paging state are
+distinct is to permit the guest to use any virtual address it wants,
+irrespective of the addresses the VMM or the host os use.  These guest
+virtual addresses are reflected in the shadow paging state.  When we
+exit from the guest, we switch to the host paging state so that any
+virtual addresses that overlap between the guest and VMM/host now map
+to the physical addresses epxected by the VMM/host.  On AMD SVM, this
+switch is done by the hardware.  On Intel VT, the switch is done
+by the hardware as well, but we are responsible for manually updating
+the host state in the vmcs before entering the guest.
+*/
+
+
+
+
+#define MAX_PTE32_ENTRIES          1024
+#define MAX_PDE32_ENTRIES          1024
+
+#define MAX_PTE64_ENTRIES          512
+#define MAX_PDE64_ENTRIES          512
+#define MAX_PDPE64_ENTRIES         512
+#define MAX_PML4E64_ENTRIES        512
+
+
+/* Converts an address into a page table index */
+#define PDE32_INDEX(x)  ((((uint_t)x) >> 22) & 0x3ff)
+#define PTE32_INDEX(x)  ((((uint_t)x) >> 12) & 0x3ff)
+
+/* Gets the base address needed for a Page Table entry */
+#define PD32_BASE_ADDR(x) (((uint_t)x) >> 12)
+#define PT32_BASE_ADDR(x) (((uint_t)x) >> 12)
+#define PD32_4MB_BASE_ADDR(x) (((uint_t)x) >> 22)
+
+
+#define PML4E64_BASE_ADDR(x) (((ullong_t)x) >> 12)
+#define PDPE64_BASE_ADDR(x) (((ullong_t)x) >> 12)
+#define PDE64_BASE_ADDR(x) (((ullong_t)x) >> 12)
+#define PTE64_BASE_ADDR(x) (((ullong_t)x) >> 12)
+
+#define PT32_PAGE_ADDR(x)   (((uint_t)x) & 0xfffff000)
+#define PT32_PAGE_OFFSET(x) (((uint_t)x) & 0xfff)
+#define PT32_PAGE_POWER 12
+
+#define PD32_4MB_PAGE_ADDR(x) (((uint_t)x) & 0xffc00000)
+#define PD32_4MB_PAGE_OFFSET(x) (((uint_t)x) & 0x003fffff)
+#define PAGE_SIZE_4MB (4096 * 1024)
+
+/* The following should be phased out */
+#define PAGE_OFFSET(x)  ((((uint_t)x) & 0xfff))
+#define PAGE_ALIGNED_ADDR(x)   (((uint_t) (x)) >> 12)
+#define PAGE_ADDR(x)   (PAGE_ALIGNED_ADDR(x) << 12)
+#define PAGE_POWER 12
+#define PAGE_SIZE 4096
+/* ** */
+
+
+
+
+#define CR3_TO_PDE32(cr3) (V3_VAddr((void *)(((ulong_t)cr3) & 0xfffff000)))
+#define CR3_TO_PDPTRE(cr3) (V3_VAddr((void *)(((ulong_t)cr3) & 0xffffffe0)))
+#define CR3_TO_PML4E64(cr3)  (V3_VAddr((void *)(((ullong_t)cr3) & 0x000ffffffffff000LL)))
+
+
+
+
+/* Accessor functions for the page table structures */
+#define PDE32_T_ADDR(x) (((x).pt_base_addr) << 12)
+#define PTE32_T_ADDR(x) (((x).page_base_addr) << 12)
+#define PDE32_4MB_T_ADDR(x) (((x).page_base_addr) << 22)
+
+/* Page Table Flag Values */
+#define PT32_HOOK 0x1
+#define PT32_GUEST_PT 0x2
+
+
+
+
+/* PDE 32 bit PAGE STRUCTURES */
+typedef enum {PDE32_ENTRY_NOT_PRESENT, PDE32_ENTRY_PTE32, PDE32_ENTRY_LARGE_PAGE} pde32_entry_type_t;
+typedef enum {PT_ACCESS_OK, PT_ENTRY_NOT_PRESENT, PT_WRITE_ERROR, PT_USER_ERROR} pt_access_status_t;
+
+typedef struct pde32 {
+  uint_t present         : 1;
+  uint_t writable        : 1;
+  uint_t user_page       : 1;
+  uint_t write_through   : 1;
+  uint_t cache_disable   : 1;
+  uint_t accessed        : 1;
+  uint_t reserved        : 1;
+  uint_t large_page     : 1;
+  uint_t global_page     : 1;
+  uint_t vmm_info        : 3;
+  uint_t pt_base_addr    : 20;
+} pde32_t;
+
+typedef struct pde32_4MB {
+  uint_t present         : 1;
+  uint_t writable        : 1;
+  uint_t user_page       : 1;
+  uint_t write_through   : 1;
+  uint_t cache_disable   : 1;
+  uint_t accessed        : 1;
+  uint_t dirty           : 1;
+  uint_t one             : 1;
+  uint_t global_page     : 1;
+  uint_t vmm_info        : 3;
+  uint_t pat             : 1;
+  uint_t rsvd            : 9;
+  uint_t page_base_addr  : 10;
+
+} pde32_4MB_t;
+
+typedef struct pte32 {
+  uint_t present         : 1;
+  uint_t writable        : 1;
+  uint_t user_page       : 1;
+  uint_t write_through   : 1;
+  uint_t cache_disable   : 1;
+  uint_t accessed        : 1;
+  uint_t dirty           : 1;
+  uint_t pte_attr        : 1;
+  uint_t global_page     : 1;
+  uint_t vmm_info        : 3;
+  uint_t page_base_addr  : 20;
+} pte32_t;
+/* ***** */
+
+/* 32 bit PAE PAGE STRUCTURES */
+
+//
+// Fill in
+//
+
+/* ********** */
+
+
+/* LONG MODE 64 bit PAGE STRUCTURES */
+typedef struct pml4e64 {
+  uint_t present        : 1;
+  uint_t writable       : 1;
+  uint_t user_page           : 1;
+  uint_t write_through  : 1;
+  uint_t cache_disable  : 1;
+  uint_t accessed       : 1;
+  uint_t reserved       : 1;
+  uint_t zero           : 2;
+  uint_t vmm_info       : 3;
+  ullong_t pdp_base_addr : 40;
+  uint_t available      : 11;
+  uint_t no_execute     : 1;
+} pml4e64_t;
+
+
+typedef struct pdpe64 {
+  uint_t present        : 1;
+  uint_t writable       : 1;
+  uint_t user_page           : 1;
+  uint_t write_through  : 1;
+  uint_t cache_disable  : 1;
+  uint_t accessed       : 1;
+  uint_t reserved       : 1;
+  uint_t large_page    : 1;
+  uint_t zero           : 1;
+  uint_t vmm_info       : 3;
+  ullong_t pd_base_addr : 40;
+  uint_t available      : 11;
+  uint_t no_execute     : 1;
+} pdpe64_t;
+
+
+
+
+typedef struct pde64 {
+  uint_t present         : 1;
+  uint_t writable        : 1;
+  uint_t user_page       : 1;
+  uint_t write_through   : 1;
+  uint_t cache_disable   : 1;
+  uint_t accessed        : 1;
+  uint_t reserved        : 1;
+  uint_t large_page     : 1;
+  uint_t reserved2       : 1;
+  uint_t vmm_info        : 3;
+  ullong_t pt_base_addr  : 40;
+  uint_t available       : 11;
+  uint_t no_execute      : 1;
+} pde64_t;
+
+typedef struct pte64 {
+  uint_t present         : 1;
+  uint_t writable        : 1;
+  uint_t user_page       : 1;
+  uint_t write_through   : 1;
+  uint_t cache_disable   : 1;
+  uint_t accessed        : 1;
+  uint_t dirty           : 1;
+  uint_t pte_attr        : 1;
+  uint_t global_page     : 1;
+  uint_t vmm_info        : 3;
+  ullong_t page_base_addr : 40;
+  uint_t available       : 11;
+  uint_t no_execute      : 1;
+} pte64_t;
+
+/* *************** */
+
+typedef struct pf_error_code {
+  uint_t present           : 1; // if 0, fault due to page not present
+  uint_t write             : 1; // if 1, faulting access was a write
+  uint_t user              : 1; // if 1, faulting access was in user mode
+  uint_t rsvd_access       : 1; // if 1, fault from reading a 1 from a reserved field (?)
+  uint_t ifetch            : 1; // if 1, faulting access was an instr fetch (only with NX)
+  uint_t rsvd              : 27;
+} pf_error_t;
+
+
+
+
+void delete_page_tables_pde32(pde32_t * pde);
+
+
+pde32_entry_type_t pde32_lookup(pde32_t * pd, addr_t addr, addr_t * entry);
+int pte32_lookup(pte32_t * pte, addr_t addr, addr_t * entry);
+
+// This assumes that the page table resides in the host address space
+// IE. IT DOES NO VM ADDR TRANSLATION
+int pt32_lookup(pde32_t * pd, addr_t vaddr, addr_t * paddr);
+
+
+
+pt_access_status_t can_access_pde32(pde32_t * pde, addr_t addr, pf_error_t access_type);
+pt_access_status_t can_access_pte32(pte32_t * pte, addr_t addr, pf_error_t access_type);
+
+
+
+
+
+struct guest_info;
+
+pde32_t * create_passthrough_pts_32(struct guest_info * guest_info);
+pml4e64_t * create_passthrough_pts_64(struct guest_info * info);
+
+
+
+
+
+void PrintDebugPageTables(pde32_t * pde);
+
+
+
+
+void PrintPT32(addr_t starting_address, pte32_t * pte);
+void PrintPD32(pde32_t * pde);
+void PrintPTE32(addr_t virtual_address, pte32_t * pte);
+void PrintPDE32(addr_t virtual_address, pde32_t * pde);
+void PrintPTE64(addr_t virtual_address, pte64_t * pte);
+
+#endif // !__V3VEE__
+
+
+
+#endif